SOGO論壇
  登入   註冊   找回密碼
查看: 227|回覆: 0
列印 上一主題 下一主題

[初探AI] 【版主推薦4】混合專家模型能讓AI學會思考嗎? [複製連結]

Rank: 10Rank: 10Rank: 10

狀態︰ 離線
跳轉到指定樓層
1
發表於 2025-6-16 09:00:57 |只看該作者 |正序瀏覽 | x 3
本文最後由 smartlion 於 2025-6-16 11:16 編輯

混合專家模型(MoE, mixture of experts)是1999年提出的模型架構,關鍵是運用已預訓練的語素(token)路由器將語素分流至一或多個專家模型(獨立的類神經系統)中運算,藉此能在有限的算力成本下,進行更少次的運算,能更快的得到數據的深層資訊!彷彿是人類經由苦思之後得到洞見的過程,也像多核心處理器的概念!

這個影片很有意思,值得一看,探索AI的未來架構!


若想更進階理解MoE,請續看這個影片。


講到電腦的算力資源與效率,您會更想知道數據在電腦裡是怎樣計算處理的嗎?請看電腦程式前傳:用聊天的方式了解「演算法」的由來,如何產出更有效率的演算法?若您對電腦程式裡的核心概念「演算法」有興趣,請看這段影片,用淺顯易懂的方式帶您走進這神奇的世界!

已有 1 人評分威望 收起 理由
smartlion + 10 謝謝您提供的好影片,有淺顯易懂的演算法概.

總評分: 威望 + 10   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊


本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2025-7-28 19:58

© 2004-2025 SOGO論壇 OURSOGO.COM
回頂部