- 註冊時間
- 2021-1-2
- 最後登錄
- 2025-7-27
- 主題
- 查看
- 積分
- 837
- 閱讀權限
- 100
- 文章
- 428
- 相冊
- 4
- 日誌
- 1
  
狀態︰
離線
|
本文最後由 smartlion 於 2025-6-16 11:16 編輯
混合專家模型(MoE, mixture of experts)是1999年提出的模型架構,關鍵是運用已預訓練的語素(token)路由器將語素分流至一或多個專家模型(獨立的類神經系統)中運算,藉此能在有限的算力成本下,進行更少次的運算,能更快的得到數據的深層資訊!彷彿是人類經由苦思之後得到洞見的過程,也像多核心處理器的概念!
這個影片很有意思,值得一看,探索AI的未來架構!
若想更進階理解MoE,請續看這個影片。
講到電腦的算力資源與效率,您會更想知道數據在電腦裡是怎樣計算處理的嗎?請看電腦程式前傳:用聊天的方式了解「演算法」的由來,如何產出更有效率的演算法?若您對電腦程式裡的核心概念「演算法」有興趣,請看這段影片,用淺顯易懂的方式帶您走進這神奇的世界!
|
-
總評分: 威望 + 10
查看全部評分
|