SOGO論壇
標題:
【版主推薦4】混合專家模型能讓AI學會思考嗎?
[列印本頁]
作者:
Teddyhug
時間:
2025-6-16 09:00:57
標題:
【版主推薦4】混合專家模型能讓AI學會思考嗎?
本文最後由 smartlion 於 2025-6-16 11:16 編輯
混合專家模型(MoE, mixture of experts)是1999年提出的模型架構,關鍵是運用已預訓練的語素(token)路由器將語素分流至一或多個專家模型(獨立的類神經系統)中運算,藉此能在有限的算力成本下,進行更少次的運算,能更快的得到數據的深層資訊!彷彿是人類經由苦思之後得到洞見的過程,也像多核心處理器的概念!
這個影片很有意思,值得一看,探索AI的未來架構!
[youtube]https://youtu.be/GpWBZQRHAfY?si=geLtr4rQTb3m41ts[/youtube]
若想更進階理解MoE,請續看這個影片。
[youtube]https://youtu.be/AgZuF7lsu-8?si=EFu8FQ8O0ixG9fcq[/youtube]
講到電腦的算力資源與效率,您會更想知道數據在電腦裡是怎樣計算處理的嗎?請看
電腦程式前傳
:用聊天的方式了解「演算法」的由來,如何產出更有效率的演算法?若您對電腦程式裡的核心概念「演算法」有興趣,請看這段影片,用淺顯易懂的方式帶您走進這神奇的世界!
[youtube]https://youtu.be/UHBPvTpFumc?si=xz97VEZ2aEeG8fmd[/youtube]
歡迎光臨 SOGO論壇 (https://oursogo.com/)
Powered by OURSOGO.COM