SOGO論壇

標題: 【版主推薦4】混合專家模型能讓AI學會思考嗎? [列印本頁]

作者: Teddyhug    時間: 2025-6-16 09:00:57     標題: 【版主推薦4】混合專家模型能讓AI學會思考嗎?

本文最後由 smartlion 於 2025-6-16 11:16 編輯

混合專家模型(MoE, mixture of experts)是1999年提出的模型架構,關鍵是運用已預訓練的語素(token)路由器將語素分流至一或多個專家模型(獨立的類神經系統)中運算,藉此能在有限的算力成本下,進行更少次的運算,能更快的得到數據的深層資訊!彷彿是人類經由苦思之後得到洞見的過程,也像多核心處理器的概念!

這個影片很有意思,值得一看,探索AI的未來架構!
[youtube]https://youtu.be/GpWBZQRHAfY?si=geLtr4rQTb3m41ts[/youtube]

若想更進階理解MoE,請續看這個影片。
[youtube]https://youtu.be/AgZuF7lsu-8?si=EFu8FQ8O0ixG9fcq[/youtube]

講到電腦的算力資源與效率,您會更想知道數據在電腦裡是怎樣計算處理的嗎?請看電腦程式前傳:用聊天的方式了解「演算法」的由來,如何產出更有效率的演算法?若您對電腦程式裡的核心概念「演算法」有興趣,請看這段影片,用淺顯易懂的方式帶您走進這神奇的世界!
[youtube]https://youtu.be/UHBPvTpFumc?si=xz97VEZ2aEeG8fmd[/youtube]





歡迎光臨 SOGO論壇 (https://oursogo.com/) Powered by OURSOGO.COM