SOGO論壇
  登入   註冊   找回密碼
查看: 448|回覆: 0
列印 上一主題 下一主題

[股票] Groq的LPU提問 AI代理人…將秒回 力積電、華邦 鈺創 愛普 晶豪科 2495普安 [複製連結]

Rank: 13Rank: 13Rank: 13Rank: 13

熱心參予論壇活動及用心回覆主題勳章

狀態︰ 在線上
跳轉到指定樓層
1
發表於 3 天前 |只看該作者 |倒序瀏覽
Groq的LPU提問 AI代理人…將秒回 力積電、華邦 鈺創 愛普 晶豪科 2495普安

2025/12/29

輝達平安夜結盟主打用SRAM打造語言處理器(LPU)的AI新創Groq,金額傳高達200億美元,讓SRAM成為繼高頻寬記憶體(HBM)之後爆紅的記憶體,主因SRAM具備低延遲、低能耗等特性;而輝達與Groq簽訂非獨家授權協議,更為日後SRAM應用大鳴大放,推廣至更多廠商留下伏筆。

業界分析,Groq摒棄目前蔚為主流的HBM不用,轉而投向SRAM懷抱,主要在於Groq將SRAM直接擺在計算核心,使得LPU的頻寬高達每秒80TB,足足是GPU的十倍,能耗卻僅需GPU的10%。

另外,根據大語言模型實際測試,LPU每秒生成的符元(token)數高達350,遠超GPU數十個tokens的表現,這在AI代理人(AI agent)應用問世後,將是重要關鍵。

說到HBM,不得不提到AI的根基—海量運算。AI之所以能幫我們做那麼多事,就是在蒐集極其龐大的資料量後,瘋狂進行運算,不斷訓練模型,因此AI才能在面對問題時給出正確的答案,這就離不開HBM的幫忙,HBM能夠存儲大量資料,讓GPU能夠擁有很好的訓練效率。

然而,當場景來到了推論時,HBM的優勢蕩然無存,反而是原本無人問津的SRAM異軍突起,成為了推論應用的王者。

若是將HBM比喻成一台大貨車,SRAM就是一輛超級跑車。HBM能夠裝載大量資料(80GB),傳輸至GPU進行大語言模型的訓練,然而就像貨車裝貨與卸貨的過程一般,相當耗費時間,再加上HBM和GPU之間還隔著一段距離,更是無法快速回應。

舉例來說,當我們對ChatGPT提問後,看著文字一個接著一個蹦出來,就如同幼童在牙牙學語的過程一般,無法如成年人那般正常交談。

而Groq的LPU成功解決了這個問題,LPU的高傳輸速度,能在提出問題的瞬間,迅速回答出提問者需要的所有資料,回答速度近乎零延遲,像是真正在與人進行交談。
喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊


本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-1-1 09:01

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部