- 註冊時間
- 2014-6-7
- 最後登錄
- 2024-11-8
- 主題
- 查看
- 積分
- 6053
- 閱讀權限
- 130
- 文章
- 18846
- 相冊
- 0
- 日誌
- 0
狀態︰
離線
|
聯發科傳奪Google AI大單 最新伺服器晶片 台積5奈米拚明年初量產 3680家登 1560中砂
2023/06/19
Google衝刺AI,傳找聯發科(2454)合作,攜手打造最新AI伺服器晶片,並將以台積電5奈米製程生產,力拚明年初量產,象徵聯發科正式跨足當紅的AI伺服器相關晶片領域。
對於相關消息,聯發科不回應市場傳言。消息人士透露,這次Google與聯發科的跨國合作,由聯發科提供串行器及解串器(SerDes)方案,協助整合Google自行開發的張量處理器(TPU),助力Google打造最新AI伺服器晶片,且性能比透過CPU或GPU為架構更強大。
聯發科AI能量相當豐沛,旗下各產品線都有AI功能強化。聯發科總經理陳冠州先前曾公開表示,不論是終端或雲端的AI,如何迎接大型語言模型(LLM)的發展趨勢,都是聯發科在思考的議題。
陳冠州認為,聯發科在AI運算技術領域投入很多,從幾年前就認為,未來的運算不只是CPU、GPU,還會有基於AI的APU趨勢會興起,所以也在其天璣5G晶片中導入APU架構。聯發科將於10月底推出天璣系列第三代晶片天璣9300,將具備基於LLM的AI運算技術。
業界解讀,如今Google上門找聯發科攜手開發最新AI伺服器晶片,意味聯發科在AI的實力深獲肯定,也是聯發科跨足當紅的AI伺服器領域一大里程碑。
業界指出,Google多項服務都與AI有關,多年前投入深度學習技術後,發現運用GPU衍生出的運算成本十分昂貴,因此Google決定自行開發深度學習專用的處理器晶片TPU,並於2015年亮相第一代TPU處理器,部署到自家資料中心。
回顧Google當年在開發者大會首次揭露其TPU,與當時的CPU與GPU相比,其TPU能提供高出30至100倍的每秒浮點運算性能,在整體運算效能表現有多達15到30倍的提升,甚至在效能、功耗比上,更是獲得近30至80倍的改善,如今Google的TPU晶片已經來到第四代。
消息人士透露,聯發科自行研發的Serdes已經有多款產品量產,技術成熟,此次協助Google打造的AI伺服器晶片將採台積電5奈米製程生產,預計今年底前送交給晶圓廠製造(tape out),力拚明年初量產。
業界人士說明,高速SerDes是兩個獨立的設備,即發送器(串行器)和接收器(解串器),是雲端數據流量和分析的重要關卡,主因隨著大規模資料中心增加,這種資料中心通常需要各種不同形式的網絡,從伺服器到機架路由器的頂端、從機架到機架,以及從各地或全世界的資料中心進行遠距離運輸,而透過高速SerDes晶片,將可解決超高速傳輸的問題。 |
|