- 註冊時間
- 2012-4-23
- 最後登錄
- 2025-7-19
- 主題
- 查看
- 積分
- 592
- 閱讀權限
- 80
- 文章
- 265
- 相冊
- 4
- 日誌
- 1
 
狀態︰
離線
|
美國對中國人工智慧晶片的出口管制持續收緊,原先禁止輝達 (NVIDIA) 的 H100 晶片出口中國。然後,又限制了降規版的 H20 晶片快銷到中國去。只是,美國政府最終在 2025 年 7 月 15 日正式放寬對 H20 晶片的出口管制。輝達執行長黃仁勳在中國訪問時表示將恢復 H20 晶片銷售,並希望未來能有更先進的晶片進入中國市場。
對於這樣的事情演變,亞洲時報報導表示,中國內部對此發展卻抱持謹慎態度。一些評論員認為這對中國的晶片製造業並沒有好處。因為,這些評論員認為這並非單純解除出口限制的問題,而是美國為維持對中國技術封鎖而精心設計的措施。而有這樣評論的主因,來自於以下幾項事實:
首先,H20 的 FP16 運算能力僅為 H100 的 15%,NVLink 頻寬從 900GB/s 降至 400GB/s, 而且 H20 的 Transformer Engine (TE) 被完全刪除。而這種設計雖然確保了晶片的 AI 推論能力,但大幅降低了其AI訓練能力,完美的實施了美國阻斷高階晶片,但不阻斷中階晶片的策略。而這情況套用在中國科技企業上,表示它們短期內可以從外國 AI 晶片獲益,但將錯失發展和建立自身生態系統的機會。
報導引用市場評論員的說法表示,輝達的黃仁勳此舉巧妙而狡猾,意在遏制中國晶片產業。因為,單個 H20 晶片的運算能力遠低於 H100,而互連頻寬的降低代表著 AI 訓練能力大幅減弱。由於 AI 訓練類似於成千上萬人協同工作,需要快速的資訊交換,低互連頻寬將會導致溝通緩慢,思維效率低下。所以,H20 晶片無法用於訓練萬億參數的大型語言模型 (LLM)。
此外,儘管 H20 慷慨地提供了 96GB 的第三代高頻寬記憶體 (HBM3),高於 H100 的 80GB HBM3e,但其記憶體頻寬僅為 4.0 TB/s,低於 H100 的 4.8 TB/s。這被比作有人給你一個更大的桌子讀更多的書,但讓你更難從書架上取書。所以,市場評論員才會認為放寬 H20 出口管制,是為了讓美國能夠精確控制中國 AI 發展的速度。而一位中國軟體工程師也指出,將 H20 比作一輛擁有強大 V12 引擎,但被降級了輸油管、變速箱和車輪的法拉利,這使得這輛法拉利在直路上能正常行駛,但在持續加速或急轉彎時就會面臨限制。
報導表示,中國網路大廠包括字節跳動和騰訊正在申請 H20 晶片,儘管字節跳動否認了這一報導。整體來說,在新的出口許可要求生效之前,輝達的 H20 產品營收已達 46 億美元,另有 25 億美元營收因限制無法出貨。儘管,華為的昇騰 910B 晶片在 AI 訓練的許多方面表現更佳,但輝達的 H20 晶片在中國市場仍將佔據優勢。這是因為輝達的 CUDA 平台比華為的 MindSpore 框架更為先進,導致客戶不願轉用非輝達晶片。例如,阿里巴巴傾向使用 H20 晶片遷移其現有 AI 系統,而昇騰 910B 晶片可能主要針對國有企業。市場預計,在企業轉換到新平台的成本過高情況下,未來輝達的 CUDA 平台將繼續佔據中國市場 80% 的佔有率。
同時,美國政府也增加了阻止輝達高階晶片轉運到中國的力道,例如敦促馬來西亞和泰國限制此類轉運等。其中,馬來西亞政府已於 7 月 14 日宣佈,美國原產的高性能 AI 晶片的出口、轉運或過境都將需要貿易許可,公司必須在發貨前至少 30 天通知政府。所以,整件事情後續的發展情況,以及對市場的影響狀況,都還有待進一步的持續觀察。
錄自:科技新報
|
-
總評分: SOGO幣 + 20
查看全部評分
|