AI Agent 助攻 Edge AI 明年遍地開花
研華科技資深經理花志忠表示,AI 正將研華從 IPC 硬體製造商推向「邊緣 AI 的載體」,並帶來全新的應用模式,回顧 AI 的演進,從 GPT-3.5 的語言模型,如今來到 GPT-5 的「功能型 AI」,並進入以 AI Agent 為核心的第三階段,未來還有創新應用、AGI(通用 AI)的新階段。
花志忠指出,今年 Meta 推出 Llama Edge 模型,強調資料來源已到極限,真正差的是「人類的感知」,因此 Meta 以穿戴式眼鏡蒐集動態影像,期望讓 AI 像人類一樣理解世界,而這將帶動邊緣 AI的突破,例如 Google 的 Gemini Nano即可在地端執行,這是 AI 下沉到終端的明顯信號。
花志忠認為,2026 年邊緣 AI 的應用將會大量落地。例如商場能硬用影像和 AI 自動判定排隊人潮,並調派員工,或是透過室內定位與排班資訊,自動找尋可支援的服務人員,甚至企業能用 AI 分析服務狀況,自動選出最佳員工,還有高控管場域,如藥物交付能利用 AI 辨識,降低醫護負擔。
花志忠分享,以研華來說,工廠透過攝影與大語言模型比對 SOP(標準作業流程),自動換算工時、找出瓶頸,提升生產效率,而要做到這些,企業必須把 ERP(企業資源規劃)、MES( 製造執行系統)、醫院系統等內部資料與 AI 串接,讓 AI 取得真實資訊。
花志忠強調,當資料充足時,企業就會像一個「交響樂團」,由 AI 指揮多個 AI 協作,進行預測、規劃與決策,最後 AI 開發不再需要從零開始,而是結合企業想像力與邊緣 AI 能力,經研華實證能減少 40% 開發時間,真正讓 AI 成為每個企業的工作助理,並在明後年逐步看到落地成果。
散熱轉向水冷已成不可逆趨勢
集邦科技分析師邱珮雯表示,全球雲端五大 CSP 大廠,包括 AWS、Microsoft、Google、Meta、Oracle 都全面加速 AI 資料中心建置,還有第六大的 Capex 緊跟其後,因 AI 訓練需求爆炸、GPU 大量擴充,以及各家自研 ASIC 的軍備競賽,預估 AI 伺服器滲透率至 2029 年將達整體的 24%。
邱珮雯指出,AI 運算時代,散熱成為 AI 伺服器擴張的最大瓶頸,因此資料中心從氣冷轉向液冷的散熱趨勢,目前液冷以 Direct-to-Chip(D2C)水冷最為成熟,已能直接導入既有機房,維護成本相對低,而浸沒式雖然散熱效能高,但尚未標準化、維護難度大,因此短期難全面商用。
全球 AI 伺服器出貨明年再成長 20% 以上
集邦科技研究經理龔明德表示,2025 年全球AI伺服器的出貨量將增長超過 24%,但在 2026 年受惠北美大型 CSP 業者,如 Google、AWS、Meta 擴大資本支出推動,全球 AI 伺服器市場將再成長達 20% 以上。
龔明德指出,未來市場競爭將更加激烈,主要的競爭陣營可分為三大塊,一是以 NVIDIA、AMD 為首的 GPU AI 市場,這將繼續主導市場,並以整櫃式方案為雲端客戶的核心;二是北美 CSP 業者將加速自研 ASIC 晶片,尋求更具成本效益的AI方案;三是中國將加速推進 AI 晶片自主化。
龔明德認為,從需求面來看,北美的 CSP 業者需求最為強勁,尤其是 Microsoft、Amazon、Google、Meta 等巨頭在加大 AI 基礎設施投入的同時,並在提升 AI 伺服器的要求,而中國的需求也在穩步增長,尤其是中國對本土 AI 晶片的支持力度加大,並鼓勵本地企業發展自有 AI 硬體。
龔明德強調,市場發展存在一些風險,包括地緣政治的不穩定,尤其是美中兩國在 AI 領域的技術禁令與貿易壁壘,可能會對供應鏈造成影響,儘管台積電等供應商在積極擴展產能,但全球對 AI 晶片需求的激增,可能會帶來供應鏈緊張和價格波動,但整體 2026 年 AI 伺服器市場將保持強勁增長。