Google 在提升模型的效率有所進展,過去 12 個月內,Gemini 應用程式的文字提示提供高品質回應的同時,能源消耗和碳足跡的中位數分別降低 33 倍和 44 倍,顯示其 AI 系統透過研究創新和軟硬體效率提升變得更加高效。
Google 這次研究重點關注其 AI 的能源需求,包括運行模型的 AI 晶片所使用的電力,以及支援 AI 晶片的所有基礎設施所使用的電力。
這次研究顯示,專為 AI 量身打造的加速器 TPU(Tensor Processing Unit)僅占平均耗能 0.24 瓦時的 58%。其他能源消耗來自支援 AI 專用硬體所需的設備,像是主機的 CPU 和記憶體占了 25%,為防故障所設置的備用設備占了 10%,剩下來自資料中心運作如電源轉換和散熱冷卻等。
這次研究是目前市場上,對於擁有熱門 AI 產品的科技公司所發表最新、最透明的資源消耗估算,也讓人們了解實際情況。
專家指研究隱藏關鍵數據
Google 願意公開自家 AI 資源使用情況值得肯定,然而研究 AI 能源需求的加州大學河濱分校副教授 Shaolei Ren 認為,Google 研究遺漏了關鍵數據,導致其 AI 對環境影響的理解並不完整。