Google AI 晶片傳 Meta 大採購 狂踩輝達地盤
Google專爲AI推論打造的「張量處理器」(TPU)傳獲Meta採購,可能進一步吃下輝達的AI晶片市場。(路透)
美國媒體報導,Meta正洽談斥資數十億美元,採購Google研發、專爲人工智慧(AI)推論打造的「張量處理器」(TPU)。業界解讀,雲端服務供應商(CSP)已經不只是利用自行開發的特殊應用IC(ASIC)降低成本,與輝達等AI晶片品牌廠競爭態勢再升高。
近年輝達等品牌廠AI晶片在資料中心AI基礎設施的採購商機中出盡風頭,不過,也有CSP業者爲降低總擁有成本(TCO),加強自研晶片佈局,不一定要全都採用品牌廠的AI晶片,可以各種模式搭配使用。
但Meta洽談採購Google自研AI晶片的傳聞,意味着CSP業者以前只供自用的ASIC晶片,往後也可以對外租售賺錢,與AI晶片品牌廠競爭態勢再升級。
輝達執行長黃仁勳近日對於自家晶片與CSP的ASIC晶片比較下了註解,他認爲,加速計算可以進行資料處理、影像處理、電腦繪圖及各種類型的計算,而輝達的GPU是唯一能完成所有前述操作及AI的產品,ASIC晶片或許能實現AI,卻無法實現其他功能。
Meta採購Google自研AI晶片若達成協議,可望幫助Google的TPU成爲輝達AI晶片的替代選項,並大幅推升Google的營收。
消息人士透露,Google雲端部門的一些主管曾表示,這項業務可能讓公司搶下輝達年營收的10%。依照輝達營收規模計算,這代表Google每年可增加數十億美元營收。
彭博分析,Meta開始採用Google TPU,顯示大型語言模型(LLM)的第三方服務業者近期可能開始以Google爲第二家推論晶片加速器供應商。Meta針對2026年至少1,000億美元的支出,估計會有至少400億-500億美元投入推論晶片量能。
Google吸引客戶採用TPU的方式之一,是強調比昂貴的輝達晶片便宜。輝達晶片價格之高,使甲骨文(Oracle)等雲端服務供應商難以靠出租輝達晶片的運算能力,產生良好的毛利率。
輝達GPU和Google TPU都能執行AI任務,但設計不同,輝達GPU採用的是通用平行處理架構,能同時處理大量不同的任務,主要用來「訓練」AI模型,TPU則是專用晶片,在協助AI模型根據問題生成答案的這類運算較輕的「推論」過程中,能發揮極高效率,開發成本更低,而且在滿載運算時的耗電量更少。