Google 近期正積極與 Meta、NVIDIA 及 AMD 等主要廠商展開對話,這項舉動不僅展現了 Google 在硬體佈局上的野心,換句話說,這家搜尋引擎大廠正試圖透過合縱連橫的策略,重新定義 AI 基礎設施的遊戲規則。
Google 積極尋求合作夥伴 擴大自研晶片影響力
根據 Investor’s Business Daily 與相關市場消息,Google 正在與包括 Meta、NVIDIA 和 AMD 在內的多家科技大廠洽談,探討在 AI 晶片領域的潛在合作與發展方向。雖然具體的對話細節尚未完全公開,但分析師普遍認為,這些討論可能涉及晶片互連標準的制定、供應鏈整合,甚至是降低對單一供應商 (NVIDIA) 依賴的戰略聯盟。
Google 透過持續最佳化自家的 Tensor Processing Units (TPU) 以及新推出的 Axion 處理器,期望能為市場提供更多元的算力選擇。與 Meta 和 AMD 的潛在合作,更能視為是面對 NVIDIA 在 AI 訓練與推論市場獨大局面的自然反應。
聯合 Meta 與 AMD 制定新標準來降低對 NVIDIA 依賴
在目前的 AI 晶片市場中,NVIDIA 憑藉其強大的 GPU 硬體與 CUDA 軟體生態系,掌握了絕大部分的市佔率。然而這也導致了運算成本居高不下與供應短缺的問題。為了突破此一困境,Google 與 Meta、AMD 等大廠開始尋求建立開放標準的可能性。
例如近期業界關注的 UALink (Universal AI Link) 聯盟,即是由 Google、Meta、AMD 等公司共同發起,旨在建立一個開放的加速器互連標準。透過這樣的合作,各家公司旗下的 AI 加速器將能更有效率地協同運作,不再受限於 NVIDIA 的專有技術。這項策略不僅能提升硬體選擇的彈性,長期來看也有助於降低建置大規模 AI 資料中心的成本。
自研 Axion 處理器與 TPU 成為 Google 核心競爭力
除了尋求外部合作,Google 在晶片研發的腳步也從未停歇,近期發表的 Axion 處理器,是基於 Arm 架構設計的 CPU,是專門為資料中心的高效能運算需求而打造的。
根據 Google 內部資料顯示,Axion 在效能與能源效率上皆優於現有的 x86 架構產品,這讓 Google Cloud 的客戶在執行 AI 工作負載時能有更具成本效益的選擇。
同時 Google 專為訓練大型語言模型而設計的 TPU v7 Ironwood 也在效能上取得突破。透過將自研晶片與 Google Cloud 服務深度整合後,能夠提供從硬體到軟體的一站式解決方案,這對於希望擺脫硬體供應鏈制約的客戶來說,具有相當大的吸引力。
AI 晶片市場競爭劇烈 多元發展成趨勢
CyberQ 觀察,以目前的市場動態來看,由 NVIDIA 等單一廠商主導的 AI 市場局面正逐漸有了轉變。Google 透過與 Meta、AMD 的對話與合作,一方面能夠確保自身的供應鏈安全,另一方面也為整個產業帶來競爭,注入了更多活力。對於 NVIDIA 而言,雖然其技術領先地位短期內難以撼動,但面對眾多大廠的聯合挑戰,未來勢必也需要做出相應的策略調整。
總結來說,Google 這次的大動作,顯示出 AI 晶片戰場在效能競爭之外,繼續向生態系與標準制定競逐。隨著更多自研半導體晶片投入應用,以及開放標準的逐步建立,未來的 AI 運算市場可望呈現更加多元且蓬勃的發展樣貌。
本文題圖 Google Gemini AI 生成






