繼與 NVIDIA、AMD 達成重要 AI 領域合作後,OpenAI 再度投下鉅額投資,宣布與半導體與網路大廠 Broadcom 展開戰略合作,共同開發與部署高達 10 gigawatts(GW) 的客製化 AI 加速器與系統。這項多年期計畫不僅象徵 OpenAI 正式跨入晶片設計領域,也被視為 AI 產業邁向「垂直整合」的重要一步,預示晶片供應鏈的權力版圖即將重組。
OpenAI 設計,Broadcom 開發與整合
根據雙方發布的聯合聲明,這次合作將由 OpenAI 主導 AI 加速器與系統架構設計,Broadcom 則憑藉其在半導體設計、乙太網路(Ethernet)與高速連接技術上的深厚實力,負責硬體開發、系統整合與部署。首批 AI 加速器系統預計於 2026 年下半年 開始部署,並計畫在 2029 年底前全面完成。這些客製化系統將廣泛應用於 OpenAI 自家基礎設施以及全球合作夥伴的資料中心,以支撐不斷增長的 AI 運算需求。
OpenAI 共同創辦人兼總裁 Greg Brockman 表示:「這次合作讓我們能將前沿模型與產品開發經驗,直接融入硬體設計中。」執行長 Sam Altman 也指出:「與 Broadcom 的合作,是我們建構基礎設施、釋放 AI 潛力的關鍵一步。」
對 Broadcom 而言,此合作不僅強化其在 AI 資料中心基礎架構領域的地位,也凸顯乙太網路技術在大型 AI 運算叢集中的核心角色。Broadcom 總裁暨執行長 Hock Tan 對外指出,與 OpenAI 的合作是「邁向通用人工智慧(AGI)過程中的重要里程碑」。

打造更快、更省電、更便宜的 AI 基礎設施
這項合作的核心目標,是建立一個兼具效能、功耗與成本效益的 AI 運算基礎。隨著 ChatGPT 等大型語言模型普及,「推理」(inference)階段,也就是業界目前高度關注的模型即時回應使用者查詢,針對這方面的算力需求呈指數成長。相較於 NVIDIA GPU 在「訓練」(training)階段的優勢,各大廠如果採用自己研發或客製化晶片,有機會在推理環節中展現更佳的能效表現與降低延遲。
透過設計專用晶片,OpenAI 期望能顯著降低來自超過 8 億週活躍使用者所產生的推理成本,用電量可下降,讓模型部署更具經濟規模效益。
從晶片買家到遊戲規則的制定者
OpenAI 在短短一個月內相繼與 AMD、Broadcom 以及 NVIDIA 的合作,其中與 AMD 的合作案為多年度協議,總計 6GW GPU 運算力,第一階段 1GW 將於 2026 年下半年上線,並附帶向 OpenAI 發行 1.6 億股認股權證。與 Broadcom 的合作則聚焦於 10GW 的客製化加速器與系統。若再加上 NVIDIA 提供的基礎設施資源,整體規模估計可達 26GW。這代表 OpenAI 不再只是晶片的採購方,而是有機會在晶片設計與基礎設施標準中提高自己的地位,成為共同制定者的角色。
這種「從買家變為設計者」的轉變,正如 Google 的 TPU、Amazon 的 Trainium 與 Inferentia 所展現的,科技巨頭正藉由自研晶片擺脫供應商依賴,並追求極致效能。
挑戰與展望
儘管前景可期,自研晶片的道路仍充滿挑戰。畢竟半導體晶片開發週期長、前期投入龐大,且需軟硬體生態緊密配合才能發揮最大效能。
這次合作的成敗,將取決於 OpenAI 的設計創新能否與 Broadcom 的工程執行力順利整合。無論如何,OpenAI 與 Broadcom 的結盟,已為未來 AI 基礎設施增加新的選項。在邁向 AGI 的競爭中,在「效能、能效與成本」三者之間取得平衡是困難的,就讓我們拭目以待吧。
這場由 OpenAI 發起的「AI 晶片競賽」,或許最終的贏家,將不是今日的巨頭,而是那些敢於打破常規、重新定義遊戲規則的挑戰者。
本文題圖由 Goole Gemini AI 生成,配圖由 Compy UI 生成












