CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 資安專區
  • AI 應用實戰
  • Docker / 容器
  • 基礎教學
  • 進階應用
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
首頁 新聞 AI 人工智慧

GPU、LPU、TPU 各擅其場的 AI 算力賽局,解析技術差異及供應鏈佈局

Ashley Hsieh by Ashley Hsieh
2025 年 12 月 26 日
閱讀時間: 4 分鐘
A A
GPU、LPU、TPU 各擅其場的 AI 算力賽局,解析技術差異及供應鏈佈局
274
分享數
6.8k
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

隨著生成式 AI 應用持續火熱,訓練與推論間的硬體架構效率和生態系發展成為市場焦點。NVIDIA主導的GPU 市場正面臨 Google TPU 與 Groq LPU 的挑戰,三者在架構設計與應用場景上各有千秋,也牽動台灣供應鏈的佈局策略。

RELATED POSTS

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

市場關注焦點逐漸從模型訓練(Training)轉向推論(Inference),如何在最短時間內產出準確內容,同時控制電力與硬體成本,成為各大廠角力的戰場。除了業界已經普遍熟悉的 GPU 之外,Google自行研發的 TPU 以及近期爆紅的 LPU,都代表著不同的技術路徑。

CyberQ 指出,市場格局已從單純的「硬體規格戰」轉變為「應用場景分工競爭」。NVIDIA x Groq 的布局,當然是改變過往試圖用 GPU 解決所有問題但耗電的情況,轉向「混合架構」,試圖同時吃下高吞吐量的訓練市場與極低延遲的推論市場,以及在與 TPU 陣營的競爭中保有更多市場競爭力。

以下是我們針對 GPU、TPU 與 LPU 的比較:

GPU 通用運算的王者與記憶體瓶頸

NVIDIA 依然是 AI 訓練的絕對霸主。但面對推論需求暴增,NVIDIA 其實正在面對這個問題, GPU 的 HBM(高頻寬記憶體)架構在「單一使用者即時推論」上存在物理瓶頸。GPU 最初是為了處理影像繪圖而生,具備大量平行運算核心。由於AI深度學習本質上是大量的矩陣運算,與圖形處理邏輯相似,因此NVIDIA 透過 CUDA 軟體生態系的整合,讓GPU成為目前AI領域最主流的硬體。

GPU 的優勢在於通用性極高。無論是訓練龐大的大型語言模型(LLM),還是執行後端的推論任務,GPU都能勝任。然而GPU高度依賴高頻寬記憶體(HBM)來傳輸資料。隨著模型參數量越來越大,記憶體頻寬往往跟不上運算核心的速度,形成所謂的記憶體牆(Memory Wall),這也是為何 HBM 產能會直接影響 AI伺服器出貨的主因。

架構弱點在於,GPU 依賴複雜的硬體動態調度(Dynamic Scheduling),資料流向需即時指揮,這在處理需要極速反應的「生成階段」時會產生不可預期的延遲。

未來在新的混合架構中,GPU 可以主力去專注於 Prefill(預填充/理解) 階段。憑藉其強大的平行運算能力,負責在第一時間消化使用者輸入的大量提示詞(Prompt)。

目前 NVIDIA 與 AMD 皆為採用此架構的主力廠商,台灣供應鏈受惠程度相對較深,包括晶圓代工龍頭台積電的 CoWoS 先進封裝、以及負責伺服器組裝的廣達、技嘉、緯穎與鴻海(鴻佰)。

TPU Google專為矩陣運算打造的ASIC

TPU 是Google為了自家TensorFlow機器學習框架所量身打造的特殊應用積體電路(ASIC)。不同於GPU需要兼顧繪圖等多種用途,TPU的設計目標相當單純,就是為了加速矩陣乘法運算。

Google 的 TPU 是目前唯一能與 NVIDIA 抗衡的獨立生態系。最新的 Gemini 3 模型完全在 TPU 上訓練,且包括 Meta 等雲端業者正採購 Google TPU 算力與 Infra 架構 ,這顯示 TPU 已從 Google 自家用走向提供給外部業界使用。

核心優勢是採用脈動陣列(Systolic Array)架構,專精於矩陣乘法。資料在晶片內部流動的路徑經過高度最佳化,大幅減少存取資料的次數。這讓 TPU 在執行特定 AI 負載時,能展現出比 GPU 更高的能源效率。雖然在通用性上不如 GPU,但在大規模部署的「推論成本」上具有顯著優勢,成本約為 GPU 的 20%,但考量其他整體成本可能會再更高些。Google 目前在內部的搜尋引擎、翻譯以及 Gemini 模型的訓練與推論上,均大量採用 TPU。

未來定位將繼續是雲端巨頭的護城河,Google 透過「晶片+模型+雲端」的一條龍策略,提供比 NVIDIA 更具性價比的大規模推論服務,特別適合不需要極致低延遲但需要處理大量客戶端請求的場景。

由於 TPU 並不對外單獨販售晶片,公司必須透過 Google Cloud 才能使用TPU算力。在供應鏈方面,台積電負責晶片製造,而緯穎則是 Google 在 TPU 伺服器機櫃系統整合上的長期合作夥伴。

LPU 以速度突圍的推論專家

近期由新創公司 Groq 提出的語言處理單元(LPU),則是完全針對大型語言模型推論(Inference)所設計的架構。LPU 的最大特點在於捨棄了昂貴且複雜的 HBM,改為在晶片內部整合極大容量的靜態隨機存取記憶體(SRAM)。雖然 Groq 維持形式上的獨立,但核心技術已授權給 NVIDIA,這被視為一種「捕獲並扼殺」(Catch and Kill)的策略,但也確立了 LPU 技術的價值。

LPU 的核心技術靈魂在於前述的 SRAM 與 Compiler(編譯器),資料路徑在編譯時就已「排好時刻表」,較能實現確定性(Deterministic)運算。

這種設計讓 LPU 在處理資料時,不需要等待外部記憶體的傳輸,能夠實現極致的低延遲與高吞吐量。根據實測,LPU 在生成文字的速度上遠快於傳統 GPU 架構,特別適合需要即時互動的語音對話或聊天機器人應用。換言之,LPU 解決了 GPU 在推論時的延遲問題。

未來有機會在市場上專攻 Decode(解碼/生成) 階段。當 AI 開始逐字生成回應時,將由整合了 LPU 技術的模組接手,提供如高鐵般的極速體驗。

GPU TPU與LPU 關鍵比較

為了更清晰理解三者差異,以下列出關鍵比較:

比較項目GPU (圖形處理單元)TPU (張量處理單元)LPU (語言處理單元)
技術定位通用型AI運算王者Google專用ASIC專為LLM推論設計
核心優勢生態系完整(CUDA)、訓練與推論皆可、高吞吐量Google Cloud深度優化、矩陣運算效率高極致低延遲、採用SRAM架構解決記憶體頻寬瓶頸
主要應用AI模型訓練(Training)、通用推論、繪圖Google內部業務(Search, YouTube)、Google Cloud AI即時生成式AI(Chatbot)、語音互動、高頻推論場景
記憶體架構高度依賴HBM(高頻寬記憶體)依賴HBM依賴SRAM(晶片內記憶體)、不依賴HBM
全球代表大廠NVIDIA、AMDGoogle (Alphabet)、Broadcom (協助設計)Groq (目前主要定義者)
台灣受惠供應鏈晶圓代工: 台積電 (CoWoS先進封裝是關鍵)
伺服器: 廣達、鴻海(鴻佰)、緯穎、技嘉
IP/ASIC: 世芯-KY、創意
晶圓代工: 台積電
伺服器: 緯穎 (Google主要合作夥伴)、廣達
網通與模組: 智邦 (晶片互連交換技術)、鴻海 (伺服器組裝)
潛在受惠: 專注於ASIC設計服務業者
投資風險與觀察HBM產能缺口、高耗電問題僅限 Google 生態系與資料中心 Infra、外部無法直接採購硬體晶片製造目前由三星 (Samsung) 拿下主要代工單、SRAM容量限制模型大小

混合架構將成未來常態

CyberQ 觀察,GPU、TPU 與 LPU 並非零和遊戲。未來 AI 資料中心將走向混合架構,AI 算力市場也有可能會呈現「NVIDIA 混合體(GPU+LPU)」競合「Google(TPU)與其他共通或個別自研客製化 AI 晶片生態系 」的局面一段時間,直到更有效率的架構和合作方法出來又會是新的局面了。

要特別注意的是 Groq 的 LPU 並非獨家授權給 NVIDA,意味著其他廠商也能夠與之合作產生有意思的產品線來,這點很值得觀察。

NVIDIA 藉由技術授權,試圖打造一個「既能載重(訓練)又能跑快(推論)」的新生態,而 Google 和產業其他廠商、合作夥伴與競爭者們,預期會繼續利用 TPU 的成本優勢,築起雲端服務的護城河。

市場的觀察重點除了算力大小,包括推論成本與能源效率的最佳化指標,正隨著越來越多 AI 應用落地而有了不同各擅其場的風貌。

首圖由 Google Nano Banana AI 生成

LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局
AI 算力戰白熱化!Anthropic 豪擲數百億美元,向 Google 採購百萬顆 TPU 來組建規模 1 GW 的 AI 算力
DRAM 缺貨恐延燒至 2026 年之後,Micron 財報顯示記憶體將持續高價
AI 推理正改寫記憶體供需格局:LPDDR 崛起、HBM 供不應求續漲,消費終端將首當其衝
三星傳將於 2026 年停產 SATA SSD 供應鏈示警價格恐面臨 18 個月上漲壓力
美光 Crucial 全力轉攻 AI 市場,將逐步關閉消費級 DRAM 與 SSD 產品線
漲幅超越黃金!AI 熱潮引爆記憶體+SSD 缺貨漲價潮
晶片設計之神 Jim Keller 的下一步:攜手台灣,用開源架構與 Chiplet 點燃 AI 晶片新篇章 – SEMICON TAIWAN 2025
從 MLPerf 看 AI 算力版圖:NVIDIA 穩守江山,Google TPU 憑「能效」劍指 2026
甲骨文債信揭開矽谷 AI 大廠交互投資的高槓桿遊戲
Google 計畫結盟 Meta 與 AMD 強化自研 AI 晶片生態系
標籤: AIAI晶片供應鏈GPUGroqHBMLPULPU概念股LPU比較NVIDIATPU台灣伺服器代工
Share110Tweet69ShareShareShare19
上一篇

LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局

下一篇

當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計、AI美術設計認證、淨零碳規劃管理師,在上市歐洲外商、生醫、金融、科技產業中淬煉,曾參與過多個跨平台專案,從需求分析、設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽
AI 人工智慧

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

2025 年 12 月 31 日
AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家
AI 人工智慧

AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

2025 年 12 月 30 日
Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能
AI 人工智慧

Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

2025 年 12 月 30 日
NVIDIA 斥資以色列數十億美元新建大型研發園區,黃仁勳視為「第二個家」全球佈局
AI 人工智慧

NVIDIA 斥資以色列數十億美元新建大型研發園區,黃仁勳視為「第二個家」全球佈局

2025 年 12 月 28 日
自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」
基礎教學

自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

2025 年 12 月 27 日
當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機
新聞

當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

2025 年 12 月 27 日
下一篇
當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

推薦閱讀

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

2025 年 12 月 31 日
AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

2025 年 12 月 30 日
Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

2025 年 12 月 30 日
SMB 10GbE 網路一機到位最佳實踐:QNAP QSW-M2106-4S 10G 網管交換器開箱

SMB 10GbE 網路一機到位最佳實踐:QNAP QSW-M2106-4S 10G 網管交換器開箱

2025 年 12 月 29 日
NVMe SSD 加速指令解封印實測,看微軟儲存堆疊的演進與 BitLocker 新局

NVMe SSD 加速指令解封印實測,看微軟儲存堆疊的演進與 BitLocker 新局

2025 年 12 月 28 日

近期熱門

  • LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局

    LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局

    278 shares
    Share 111 Tweet 70
  • GPU、LPU、TPU 各擅其場的 AI 算力賽局,解析技術差異及供應鏈佈局

    274 shares
    Share 110 Tweet 69
  • 只要幾千元 ! 打造便宜且穩定的 10GbE 網速環境,實作家庭與辦公網路升級

    234 shares
    Share 94 Tweet 59
  • 升級 10GbE 需要的網路卡、SFP+ 模組與線材選購到 iPerf3 實測全攻略

    218 shares
    Share 87 Tweet 55
  • 當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

    210 shares
    Share 84 Tweet 53
  • NVMe SSD 加速指令解封印實測,看微軟儲存堆疊的演進與 BitLocker 新局

    208 shares
    Share 83 Tweet 52
  • 台灣《人工智慧基本法》三讀通過:在美式創新與歐式監管間,台灣選了一條什麼路?

    159 shares
    Share 64 Tweet 40
  • Google 傳奇工程師 Jeff Dean 公開內部效能最佳化指南

    263 shares
    Share 105 Tweet 66
  • NVIDIA 斥資以色列數十億美元新建大型研發園區,黃仁勳視為「第二個家」全球佈局

    123 shares
    Share 49 Tweet 31
  • 自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

    119 shares
    Share 48 Tweet 30

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。