CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 開箱測試
  • 選購指南
  • DR.Q 快問快答
  • 基礎教學
    • NAS 基礎設定
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 開箱測試
  • 選購指南
  • DR.Q 快問快答
  • 基礎教學
    • NAS 基礎設定
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 資安專區
  • AI 應用實戰
  • Docker / 容器
  • 進階應用
  • 開箱測試
  • 選購指南
  • DR.Q 快問快答
  • 基礎教學
  • 展覽直擊
首頁 新聞 AI 人工智慧

GPU、LPU、TPU 各擅其場的 AI 算力賽局,解析技術差異及供應鏈佈局

Ashley Hsieh by Ashley Hsieh
2025 年 12 月 26 日 13:00
閱讀時間: 4 分鐘
A A
GPU、LPU、TPU 各擅其場的 AI 算力賽局,解析技術差異及供應鏈佈局
8.6k
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

隨著生成式 AI 應用持續火熱,訓練與推論間的硬體架構效率和生態系發展成為市場焦點。NVIDIA主導的GPU 市場正面臨 Google TPU 與 Groq LPU 的挑戰,三者在架構設計與應用場景上各有千秋,也牽動台灣供應鏈的佈局策略。

RELATED POSTS

2026 新春特輯 – 數位大掃除與守歲實作推薦

五角大廈驚傳突襲馬杜洛行動中使用 Claude AI

極客的硬派浪漫情人節特輯:親手 coding 數位卡片,用 AI、NAS 與資安守護我們愛情的數位資產!

市場關注焦點逐漸從模型訓練(Training)轉向推論(Inference),如何在最短時間內產出準確內容,同時控制電力與硬體成本,成為各大廠角力的戰場。除了業界已經普遍熟悉的 GPU 之外,Google自行研發的 TPU 以及近期爆紅的 LPU,都代表著不同的技術路徑。

CyberQ 指出,市場格局已從單純的「硬體規格戰」轉變為「應用場景分工競爭」。NVIDIA x Groq 的布局,當然是改變過往試圖用 GPU 解決所有問題但耗電的情況,轉向「混合架構」,試圖同時吃下高吞吐量的訓練市場與極低延遲的推論市場,以及在與 TPU 陣營的競爭中保有更多市場競爭力。

以下是我們針對 GPU、TPU 與 LPU 的比較:

GPU 通用運算的王者與記憶體瓶頸

NVIDIA 依然是 AI 訓練的絕對霸主。但面對推論需求暴增,NVIDIA 其實正在面對這個問題, GPU 的 HBM(高頻寬記憶體)架構在「單一使用者即時推論」上存在物理瓶頸。GPU 最初是為了處理影像繪圖而生,具備大量平行運算核心。由於AI深度學習本質上是大量的矩陣運算,與圖形處理邏輯相似,因此NVIDIA 透過 CUDA 軟體生態系的整合,讓GPU成為目前AI領域最主流的硬體。

GPU 的優勢在於通用性極高。無論是訓練龐大的大型語言模型(LLM),還是執行後端的推論任務,GPU都能勝任。然而GPU高度依賴高頻寬記憶體(HBM)來傳輸資料。隨著模型參數量越來越大,記憶體頻寬往往跟不上運算核心的速度,形成所謂的記憶體牆(Memory Wall),這也是為何 HBM 產能會直接影響 AI伺服器出貨的主因。

架構弱點在於,GPU 依賴複雜的硬體動態調度(Dynamic Scheduling),資料流向需即時指揮,這在處理需要極速反應的「生成階段」時會產生不可預期的延遲。

未來在新的混合架構中,GPU 可以主力去專注於 Prefill(預填充/理解) 階段。憑藉其強大的平行運算能力,負責在第一時間消化使用者輸入的大量提示詞(Prompt)。

目前 NVIDIA 與 AMD 皆為採用此架構的主力廠商,台灣供應鏈受惠程度相對較深,包括晶圓代工龍頭台積電的 CoWoS 先進封裝、以及負責伺服器組裝的廣達、技嘉、緯穎與鴻海(鴻佰)。

TPU Google專為矩陣運算打造的ASIC

TPU 是Google為了自家TensorFlow機器學習框架所量身打造的特殊應用積體電路(ASIC)。不同於GPU需要兼顧繪圖等多種用途,TPU的設計目標相當單純,就是為了加速矩陣乘法運算。

Google 的 TPU 是目前唯一能與 NVIDIA 抗衡的獨立生態系。最新的 Gemini 3 模型完全在 TPU 上訓練,且包括 Meta 等雲端業者正採購 Google TPU 算力與 Infra 架構 ,這顯示 TPU 已從 Google 自家用走向提供給外部業界使用。

核心優勢是採用脈動陣列(Systolic Array)架構,專精於矩陣乘法。資料在晶片內部流動的路徑經過高度最佳化,大幅減少存取資料的次數。這讓 TPU 在執行特定 AI 負載時,能展現出比 GPU 更高的能源效率。雖然在通用性上不如 GPU,但在大規模部署的「推論成本」上具有顯著優勢,成本約為 GPU 的 20%,但考量其他整體成本可能會再更高些。Google 目前在內部的搜尋引擎、翻譯以及 Gemini 模型的訓練與推論上,均大量採用 TPU。

未來定位將繼續是雲端巨頭的護城河,Google 透過「晶片+模型+雲端」的一條龍策略,提供比 NVIDIA 更具性價比的大規模推論服務,特別適合不需要極致低延遲但需要處理大量客戶端請求的場景。

由於 TPU 並不對外單獨販售晶片,公司必須透過 Google Cloud 才能使用TPU算力。在供應鏈方面,台積電負責晶片製造,而緯穎則是 Google 在 TPU 伺服器機櫃系統整合上的長期合作夥伴。

LPU 以速度突圍的推論專家

近期由新創公司 Groq 提出的語言處理單元(LPU),則是完全針對大型語言模型推論(Inference)所設計的架構。LPU 的最大特點在於捨棄了昂貴且複雜的 HBM,改為在晶片內部整合極大容量的靜態隨機存取記憶體(SRAM)。雖然 Groq 維持形式上的獨立,但核心技術已授權給 NVIDIA,這被視為一種「捕獲並扼殺」(Catch and Kill)的策略,但也確立了 LPU 技術的價值。

LPU 的核心技術靈魂在於前述的 SRAM 與 Compiler(編譯器),資料路徑在編譯時就已「排好時刻表」,較能實現確定性(Deterministic)運算。

這種設計讓 LPU 在處理資料時,不需要等待外部記憶體的傳輸,能夠實現極致的低延遲與高吞吐量。根據實測,LPU 在生成文字的速度上遠快於傳統 GPU 架構,特別適合需要即時互動的語音對話或聊天機器人應用。換言之,LPU 解決了 GPU 在推論時的延遲問題。

未來有機會在市場上專攻 Decode(解碼/生成) 階段。當 AI 開始逐字生成回應時,將由整合了 LPU 技術的模組接手,提供如高鐵般的極速體驗。

GPU TPU與LPU 關鍵比較

為了更清晰理解三者差異,以下列出關鍵比較:

比較項目GPU (圖形處理單元)TPU (張量處理單元)LPU (語言處理單元)
技術定位通用型AI運算王者Google專用ASIC專為LLM推論設計
核心優勢生態系完整(CUDA)、訓練與推論皆可、高吞吐量Google Cloud深度優化、矩陣運算效率高極致低延遲、採用SRAM架構解決記憶體頻寬瓶頸
主要應用AI模型訓練(Training)、通用推論、繪圖Google內部業務(Search, YouTube)、Google Cloud AI即時生成式AI(Chatbot)、語音互動、高頻推論場景
記憶體架構高度依賴HBM(高頻寬記憶體)依賴HBM依賴SRAM(晶片內記憶體)、不依賴HBM
全球代表大廠NVIDIA、AMDGoogle (Alphabet)、Broadcom (協助設計)Groq (目前主要定義者)
台灣受惠供應鏈晶圓代工: 台積電 (CoWoS先進封裝是關鍵)
伺服器: 廣達、鴻海(鴻佰)、緯穎、技嘉
IP/ASIC: 世芯-KY、創意
晶圓代工: 台積電
伺服器: 緯穎 (Google主要合作夥伴)、廣達
網通與模組: 智邦 (晶片互連交換技術)、鴻海 (伺服器組裝)
潛在受惠: 專注於ASIC設計服務業者
投資風險與觀察HBM產能缺口、高耗電問題僅限 Google 生態系與資料中心 Infra、外部無法直接採購硬體晶片製造目前由三星 (Samsung) 拿下主要代工單、SRAM容量限制模型大小

混合架構將成未來常態

CyberQ 觀察,GPU、TPU 與 LPU 並非零和遊戲。未來 AI 資料中心將走向混合架構,AI 算力市場也有可能會呈現「NVIDIA 混合體(GPU+LPU)」競合「Google(TPU)與其他共通或個別自研客製化 AI 晶片生態系 」的局面一段時間,直到更有效率的架構和合作方法出來又會是新的局面了。

要特別注意的是 Groq 的 LPU 並非獨家授權給 NVIDA,意味著其他廠商也能夠與之合作產生有意思的產品線來,這點很值得觀察。

NVIDIA 藉由技術授權,試圖打造一個「既能載重(訓練)又能跑快(推論)」的新生態,而 Google 和產業其他廠商、合作夥伴與競爭者們,預期會繼續利用 TPU 的成本優勢,築起雲端服務的護城河。

市場的觀察重點除了算力大小,包括推論成本與能源效率的最佳化指標,正隨著越來越多 AI 應用落地而有了不同各擅其場的風貌。

首圖由 Google Nano Banana AI 生成

LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局
AI 算力戰白熱化!Anthropic 豪擲數百億美元,向 Google 採購百萬顆 TPU 來組建規模 1 GW 的 AI 算力
DRAM 缺貨恐延燒至 2026 年之後,Micron 財報顯示記憶體將持續高價
AI 推理正改寫記憶體供需格局:LPDDR 崛起、HBM 供不應求續漲,消費終端將首當其衝
三星傳將於 2026 年停產 SATA SSD 供應鏈示警價格恐面臨 18 個月上漲壓力
美光 Crucial 全力轉攻 AI 市場,將逐步關閉消費級 DRAM 與 SSD 產品線
漲幅超越黃金!AI 熱潮引爆記憶體+SSD 缺貨漲價潮
晶片設計之神 Jim Keller 的下一步:攜手台灣,用開源架構與 Chiplet 點燃 AI 晶片新篇章 – SEMICON TAIWAN 2025
從 MLPerf 看 AI 算力版圖:NVIDIA 穩守江山,Google TPU 憑「能效」劍指 2026
甲骨文債信揭開矽谷 AI 大廠交互投資的高槓桿遊戲
Google 計畫結盟 Meta 與 AMD 強化自研 AI 晶片生態系
標籤: AIAI晶片供應鏈GPUGroqHBMLPULPU概念股LPU比較NVIDIATPU台灣伺服器代工
Share104Tweet65ShareShareShare18
上一篇

LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局

下一篇

當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計、AI美術設計認證、淨零碳規劃管理師,在上市歐洲外商、生醫、金融、科技產業中淬煉,曾參與過多個跨平台專案,從需求分析、設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章

2026 新春特輯 – 數位大掃除與守歲實作推薦
新聞

2026 新春特輯 – 數位大掃除與守歲實作推薦

2026 年 2 月 15 日
五角大廈驚傳突襲馬杜洛行動中使用 Claude AI
AI 人工智慧

五角大廈驚傳突襲馬杜洛行動中使用 Claude AI

2026 年 2 月 15 日
極客的硬派浪漫情人節特輯:親手 coding 數位卡片,用 AI、NAS 與資安守護我們愛情的數位資產!
新聞

極客的硬派浪漫情人節特輯:親手 coding 數位卡片,用 AI、NAS 與資安守護我們愛情的數位資產!

2026 年 2 月 14 日
迷你 AI 代理人 Sipeed PicoClaw 實測,在 10 美元硬體上重塑 AI 代理生態
AI 人工智慧

迷你 AI 代理人 Sipeed PicoClaw 實測,在 10 美元硬體上重塑 AI 代理生態

2026 年 2 月 13 日
Google 發表 Gemini 3 Deep Think 重大升級  挑戰科學與工程極限
AI 人工智慧

Google 發表 Gemini 3 Deep Think 重大升級 挑戰科學與工程極限

2026 年 2 月 13 日
迪士尼版權戰開打 Google AI 工具全面封殺米老鼠相關生成指令
AI 人工智慧

迪士尼版權戰開打 Google AI 工具全面封殺米老鼠相關生成指令

2026 年 2 月 13 日
下一篇
當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

推薦閱讀

2026 新春特輯 – 數位大掃除與守歲實作推薦

2026 新春特輯 – 數位大掃除與守歲實作推薦

2026 年 2 月 15 日
五角大廈驚傳突襲馬杜洛行動中使用 Claude AI

五角大廈驚傳突襲馬杜洛行動中使用 Claude AI

2026 年 2 月 15 日
極客的硬派浪漫情人節特輯:親手 coding 數位卡片,用 AI、NAS 與資安守護我們愛情的數位資產!

極客的硬派浪漫情人節特輯:親手 coding 數位卡片,用 AI、NAS 與資安守護我們愛情的數位資產!

2026 年 2 月 14 日
迷你 AI 代理人 Sipeed PicoClaw 實測,在 10 美元硬體上重塑 AI 代理生態

迷你 AI 代理人 Sipeed PicoClaw 實測,在 10 美元硬體上重塑 AI 代理生態

2026 年 2 月 13 日
Google 發表 Gemini 3 Deep Think 重大升級  挑戰科學與工程極限

Google 發表 Gemini 3 Deep Think 重大升級 挑戰科學與工程極限

2026 年 2 月 13 日

近期熱門

  • 資安院示警 Synology 舊漏洞遭鎖定攻擊、新 Telnet 漏洞又現蹤,用戶須立即更新系統

    資安院示警 Synology 舊漏洞遭鎖定攻擊、新 Telnet 漏洞又現蹤,用戶須立即更新系統

    167 shares
    Share 67 Tweet 42
  • 飛牛私有雲 fnOS NAS 爆發史詩級災情!用戶檔案裸奔一年半,社群怒火與駭客肆虐觀察

    155 shares
    Share 62 Tweet 39
  • AI 醫療器材事故頻傳:手術室內的智慧科技是助力還是風險?

    153 shares
    Share 61 Tweet 38
  • 斷電是 SSD 與硬碟殺手!電腦、NAS 與機房的 UPS 選購指南

    141 shares
    Share 56 Tweet 35
  • 迷你 AI 代理人 Sipeed PicoClaw 實測,在 10 美元硬體上重塑 AI 代理生態

    141 shares
    Share 56 Tweet 35
  • KB5077181 更新釋出,Windows 11跨裝置接續功能升級、開始功能表新介面與 AI 模型整合

    137 shares
    Share 55 Tweet 34
  • Linux 6.19 正式發布:邁向 7.0 新時代,四大檔案系統關鍵變革探究

    136 shares
    Share 54 Tweet 34
  • AI 數位永生引發倫理爭議 是撫慰人心還是二次傷害 ?

    131 shares
    Share 52 Tweet 33
  • Google 發表 Gemini 3 Deep Think 重大升級 挑戰科學與工程極限

    130 shares
    Share 52 Tweet 33
  • SFP+ 模組熱力與 DDM 解析,10GbE 網管交換器實測 QNAP QSW-M3212R-8S4T

    126 shares
    Share 50 Tweet 32

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 開箱測試
  • 選購指南
  • DR.Q 快問快答
  • 基礎教學
    • NAS 基礎設定
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。