CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 資安專區
  • AI 應用實戰
  • Docker / 容器
  • 基礎教學
  • 進階應用
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
首頁 新聞 AI 人工智慧

AI 推理正改寫記憶體供需格局:LPDDR 崛起、HBM 供不應求續漲,消費終端將首當其衝

Ashley Hsieh by Ashley Hsieh
2025 年 11 月 3 日
閱讀時間: 4 分鐘
A A
AI 推理正改寫記憶體供需格局:LPDDR 崛起、HBM 供不應求續漲,消費終端將首當其衝
76
分享數
1.9k
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

在當前半導體市場「漲」聲一片的背景下,DRAM 價格上漲、產能吃緊、交期延長已成常態。這一切的始作俑者,仍指向 AI 浪潮。為滿足 AI 訓練的算力需求,HBM(高頻寬記憶體)成為最高毛利的明星產品,三大 DRAM 廠(三星、SK 海力士、美光)持續將產能與投資往 HBM 傾斜,使標準 DRAM 供給受影響、價格易漲難跌。
最新一季,SK 海力士對外表示 2026 年前 DRAM/NAND/HBM 幾乎「產能售罄」,且 HBM4 將於 2025 年 Q4 開始供應、2026 年擴大銷售,顯示市場高度需求的榮景將延續至 2026–2027 年區間。

RELATED POSTS

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

但當市場目光都還鎖定在 HBM 短缺時,來自 AI 推理(Inference)場景的另一股供應鏈變化,正悄悄浮現,大型雲端業者與產業大廠的 AI 運算資料中心部署規劃正把目光轉向LPDDR(低功耗 DDR)這種過去以手機為主戰場的記憶體。

AI 大廠們為了最佳化資料中心的總體擁有成本(TCO),正掀起一場「推理效率革命」。而他們所選擇的比 HBM 便宜的記憶體零組件要角,自然是我們每個人手機中都在使用的 LPDDR(低功耗雙倍資料速率記憶體)。

AI 點燃從 HBM 到記憶體市場漲勢

AI 浪潮的洶湧,除了讓硬碟、SSD 起漲外,更重要的事也讓記憶體市場進入了前所未有的高需求期間。韓國大廠 SK海力士宣稱其 2025 年的 HBM 產能早已被預訂一空,而美光與三星的營收表現也呈現大幅成長。

由於儲存廠集中擴產 HBM,標準規格的 DRAM 產能受到排擠,市場供需陸續呈現失衡。與此同時,亞馬遜、Google、Meta 等雲端大廠,為了擴充 AI 推理與雲端服務能力,也正大規模採購傳統 DRAM。

整個記憶體市場在市場需求帶動下,已經和之前的局面不同,而在這個不容易維持的供需平衡上,晶片大廠們的選擇策略同樣產生了更多影響。

(Figure Credit : CyberQ.tw)

為什麼大廠們主導的 AI 推理市場在找 LPDDR?

AI 應用的瓶頸,正從「計算」轉向「資料傳輸」。產業將這種趨勢和現象稱為「馬丁尼吸管問題」(Martini straw problem):無論你的計算引擎(酒杯)多強大,性能最終都受限於資料流入流出的速度(吸管)。

在 AI 推理階段,模型權重固定、重點是大容量、可擴充、功耗可控的記憶體子系統。HBM 速度快但成本高、供應吃緊;資料中心若要在 TCO(總持有成本)下做大規模推理擴張,更划算的選項自然會被重新評估。產業分析與多方技術觀察指出,LPDDR 的 $/GB 顯著低於 HBM(常見估值為 HBM 每 GB 成本遠高於 LPDDR/GDDR),這使其在大量部署的推理機群中特別具吸引力。

除了高通之外,還有其他業界大廠也加入類似方案的規劃:

高通 (Qualcomm): 最新發表的 AI 200/AI 250 資料中心加速產品,並未採用 HBM,而是破天荒地為每張加速卡配備了高達 768 GB 的 LPDDR 記憶體,容量約為 NVIDIA H100 的 10 倍。

(Photo Credit: Qualcomm Press)

英特爾 (Intel): 代號「Crescent Island」的資料中心 GPU,專為 AI 推理設計,明確配備了 160GB 的 LPDDR5X 記憶體,主打「功耗與成本最佳化」。

輝達 (NVIDIA): 即便是 HBM 最堅定的擁護者,根據報導,在其下一代 Vera Rubin 超級晶片中,雖然 GPU 仍配備 HBM4,但也首次在其 CPU 周圍採用了 LPDDR 記憶體(搭載 CAMM2 模組)。

三大晶片大廠不約而同地轉向 LPDDR,絕非偶然。這標誌著 AI 產業正從不計成本的「訓練競賽」,走向精打細算的「商業化部署」。

智慧型手機會被「AI 資料中心」擠產能嗎?

當 AI 資料中心開始大量採購 LPDDR,手機供應鏈的議價力與供給彈性將受考驗。以 Qualcomm AI200/250 為例,一張卡可上看 768GB LPDDR;一個推理機架若配置數十至上百張,其 LPDDR 需求動輒數十 TB。

若更多廠商(Intel、NVIDIA、甚至後續的 AMD/博通專用卡)在 2026–2027 年擴大量產 LPDDR 方案,,對 LPDDR 產能的需求預期會呈現顯著的成長。LPDDR 供應鏈將進入「資料中心 vs. 手機」的拉扯。考量 DRAM 大廠資源必須在 HBM / LPDDR / 標準 DDR / GDDR 之間動態分配,手機端市場面臨「成本上升或規格策略調整」就不是假議題。

不但如此,LPDDR 產能並非無限的,同樣掌握在三星、SK海力士和美光手中。

如果你是供應商,你會如何選擇?

客戶 A(資料中心): 採購量巨大、利潤率高、訂單穩定且長期。

客戶 B(智慧型手機): 市場體量大、但單機用量小、價格敏感、季節性波動明顯。

答案自然會選 A。

資料中心訂單排擠到消費性電子產品的類似故事,我們在 2017 年的「加密貨幣挖礦產業」導致 GPU 短缺時已經見過一次,再來是 2020 年的半導體晶片荒一度讓汽車製造商拿不到足夠的車用晶片而停產。

而這一次,輪到了手機。對於手機廠商而言,2026-2027 年將面臨可能的手機端調整:

1、接受更高的記憶體成本並轉嫁終端售價。

2、部分旗艦/高階機型把 RAM 組態「往務實調」,例如 12GB 成為主流、16GB 僅於頂規。

3、儘快轉向 LPDDR6 以「效能/能效」換取體驗,雖單價較新、初期可能更貴,但可在平台功耗、頻寬與容量配置上找平衡。

LPDDR6:時間表與產業成熟度

JEDEC 已於 2025 年 7 月正式發布 LPDDR6(JESD209-6) 標準,傳輸速率上限至 14.4Gb/s(14,400 MT/s),並在效率/信號完整性上強化,鎖定行動與 AI 系統。

EDA/IP 廠亦加速應對,比方說 Cadence 公布 14.4Gb/s 的 LPDDR6/5X IP,而 Synopsys 亦於台積電 TSMC N2P 節點完成 LPDDR6 IP 的 silicon bring-up,顯示 2026 年起量產 SoC 平台導入是有機會加速實現的。

在 LPDDR5 被資料中心大量採購的背景下,LPDDR6 很可能將加速成為智慧型手機的新款標準記憶體選項,但因為是新技術,售價當然也會比較貴囉。

AI 資料中心需要省電方案,顯示卡(GDDR)是否也會被擠壓?

CyberQ 觀察,此題仍屬次級風險但值得關注:HBM 長期吃緊、LPDDR 需求走高,DRAM 廠的產線/資本配置在 2026 年前後仍將優先服務高毛利、長約穩定的資料中心與 HBM 產品。這意味 GDDR 也會面臨被「投資順位」邊緣化的壓力,價格與供貨彈性存在變數,目前廠商未明確對 GDDR 釋出警訊,但某些可能的風險仍不可忽視。

AI 硬體市場在記憶體方面的呈現會是下面這樣,

AI 模型訓練市場: HBM 依然不可替代,NVIDIA/AMD 繼續主導,HBM4 於 2025 年底小量、2026 年放量。

AI 推理市場: LPDDR 以 $/GB 與能效/可擴容量取勝;Qualcomm/Intel 已明示產品路線,NVIDIA 從系統記憶體模組(SoCAMM2/CAMM2)與 CPU/系統設計層面推動 LPDDR 生態。

消費終端影響:手機市場首先承受這方面的壓力,其次觀察顯示卡,我們要看市場的定價與料號規格策略恐隨 2026–2027 週期調整。

資料中心的 TCO 最佳化,伴隨著的是智慧型手機將受到影響,另外,業界也在觀察消費性用 NVIDIA 顯示卡是否也會漲價,畢竟 DRAM 廠商的產線有限,要做 HBM、LPDDR、標準型 DRAM,以及顯示卡用的 GDDR 記憶體,很忙且資源分配是需要安排的,且讓我們繼續觀察。

首圖及配圖由 ComfyUI 搭配本地端 AI 模型生成

微軟、輝達與Anthropic結盟 450億美元AI算力交易震撼市場
實測 Google Nano Banana Pro 影像模型,結合 Gemini 3 Pro 強化視覺創作與精準控圖
晶片禁令下的軟體突圍,矽谷新創為何轉向擁抱中國AI模型 ?
AI 算力戰白熱化!Anthropic 豪擲數百億美元,向 Google 採購百萬顆 TPU 來組建規模 1 GW 的 AI 算力

標籤: AIDRAMHBMIntelLPDDRNVIDIAQualcommSK 海力士三星美光高通
Share30Tweet19ShareShareShare5
上一篇

全球頂尖駭客競賽 Pwn2Own Ireland 2025 第二日戰報, 三星旗艦手機 Galaxy S25 成全場焦點並成功破解

下一篇

QNAP 呼籲 NetBak PC Agent 用戶應立即修補 Windows 端 ASP.NET Core 漏洞曝險元件

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計、AI美術設計認證、淨零碳規劃管理師,在上市歐洲外商、生醫、金融、科技產業中淬煉,曾參與過多個跨平台專案,從需求分析、設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽
AI 人工智慧

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

2025 年 12 月 31 日
AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家
AI 人工智慧

AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

2025 年 12 月 30 日
Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能
AI 人工智慧

Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

2025 年 12 月 30 日
NVIDIA 斥資以色列數十億美元新建大型研發園區,黃仁勳視為「第二個家」全球佈局
AI 人工智慧

NVIDIA 斥資以色列數十億美元新建大型研發園區,黃仁勳視為「第二個家」全球佈局

2025 年 12 月 28 日
自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」
基礎教學

自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

2025 年 12 月 27 日
當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機
新聞

當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

2025 年 12 月 27 日
下一篇
QNAP 呼籲 NetBak PC Agent 用戶應立即修補 Windows 端 ASP.NET Core 漏洞曝險元件

QNAP 呼籲 NetBak PC Agent 用戶應立即修補 Windows 端 ASP.NET Core 漏洞曝險元件

企業級 NAS 導入 AI 邊緣運算,QNAP TVS-AIh1688ATX登場

企業級 NAS 導入 AI 邊緣運算,QNAP TVS-AIh1688ATX登場

推薦閱讀

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

Google 花 4.75 億美元買電廠,從 xAI 自建能源設施看科技巨頭的核能與燃氣軍備競賽

2025 年 12 月 31 日
AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

AI瓦解語言屏障 全球駭客無差別攻擊非英語系國家

2025 年 12 月 30 日
Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

Meta 收購中國 AI 代理新創 Manus 將強化臉書、IG 與Threads 自動化功能

2025 年 12 月 30 日
SMB 10GbE 網路一機到位最佳實踐:QNAP QSW-M2106-4S 10G 網管交換器開箱

SMB 10GbE 網路一機到位最佳實踐:QNAP QSW-M2106-4S 10G 網管交換器開箱

2025 年 12 月 29 日
NVMe SSD 加速指令解封印實測,看微軟儲存堆疊的演進與 BitLocker 新局

NVMe SSD 加速指令解封印實測,看微軟儲存堆疊的演進與 BitLocker 新局

2025 年 12 月 28 日

近期熱門

  • LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局

    LPU 市場將起飛 ? Nvidia 斥資 200 億美元取得 Groq 技術授權強化 AI 推論佈局

    281 shares
    Share 112 Tweet 70
  • GPU、LPU、TPU 各擅其場的 AI 算力賽局,解析技術差異及供應鏈佈局

    277 shares
    Share 111 Tweet 69
  • 只要幾千元 ! 打造便宜且穩定的 10GbE 網速環境,實作家庭與辦公網路升級

    237 shares
    Share 95 Tweet 59
  • 升級 10GbE 需要的網路卡、SFP+ 模組與線材選購到 iPerf3 實測全攻略

    220 shares
    Share 88 Tweet 55
  • 當「凡走過必留痕跡」恐成為傳說 ? 數位衰退與 AI 獵食下的記憶保存危機

    212 shares
    Share 85 Tweet 53
  • NVMe SSD 加速指令解封印實測,看微軟儲存堆疊的演進與 BitLocker 新局

    211 shares
    Share 84 Tweet 53
  • 台灣《人工智慧基本法》三讀通過:在美式創新與歐式監管間,台灣選了一條什麼路?

    159 shares
    Share 64 Tweet 40
  • Google 傳奇工程師 Jeff Dean 公開內部效能最佳化指南

    264 shares
    Share 106 Tweet 66
  • NVIDIA 斥資以色列數十億美元新建大型研發園區,黃仁勳視為「第二個家」全球佈局

    123 shares
    Share 49 Tweet 31
  • 自己的資料自己救,用數位資產保存工具打造「數位諾亞方舟」

    119 shares
    Share 48 Tweet 30

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。