在當前半導體市場「漲」聲一片的背景下,DRAM 價格上漲、產能吃緊、交期延長已成常態。這一切的始作俑者,仍指向 AI 浪潮。為滿足 AI 訓練的算力需求,HBM(高頻寬記憶體)成為最高毛利的明星產品,三大 DRAM 廠(三星、SK 海力士、美光)持續將產能與投資往 HBM 傾斜,使標準 DRAM 供給受影響、價格易漲難跌。
最新一季,SK 海力士對外表示 2026 年前 DRAM/NAND/HBM 幾乎「產能售罄」,且 HBM4 將於 2025 年 Q4 開始供應、2026 年擴大銷售,顯示市場高度需求的榮景將延續至 2026–2027 年區間。
但當市場目光都還鎖定在 HBM 短缺時,來自 AI 推理(Inference)場景的另一股供應鏈變化,正悄悄浮現,大型雲端業者與產業大廠的 AI 運算資料中心部署規劃正把目光轉向LPDDR(低功耗 DDR)這種過去以手機為主戰場的記憶體。
AI 大廠們為了最佳化資料中心的總體擁有成本(TCO),正掀起一場「推理效率革命」。而他們所選擇的比 HBM 便宜的記憶體零組件要角,自然是我們每個人手機中都在使用的 LPDDR(低功耗雙倍資料速率記憶體)。
AI 點燃從 HBM 到記憶體市場漲勢
AI 浪潮的洶湧,除了讓硬碟、SSD 起漲外,更重要的事也讓記憶體市場進入了前所未有的高需求期間。韓國大廠 SK海力士宣稱其 2025 年的 HBM 產能早已被預訂一空,而美光與三星的營收表現也呈現大幅成長。
由於儲存廠集中擴產 HBM,標準規格的 DRAM 產能受到排擠,市場供需陸續呈現失衡。與此同時,亞馬遜、Google、Meta 等雲端大廠,為了擴充 AI 推理與雲端服務能力,也正大規模採購傳統 DRAM。
整個記憶體市場在市場需求帶動下,已經和之前的局面不同,而在這個不容易維持的供需平衡上,晶片大廠們的選擇策略同樣產生了更多影響。

(Figure Credit : CyberQ.tw)
為什麼大廠們主導的 AI 推理市場在找 LPDDR?
AI 應用的瓶頸,正從「計算」轉向「資料傳輸」。產業將這種趨勢和現象稱為「馬丁尼吸管問題」(Martini straw problem):無論你的計算引擎(酒杯)多強大,性能最終都受限於資料流入流出的速度(吸管)。
在 AI 推理階段,模型權重固定、重點是大容量、可擴充、功耗可控的記憶體子系統。HBM 速度快但成本高、供應吃緊;資料中心若要在 TCO(總持有成本)下做大規模推理擴張,更划算的選項自然會被重新評估。產業分析與多方技術觀察指出,LPDDR 的 $/GB 顯著低於 HBM(常見估值為 HBM 每 GB 成本遠高於 LPDDR/GDDR),這使其在大量部署的推理機群中特別具吸引力。
除了高通之外,還有其他業界大廠也加入類似方案的規劃:
高通 (Qualcomm): 最新發表的 AI 200/AI 250 資料中心加速產品,並未採用 HBM,而是破天荒地為每張加速卡配備了高達 768 GB 的 LPDDR 記憶體,容量約為 NVIDIA H100 的 10 倍。

(Photo Credit: Qualcomm Press)
英特爾 (Intel): 代號「Crescent Island」的資料中心 GPU,專為 AI 推理設計,明確配備了 160GB 的 LPDDR5X 記憶體,主打「功耗與成本最佳化」。
輝達 (NVIDIA): 即便是 HBM 最堅定的擁護者,根據報導,在其下一代 Vera Rubin 超級晶片中,雖然 GPU 仍配備 HBM4,但也首次在其 CPU 周圍採用了 LPDDR 記憶體(搭載 CAMM2 模組)。
三大晶片大廠不約而同地轉向 LPDDR,絕非偶然。這標誌著 AI 產業正從不計成本的「訓練競賽」,走向精打細算的「商業化部署」。
智慧型手機會被「AI 資料中心」擠產能嗎?
當 AI 資料中心開始大量採購 LPDDR,手機供應鏈的議價力與供給彈性將受考驗。以 Qualcomm AI200/250 為例,一張卡可上看 768GB LPDDR;一個推理機架若配置數十至上百張,其 LPDDR 需求動輒數十 TB。
若更多廠商(Intel、NVIDIA、甚至後續的 AMD/博通專用卡)在 2026–2027 年擴大量產 LPDDR 方案,,對 LPDDR 產能的需求預期會呈現顯著的成長。LPDDR 供應鏈將進入「資料中心 vs. 手機」的拉扯。考量 DRAM 大廠資源必須在 HBM / LPDDR / 標準 DDR / GDDR 之間動態分配,手機端市場面臨「成本上升或規格策略調整」就不是假議題。
不但如此,LPDDR 產能並非無限的,同樣掌握在三星、SK海力士和美光手中。
如果你是供應商,你會如何選擇?
客戶 A(資料中心): 採購量巨大、利潤率高、訂單穩定且長期。
客戶 B(智慧型手機): 市場體量大、但單機用量小、價格敏感、季節性波動明顯。
答案自然會選 A。
資料中心訂單排擠到消費性電子產品的類似故事,我們在 2017 年的「加密貨幣挖礦產業」導致 GPU 短缺時已經見過一次,再來是 2020 年的半導體晶片荒一度讓汽車製造商拿不到足夠的車用晶片而停產。
而這一次,輪到了手機。對於手機廠商而言,2026-2027 年將面臨可能的手機端調整:
1、接受更高的記憶體成本並轉嫁終端售價。
2、部分旗艦/高階機型把 RAM 組態「往務實調」,例如 12GB 成為主流、16GB 僅於頂規。
3、儘快轉向 LPDDR6 以「效能/能效」換取體驗,雖單價較新、初期可能更貴,但可在平台功耗、頻寬與容量配置上找平衡。
LPDDR6:時間表與產業成熟度
JEDEC 已於 2025 年 7 月正式發布 LPDDR6(JESD209-6) 標準,傳輸速率上限至 14.4Gb/s(14,400 MT/s),並在效率/信號完整性上強化,鎖定行動與 AI 系統。
EDA/IP 廠亦加速應對,比方說 Cadence 公布 14.4Gb/s 的 LPDDR6/5X IP,而 Synopsys 亦於台積電 TSMC N2P 節點完成 LPDDR6 IP 的 silicon bring-up,顯示 2026 年起量產 SoC 平台導入是有機會加速實現的。
在 LPDDR5 被資料中心大量採購的背景下,LPDDR6 很可能將加速成為智慧型手機的新款標準記憶體選項,但因為是新技術,售價當然也會比較貴囉。
AI 資料中心需要省電方案,顯示卡(GDDR)是否也會被擠壓?
CyberQ 觀察,此題仍屬次級風險但值得關注:HBM 長期吃緊、LPDDR 需求走高,DRAM 廠的產線/資本配置在 2026 年前後仍將優先服務高毛利、長約穩定的資料中心與 HBM 產品。這意味 GDDR 也會面臨被「投資順位」邊緣化的壓力,價格與供貨彈性存在變數,目前廠商未明確對 GDDR 釋出警訊,但某些可能的風險仍不可忽視。
AI 硬體市場在記憶體方面的呈現會是下面這樣,
AI 模型訓練市場: HBM 依然不可替代,NVIDIA/AMD 繼續主導,HBM4 於 2025 年底小量、2026 年放量。
AI 推理市場: LPDDR 以 $/GB 與能效/可擴容量取勝;Qualcomm/Intel 已明示產品路線,NVIDIA 從系統記憶體模組(SoCAMM2/CAMM2)與 CPU/系統設計層面推動 LPDDR 生態。
消費終端影響:手機市場首先承受這方面的壓力,其次觀察顯示卡,我們要看市場的定價與料號規格策略恐隨 2026–2027 週期調整。
資料中心的 TCO 最佳化,伴隨著的是智慧型手機將受到影響,另外,業界也在觀察消費性用 NVIDIA 顯示卡是否也會漲價,畢竟 DRAM 廠商的產線有限,要做 HBM、LPDDR、標準型 DRAM,以及顯示卡用的 GDDR 記憶體,很忙且資源分配是需要安排的,且讓我們繼續觀察。











