CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 基礎教學
  • Docker / 容器
  • 資安專區
  • AI 應用實戰
  • 進階應用
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
首頁 新聞 AI 人工智慧

上帝不擲骰子,但 AI 會?Thinking Machines Lab 解密 LLM 推理不確定性的真正根源

Ashley Hsieh by Ashley Hsieh
2025 年 9 月 17 日
Reading Time: 2 mins read
A A
上帝不擲骰子,但 AI 會?Thinking Machines Lab 解密 LLM 推理不確定性的真正根源
11
分享數
219
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

在人工智慧(AI)領域,開發者與研究人員普遍面臨一個挑戰,也就是即使我們給予完全相同的提詞(Prompt),大型語言模型(LLM) 在不同時間點也可能生成相異的結果。這種現象不僅妨礙了科學研究的再現性,也對需要高度穩定性的應用場景構成阻礙。

RELATED POSTS

Cursor 宣布獲 Google、NVIDIA 注資 23 億美元 D 輪融資,AI 開發工具進入「百億估值」戰場

資安攻擊已近乎全自動:WSJ 揭密中國駭客利用 Anthropic AI 自主入侵

前 Google 執行長施密特憂心各國將因成本考量轉向採用中國開源 AI 模型

過往,LLM 的「不確定性」(Nondeterminism)學界普遍將此問題歸咎於「平行運算與浮點數的結合假說」(Concurrency + Floating Point Hypothesis)。該假說的核心在於,多 GPU 環境下的「平行運算」與電腦的「浮點數運算」這兩個特性結合後產生的放大效應。

在語言模型反覆無常的回答背後,科學家解密了令人意外的決定性因素,推翻過去對 AI 隨機性的常識。

首先,電腦在處理小數(即浮點數)時天生存在著微小的精確度限制,這導致了運算的「非結合性」,也就是(a + b) + c ≠ a + (b + c)。其次,在平行運算中,任務被分配給成千上萬個核心同時處理,但我們無法預測哪個核心會先完成。

AI 是否真的在擲骰子?究竟是怎麼回事 ?

雖說在量子力學領域,上帝真的會擲骰子,但 AI 呢? 若簡單地解釋,這就好像一個有千名廚師的巨型廚房,每位廚師都負責一部分的食材,你無法保證每一次,都是負責番茄的A廚師,比負責馬鈴薯的B廚師,早0.01秒把食材丟進鍋裡。雖然他們都完成了任務,但食材被加入湯中的「順序」,每一次都可能有些微的、不可預測的隨機變化。這就是「平行運算」帶來的隨機性。

當這兩個因素結合,運算順序的隨機性,觸發了浮點數的非結合性。最終,即使配方與食材完全相同,每次烹煮出的湯品風味(運算結果),都可能產生微乎其微的差異。

然而,由前 OpenAI 技術長 Mira Murati 所創立的 AI 研究機構「Thinking Machines Lab」近期發表了首篇研究文章《Defeating Nondeterminism in LLM Inference》,徹底顛覆了這個傳統觀點。

不確定性的真正元兇:批次大小(Batch Size)的變異

Thinking Machines Lab 的研究團隊指出,儘管浮點數運算問題確實存在,但它並非 LLM 推理不確定性的主要原因。他們透過實驗與分析發現,問題的核心在於「批次處理的非不變性」(Lack of Batch Invariance)

在實際應用中,LLM 推理伺服器(如vLLM)會根據當下的系統負載,動態調整傳入模型的批次大小,例如,在流量高峰期,伺服器可能會將多個使用者的請求合併成一個大批次進行處理;而在離峰時段,則可能以較小的批次運作。這就好像伺服器是個電梯系統,而 AI 是位住在100層樓的大師,大家都想搭電梯上去問大師問題,離峰時段時,電梯一次只載一個人 ( 這就是小批次,Batch Size = 1 ),尖峰時段時,為了效率就會盡量把電梯塞滿人再出發 (以這個案例來說就是大批次,Batch Size = 8),研究人員發現,現行許多核心的運算(Kernels),其計算結果會受到批次大小的影響。

就好像當電梯一次只載一個人時,都能夠很順暢地快速直達 101 層樓,當電梯一次載8個人時,因為重量和平衡的關係,電梯會產生微小的晃動,走的路線甚至有點偏移。換言之,一個批次大小為 8 的運算結果,與 8 個批次大小為 1 的運算結果,在數值上會存在細微差異。正是這種因伺服器負載而隨機變動的批次大小,構成了 LLM 輸出不確定性的主要來源。

實現「批次不變性」:邁向可再現的 AI

為了驗證此論點並解決問題,Thinking Machines Lab 開發了一套「批次不變性」的核心運算函式庫,包含對 RMSNorm、矩陣乘法(Matmul)及注意力機制(Attention)等關鍵操作的修改。

團隊以目前業界流行的中國通義千問 Qwen3-8B AI 模型進行測試,實驗結果驚人,他們在標準設定下,將溫度係數(Temperature)設為 0,並對同一提示重複執行 1,000次,竟產生了 80 種不同的輸出。然而,在換上他們開發的「批次不變性」核心後,1,000 次的執行結果完全一致。

(Figure Credit: Thinking Machines Lab,在 DeepSeek 3.1 溫度係數設定為 0的 情形。 )

這項成果證實了,只要能確保運算過程不受批次大小變化的干擾,LLM 的推理過程就能實現完全的確定性與可再現性。當然,這項創舉也伴隨著代價。目前,實現「批次不變性」的運算核心,其執行速度較標準版本慢。不過,研究團隊已透過對注意力機制的最佳化,成功縮小了效能差距。

Thinking Machines Lab 認為,對於追求科學嚴謹性、模型安全性驗證以及程式除錯等領域而言,犧牲部分效能以換取結果的完全可再現性,是絕對值得的。他們也期望,這項研究能啟發未來AI推理引擎的設計方向,讓「確定性」成為與「速度」同等重要的考量指標。

這篇開創性的研究,不僅為解決 LLM 長久以來的隨機性問題提供了清晰的路徑,也為 AI 領域的科學化與工程化奠定了更穩固的基礎。

本文首圖由 本地端 LLM 生成,配圖為 Google Gemini AI 生成

標籤: AILLMThinking Machines Lab
Share4Tweet3ShareShareShare1
上一篇

OpenAI GPT‑5‑Codex 登場,更融進工程師日常,開發者怎麼看?

下一篇

WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計,在上市歐洲外商、生醫、金融、科技產業中淬煉直觀好用的產品體驗。曾參與過多個跨平台專案,從需求分析、流程設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章文章

Cursor 宣布獲 Google、NVIDIA 注資 23 億美元 D 輪融資,AI 開發工具進入「百億估值」戰場
AI 人工智慧

Cursor 宣布獲 Google、NVIDIA 注資 23 億美元 D 輪融資,AI 開發工具進入「百億估值」戰場

2025 年 11 月 14 日
資安攻擊已近乎全自動:WSJ 揭密中國駭客利用 Anthropic AI 自主入侵
AI 人工智慧

資安攻擊已近乎全自動:WSJ 揭密中國駭客利用 Anthropic AI 自主入侵

2025 年 11 月 14 日
前 Google 執行長施密特憂心各國將因成本考量轉向採用中國開源 AI 模型
AI 人工智慧

前 Google 執行長施密特憂心各國將因成本考量轉向採用中國開源 AI 模型

2025 年 11 月 14 日
Apple 擬砸 10 億美元向 Google 租用客製 Gemini?Siri「換腦計畫」背後的真相與新 AI 競局
AI 人工智慧

Apple 擬砸 10 億美元向 Google 租用客製 Gemini?Siri「換腦計畫」背後的真相與新 AI 競局

2025 年 11 月 14 日
晶片禁令下的軟體突圍,矽谷新創為何轉向擁抱中國AI模型 ?
AI 人工智慧

晶片禁令下的軟體突圍,矽谷新創為何轉向擁抱中國AI模型 ?

2025 年 11 月 13 日
Blender 於 NVIDIA DGX Spark GB10 平台成功執行,CUDA 與 OptiX 加速全開
AI 人工智慧

Blender 於 NVIDIA DGX Spark GB10 平台成功執行,CUDA 與 OptiX 加速全開

2025 年 11 月 13 日
下一篇
WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

QNAP NAS 導入 AI 自然語意智慧搜尋、RAG 多輪對話與智慧影像管理等重大更新

QNAP NAS 導入 AI 自然語意智慧搜尋、RAG 多輪對話與智慧影像管理等重大更新

推薦閱讀

OpenAI 與 AWS 攜手重構 380 億美元雲端 AI 算力版圖

OpenAI 與 AWS 攜手重構 380 億美元雲端 AI 算力版圖

2025 年 11 月 5 日
AWS US-EAST-1 異常掀全球災情:Snapchat、Canva、Duolingo、Fortnite 全掛,陸續恢復上線

AWS US-EAST-1 異常掀全球災情:Snapchat、Canva、Duolingo、Fortnite 全掛,陸續恢復上線

2025 年 10 月 20 日
Cursor 宣布獲 Google、NVIDIA 注資 23 億美元 D 輪融資,AI 開發工具進入「百億估值」戰場

Cursor 宣布獲 Google、NVIDIA 注資 23 億美元 D 輪融資,AI 開發工具進入「百億估值」戰場

2025 年 11 月 14 日

熱門文章

  • Docker 29.0.0 重大更新,擁抱 nftables 與 cgroup v2,但開發者應注意多項變更調整

    Docker 29.0.0 重大更新,擁抱 nftables 與 cgroup v2,但開發者應注意多項變更調整

    20 shares
    Share 8 Tweet 5
  • 用 Watchtower 協助 Docker 容器永續自動更新,解放你的維運壓力

    20 shares
    Share 8 Tweet 5
  • NVIDIA DGX Spark GB10 發售次月現況,用戶逐步打造小型 AI 運算叢集

    17 shares
    Share 7 Tweet 4
  • OpenAI 正式推出 GPT-5.1 強化推理能力與人性化互動體驗

    16 shares
    Share 6 Tweet 4
  • 資安攻擊已近乎全自動:WSJ 揭密中國駭客利用 Anthropic AI 自主入侵

    16 shares
    Share 6 Tweet 4

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。