CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 基礎教學
  • Docker / 容器
  • 資安專區
  • AI 應用實戰
  • 進階應用
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
首頁 新聞

上帝不擲骰子,但 AI 會?Thinking Machines Lab 解密 LLM 推理不確定性的真正根源

Ashley Hsieh by Ashley Hsieh
2025 年 9 月 17 日
Reading Time: 2 mins read
A A
上帝不擲骰子,但 AI 會?Thinking Machines Lab 解密 LLM 推理不確定性的真正根源
9
分享數
173
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

在人工智慧(AI)領域,開發者與研究人員普遍面臨一個挑戰,也就是即使我們給予完全相同的提詞(Prompt),大型語言模型(LLM) 在不同時間點也可能生成相異的結果。這種現象不僅妨礙了科學研究的再現性,也對需要高度穩定性的應用場景構成阻礙。

RELATED POSTS

AI 正在扼殺開放網路的靈魂?Cloudflare CEO 警告:我們正走向《黑鏡》般的反烏托邦未來

Google Gemini 整合 Chrome,迎戰微軟 Copilot 陣營

Cloudflare 進軍電子郵件服務,推出整合 Workers 的全新 Email Service

過往,LLM 的「不確定性」(Nondeterminism)學界普遍將此問題歸咎於「平行運算與浮點數的結合假說」(Concurrency + Floating Point Hypothesis)。該假說的核心在於,多 GPU 環境下的「平行運算」與電腦的「浮點數運算」這兩個特性結合後產生的放大效應。

在語言模型反覆無常的回答背後,科學家解密了令人意外的決定性因素,推翻過去對 AI 隨機性的常識。

首先,電腦在處理小數(即浮點數)時天生存在著微小的精確度限制,這導致了運算的「非結合性」,也就是(a + b) + c ≠ a + (b + c)。其次,在平行運算中,任務被分配給成千上萬個核心同時處理,但我們無法預測哪個核心會先完成。

AI 是否真的在擲骰子?究竟是怎麼回事 ?

雖說在量子力學領域,上帝真的會擲骰子,但 AI 呢? 若簡單地解釋,這就好像一個有千名廚師的巨型廚房,每位廚師都負責一部分的食材,你無法保證每一次,都是負責番茄的A廚師,比負責馬鈴薯的B廚師,早0.01秒把食材丟進鍋裡。雖然他們都完成了任務,但食材被加入湯中的「順序」,每一次都可能有些微的、不可預測的隨機變化。這就是「平行運算」帶來的隨機性。

當這兩個因素結合,運算順序的隨機性,觸發了浮點數的非結合性。最終,即使配方與食材完全相同,每次烹煮出的湯品風味(運算結果),都可能產生微乎其微的差異。

然而,由前 OpenAI 技術長 Mira Murati 所創立的 AI 研究機構「Thinking Machines Lab」近期發表了首篇研究文章《Defeating Nondeterminism in LLM Inference》,徹底顛覆了這個傳統觀點。

不確定性的真正元兇:批次大小(Batch Size)的變異

Thinking Machines Lab 的研究團隊指出,儘管浮點數運算問題確實存在,但它並非 LLM 推理不確定性的主要原因。他們透過實驗與分析發現,問題的核心在於「批次處理的非不變性」(Lack of Batch Invariance)

在實際應用中,LLM 推理伺服器(如vLLM)會根據當下的系統負載,動態調整傳入模型的批次大小,例如,在流量高峰期,伺服器可能會將多個使用者的請求合併成一個大批次進行處理;而在離峰時段,則可能以較小的批次運作。這就好像伺服器是個電梯系統,而 AI 是位住在100層樓的大師,大家都想搭電梯上去問大師問題,離峰時段時,電梯一次只載一個人 ( 這就是小批次,Batch Size = 1 ),尖峰時段時,為了效率就會盡量把電梯塞滿人再出發 (以這個案例來說就是大批次,Batch Size = 8),研究人員發現,現行許多核心的運算(Kernels),其計算結果會受到批次大小的影響。

就好像當電梯一次只載一個人時,都能夠很順暢地快速直達 101 層樓,當電梯一次載8個人時,因為重量和平衡的關係,電梯會產生微小的晃動,走的路線甚至有點偏移。換言之,一個批次大小為 8 的運算結果,與 8 個批次大小為 1 的運算結果,在數值上會存在細微差異。正是這種因伺服器負載而隨機變動的批次大小,構成了 LLM 輸出不確定性的主要來源。

實現「批次不變性」:邁向可再現的 AI

為了驗證此論點並解決問題,Thinking Machines Lab 開發了一套「批次不變性」的核心運算函式庫,包含對 RMSNorm、矩陣乘法(Matmul)及注意力機制(Attention)等關鍵操作的修改。

團隊以目前業界流行的中國通義千問 Qwen3-8B AI 模型進行測試,實驗結果驚人,他們在標準設定下,將溫度係數(Temperature)設為 0,並對同一提示重複執行 1,000次,竟產生了 80 種不同的輸出。然而,在換上他們開發的「批次不變性」核心後,1,000 次的執行結果完全一致。

(Figure Credit: Thinking Machines Lab,在 DeepSeek 3.1 溫度係數設定為 0的 情形。 )

這項成果證實了,只要能確保運算過程不受批次大小變化的干擾,LLM 的推理過程就能實現完全的確定性與可再現性。當然,這項創舉也伴隨著代價。目前,實現「批次不變性」的運算核心,其執行速度較標準版本慢。不過,研究團隊已透過對注意力機制的最佳化,成功縮小了效能差距。

Thinking Machines Lab 認為,對於追求科學嚴謹性、模型安全性驗證以及程式除錯等領域而言,犧牲部分效能以換取結果的完全可再現性,是絕對值得的。他們也期望,這項研究能啟發未來AI推理引擎的設計方向,讓「確定性」成為與「速度」同等重要的考量指標。

這篇開創性的研究,不僅為解決 LLM 長久以來的隨機性問題提供了清晰的路徑,也為 AI 領域的科學化與工程化奠定了更穩固的基礎。

本文首圖由 本地端 LLM 生成,配圖為 Google Gemini AI 生成

標籤: AILLMThinking Machines Lab
Share4Tweet2ShareShareShare1
上一篇

OpenAI GPT‑5‑Codex 登場,更融進工程師日常,開發者怎麼看?

下一篇

WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計,在上市歐洲外商、生醫、金融、科技產業中淬煉直觀好用的產品體驗。曾參與過多個跨平台專案,從需求分析、流程設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章文章

AI 正在扼殺開放網路的靈魂?Cloudflare CEO 警告:我們正走向《黑鏡》般的反烏托邦未來
新聞

AI 正在扼殺開放網路的靈魂?Cloudflare CEO 警告:我們正走向《黑鏡》般的反烏托邦未來

2025 年 9 月 30 日
Google Gemini 整合 Chrome,迎戰微軟 Copilot 陣營
新聞

Google Gemini 整合 Chrome,迎戰微軟 Copilot 陣營

2025 年 9 月 29 日
Cloudflare 進軍電子郵件服務,推出整合 Workers 的全新 Email Service
新聞

Cloudflare 進軍電子郵件服務,推出整合 Workers 的全新 Email Service

2025 年 9 月 29 日
NVIDIA 投資 OpenAI 千億美元,攜手 Oracle 打造 AI 算力與資本的永續引擎
新聞

NVIDIA 投資 OpenAI 千億美元,攜手 Oracle 打造 AI 算力與資本的永續引擎

2025 年 9 月 28 日
展覽直擊

IBC 2025 現場直擊 – 從 8K 剪輯到 PB 級歸檔:QNAP 高速網路與儲存方案應對國際影視媒體產業資料洪流需求

2025 年 9 月 25 日
Qwen3 系列模型再升級,從頂尖程式碼能力到多模態 AI 的全面進化
新聞

Qwen3 系列模型再升級,從頂尖程式碼能力到多模態 AI 的全面進化

2025 年 9 月 24 日
下一篇
WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

QNAP NAS 導入 AI 自然語意智慧搜尋、RAG 多輪對話與智慧影像管理等重大更新

QNAP NAS 導入 AI 自然語意智慧搜尋、RAG 多輪對話與智慧影像管理等重大更新

推薦閱讀

ASML 為何豪擲千金投資法國 AI 新星 Mistral AI?

ASML 為何豪擲千金投資法國 AI 新星 Mistral AI?

2025 年 9 月 14 日
利用 QNAP NAS 搭配 NVIDIA GPU算力:部署輕量級 AI 推論應用

利用 QNAP NAS 搭配 NVIDIA GPU算力:部署輕量級 AI 推論應用

2025 年 7 月 26 日
2025台灣機器人與智慧自動化展揭示產業未來:NVIDIA引領 AI 浪潮,人形機器人、智慧製造與AI機器手臂成焦點

2025台灣機器人與智慧自動化展揭示產業未來:NVIDIA引領 AI 浪潮,人形機器人、智慧製造與AI機器手臂成焦點

2025 年 8 月 24 日

熱門文章

  • Salesloft Drift 整合漏洞災情擴大,多家企業的Salesforce 資料外流,科技大廠說明曝險範圍

    Salesloft Drift 整合漏洞災情擴大,多家企業的Salesforce 資料外流,科技大廠說明曝險範圍

    81 shares
    Share 32 Tweet 20
  • 在你的電腦與 NAS 上跑本地端 ChatGPT,OpenAI 釋出開源模型 gpt-oss

    38 shares
    Share 15 Tweet 10
  • 史上最薄 iPhone AIR 、iPhone 17 發表,搭載新 AI 功能,蘋果新品 AirPods Pro3、Apple Watch 11 亦高度整合 AI 功能

    28 shares
    Share 11 Tweet 7
  • Proxmox VE 9.0 正式發布,帶來多項重大更新與功能躍進

    27 shares
    Share 11 Tweet 7
  • 主要 AI 模型 API 價格比較 (2025年8月版)

    20 shares
    Share 8 Tweet 5

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

核心服務|企業儲存與網路架構|資安策略與防護|NAS 系統整合|AI 實務應用|資訊科技顧問

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。