CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 基礎教學
  • Docker / 容器
  • 資安專區
  • AI 應用實戰
  • 進階應用
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
首頁 新聞

上帝不擲骰子,但 AI 會?Thinking Machines Lab 解密 LLM 推理不確定性的真正根源

Ashley Hsieh by Ashley Hsieh
2025 年 9 月 17 日
Reading Time: 2 mins read
A A
上帝不擲骰子,但 AI 會?Thinking Machines Lab 解密 LLM 推理不確定性的真正根源
9
分享數
173
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

在人工智慧(AI)領域,開發者與研究人員普遍面臨一個挑戰,也就是即使我們給予完全相同的提詞(Prompt),大型語言模型(LLM) 在不同時間點也可能生成相異的結果。這種現象不僅妨礙了科學研究的再現性,也對需要高度穩定性的應用場景構成阻礙。

RELATED POSTS

AI 正在扼殺開放網路的靈魂?Cloudflare CEO 警告:我們正走向《黑鏡》般的反烏托邦未來

Google Gemini 整合 Chrome,迎戰微軟 Copilot 陣營

Cloudflare 進軍電子郵件服務,推出整合 Workers 的全新 Email Service

過往,LLM 的「不確定性」(Nondeterminism)學界普遍將此問題歸咎於「平行運算與浮點數的結合假說」(Concurrency + Floating Point Hypothesis)。該假說的核心在於,多 GPU 環境下的「平行運算」與電腦的「浮點數運算」這兩個特性結合後產生的放大效應。

在語言模型反覆無常的回答背後,科學家解密了令人意外的決定性因素,推翻過去對 AI 隨機性的常識。

首先,電腦在處理小數(即浮點數)時天生存在著微小的精確度限制,這導致了運算的「非結合性」,也就是(a + b) + c ≠ a + (b + c)。其次,在平行運算中,任務被分配給成千上萬個核心同時處理,但我們無法預測哪個核心會先完成。

AI 是否真的在擲骰子?究竟是怎麼回事 ?

雖說在量子力學領域,上帝真的會擲骰子,但 AI 呢? 若簡單地解釋,這就好像一個有千名廚師的巨型廚房,每位廚師都負責一部分的食材,你無法保證每一次,都是負責番茄的A廚師,比負責馬鈴薯的B廚師,早0.01秒把食材丟進鍋裡。雖然他們都完成了任務,但食材被加入湯中的「順序」,每一次都可能有些微的、不可預測的隨機變化。這就是「平行運算」帶來的隨機性。

當這兩個因素結合,運算順序的隨機性,觸發了浮點數的非結合性。最終,即使配方與食材完全相同,每次烹煮出的湯品風味(運算結果),都可能產生微乎其微的差異。

然而,由前 OpenAI 技術長 Mira Murati 所創立的 AI 研究機構「Thinking Machines Lab」近期發表了首篇研究文章《Defeating Nondeterminism in LLM Inference》,徹底顛覆了這個傳統觀點。

不確定性的真正元兇:批次大小(Batch Size)的變異

Thinking Machines Lab 的研究團隊指出,儘管浮點數運算問題確實存在,但它並非 LLM 推理不確定性的主要原因。他們透過實驗與分析發現,問題的核心在於「批次處理的非不變性」(Lack of Batch Invariance)

在實際應用中,LLM 推理伺服器(如vLLM)會根據當下的系統負載,動態調整傳入模型的批次大小,例如,在流量高峰期,伺服器可能會將多個使用者的請求合併成一個大批次進行處理;而在離峰時段,則可能以較小的批次運作。這就好像伺服器是個電梯系統,而 AI 是位住在100層樓的大師,大家都想搭電梯上去問大師問題,離峰時段時,電梯一次只載一個人 ( 這就是小批次,Batch Size = 1 ),尖峰時段時,為了效率就會盡量把電梯塞滿人再出發 (以這個案例來說就是大批次,Batch Size = 8),研究人員發現,現行許多核心的運算(Kernels),其計算結果會受到批次大小的影響。

就好像當電梯一次只載一個人時,都能夠很順暢地快速直達 101 層樓,當電梯一次載8個人時,因為重量和平衡的關係,電梯會產生微小的晃動,走的路線甚至有點偏移。換言之,一個批次大小為 8 的運算結果,與 8 個批次大小為 1 的運算結果,在數值上會存在細微差異。正是這種因伺服器負載而隨機變動的批次大小,構成了 LLM 輸出不確定性的主要來源。

實現「批次不變性」:邁向可再現的 AI

為了驗證此論點並解決問題,Thinking Machines Lab 開發了一套「批次不變性」的核心運算函式庫,包含對 RMSNorm、矩陣乘法(Matmul)及注意力機制(Attention)等關鍵操作的修改。

團隊以目前業界流行的中國通義千問 Qwen3-8B AI 模型進行測試,實驗結果驚人,他們在標準設定下,將溫度係數(Temperature)設為 0,並對同一提示重複執行 1,000次,竟產生了 80 種不同的輸出。然而,在換上他們開發的「批次不變性」核心後,1,000 次的執行結果完全一致。

(Figure Credit: Thinking Machines Lab,在 DeepSeek 3.1 溫度係數設定為 0的 情形。 )

這項成果證實了,只要能確保運算過程不受批次大小變化的干擾,LLM 的推理過程就能實現完全的確定性與可再現性。當然,這項創舉也伴隨著代價。目前,實現「批次不變性」的運算核心,其執行速度較標準版本慢。不過,研究團隊已透過對注意力機制的最佳化,成功縮小了效能差距。

Thinking Machines Lab 認為,對於追求科學嚴謹性、模型安全性驗證以及程式除錯等領域而言,犧牲部分效能以換取結果的完全可再現性,是絕對值得的。他們也期望,這項研究能啟發未來AI推理引擎的設計方向,讓「確定性」成為與「速度」同等重要的考量指標。

這篇開創性的研究,不僅為解決 LLM 長久以來的隨機性問題提供了清晰的路徑,也為 AI 領域的科學化與工程化奠定了更穩固的基礎。

本文首圖由 本地端 LLM 生成,配圖為 Google Gemini AI 生成

標籤: AILLMThinking Machines Lab
Share4Tweet2ShareShareShare1
上一篇

OpenAI GPT‑5‑Codex 登場,更融進工程師日常,開發者怎麼看?

下一篇

WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計,在上市歐洲外商、生醫、金融、科技產業中淬煉直觀好用的產品體驗。曾參與過多個跨平台專案,從需求分析、流程設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章文章

AI 正在扼殺開放網路的靈魂?Cloudflare CEO 警告:我們正走向《黑鏡》般的反烏托邦未來
新聞

AI 正在扼殺開放網路的靈魂?Cloudflare CEO 警告:我們正走向《黑鏡》般的反烏托邦未來

2025 年 9 月 30 日
Google Gemini 整合 Chrome,迎戰微軟 Copilot 陣營
新聞

Google Gemini 整合 Chrome,迎戰微軟 Copilot 陣營

2025 年 9 月 29 日
Cloudflare 進軍電子郵件服務,推出整合 Workers 的全新 Email Service
新聞

Cloudflare 進軍電子郵件服務,推出整合 Workers 的全新 Email Service

2025 年 9 月 29 日
NVIDIA 投資 OpenAI 千億美元,攜手 Oracle 打造 AI 算力與資本的永續引擎
新聞

NVIDIA 投資 OpenAI 千億美元,攜手 Oracle 打造 AI 算力與資本的永續引擎

2025 年 9 月 28 日
展覽直擊

IBC 2025 現場直擊 – 從 8K 剪輯到 PB 級歸檔:QNAP 高速網路與儲存方案應對國際影視媒體產業資料洪流需求

2025 年 9 月 25 日
Qwen3 系列模型再升級,從頂尖程式碼能力到多模態 AI 的全面進化
新聞

Qwen3 系列模型再升級,從頂尖程式碼能力到多模態 AI 的全面進化

2025 年 9 月 24 日
下一篇
WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

WD 開第一槍!AI 資料中心需求引爆硬碟漲價潮,衝擊 NAS 與企業儲存成本

QNAP NAS 導入 AI 自然語意智慧搜尋、RAG 多輪對話與智慧影像管理等重大更新

QNAP NAS 導入 AI 自然語意智慧搜尋、RAG 多輪對話與智慧影像管理等重大更新

推薦閱讀

零時差漏洞警報:TP-Link 路由器存在嚴重 CWMP 堆疊溢位漏洞,恐導致遠端程式碼執行

零時差漏洞警報:TP-Link 路由器存在嚴重 CWMP 堆疊溢位漏洞,恐導致遠端程式碼執行

2025 年 9 月 8 日
主要 AI 模型 API 價格比較 (2025年8月版)

主要 AI 模型 API 價格比較 (2025年8月版)

2025 年 8 月 8 日
AI 機器人開發至關重要的 NVIDIA 開源模擬平台 Isaac Sim

AI 機器人開發至關重要的 NVIDIA 開源模擬平台 Isaac Sim

2025 年 8 月 29 日

熱門文章

  • Salesloft Drift 整合漏洞災情擴大,多家企業的Salesforce 資料外流,科技大廠說明曝險範圍

    Salesloft Drift 整合漏洞災情擴大,多家企業的Salesforce 資料外流,科技大廠說明曝險範圍

    81 shares
    Share 32 Tweet 20
  • 在你的電腦與 NAS 上跑本地端 ChatGPT,OpenAI 釋出開源模型 gpt-oss

    38 shares
    Share 15 Tweet 10
  • 史上最薄 iPhone AIR 、iPhone 17 發表,搭載新 AI 功能,蘋果新品 AirPods Pro3、Apple Watch 11 亦高度整合 AI 功能

    28 shares
    Share 11 Tweet 7
  • Proxmox VE 9.0 正式發布,帶來多項重大更新與功能躍進

    27 shares
    Share 11 Tweet 7
  • 主要 AI 模型 API 價格比較 (2025年8月版)

    20 shares
    Share 8 Tweet 5

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

核心服務|企業儲存與網路架構|資安策略與防護|NAS 系統整合|AI 實務應用|資訊科技顧問

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
  • 基礎教學
    • NAS 基礎設定
  • Docker / 容器
    • 虛擬化
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。