CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
聯繫我們
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
  • 新聞
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
  • Docker
  • 進階應用
  • 網通
  • NAS
  • 開箱測試
  • 教學
  • 展覽直擊
首頁 新聞 AI 人工智慧

Mac 本機跑模型速度翻倍!Ollama 正式支援 MLX,釋放 Apple Silicon 潛能

Icewind by Icewind
2026 年 04 月 01 日 13:20
閱讀時間: 2 分鐘
A A
Mac 本機跑模型速度翻倍!Ollama 正式支援 MLX,釋放 Apple Silicon 潛能
3.7k
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

對於廣大的 Mac 開發者與本地端 AI 玩家來說,這可是近期很讓令人開心振奮的消息,知名開源本地 AI 執行工具 Ollama 近日在 X (原 Twitter) 上發布了一則熱門推文,宣佈在最新釋出的 Ollama 0.19 預覽版中,正式將 Apple 專屬的機器學習框架 MLX 納入底層支援。

RELATED POSTS

TIOBE 程式語言排行榜解析:Python 穩居王座、Java 探底,AI 時代下的技術版圖洗牌

WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末

無可取代的科技氣體:解析 2026 氦氣危機與半導體供應鏈的關鍵問題

Ollama is now updated to run the fastest on Apple silicon, powered by MLX, Apple's machine learning framework.

This change unlocks much faster performance to accelerate demanding work on macOS:

– Personal assistants like OpenClaw
– Coding agents like Claude Code, OpenCode,… pic.twitter.com/WImO0lyYnp

— ollama (@ollama) March 31, 2026

這項底層架構的重大革新,意味著 Mac 終於能徹底解除封印,發揮 Apple Silicon統一記憶體(Unified Memory)的極致優勢。究竟這次升級帶來了怎樣的效能躍進呢? CyberQ 解析這些核心的重點。

支援 MLX 讓 M5 晶片的神經加速器大顯神威

過去,在 Mac 上執行大語言模型(LLM)多半仰賴 llama.cpp 等泛用框架,雖然相容性極佳,但在面對 Mac 獨特的硬體架構時,往往難以榨乾 100% 的效能。

為了解決這個問題,Ollama 0.19 預覽版直接建構於 Apple 開源的 MLX 框架之上。這讓 CPU 與 GPU 得以實現零拷貝共享同一塊記憶體池,徹底消除資料傳輸的延遲。更驚人的是,在最新的 M5、M5 Pro 與 M5 Max 晶片上,Ollama 能直接調用全新的GPU 神經網路加速器(Neural Accelerators),讓首字元生成(TTFT)與解碼速度獲得有體感的加速。

實測資料公開,解碼速度近乎翻倍!

效能到底提升了多少?官方以阿里巴巴最新開源的 Qwen3.5-35B-A3B 模型進行了嚴格的基準測試(對比 0.18 版與 0.19 MLX 預覽版):

預填充(Prefill / 提示詞處理速度),從 1,154 tokens/s 狂飆至 1,810 tokens/s(提升約 1.56 倍)。

解碼(Decode / 內容生成速度),從 58 tokens/s 躍升至 112 tokens/s(提升高達 93%,幾乎翻倍!)。

官方更預告,若改用 int4 精度量化,預填充速度甚至可上看 1,851 tokens/s,解碼速度達 134 tokens/s。這樣的表現,讓過去需要稍微等待模型思考的空窗期幾乎被抹平,真正實現了隨問隨答的體驗。

導入 NVFP4 格式與專為 AI Agent 打造的智慧快取

除了速度提升,這次更新還帶來了針對進階開發者與自動化代理(Agentic Workflows)的深度最佳化:

支援 NVIDIA NVFP4 量化格式是一大好處,Ollama 導入了 NVFP4 格式支援,能在極限壓縮記憶體頻寬與儲存空間的同時,維持與未壓縮前幾乎無異的模型準確度。這代表開發者在本地 Mac 上,就能獲得與雲端企業級生產環境對齊的輸出品質。

升級版智慧快取(Intelligent Caching),不少用戶常結合 Claude Code、OpenCode 或個人助理 OpenClaw 執行複雜的自動化任務。Ollama 為此徹底最佳化了記憶體管理:

跨對話快取重用(Reuse Cache),當使用共用的系統提示詞(System Prompts)時,能大幅提高快取命中率並降低整體記憶體佔用。

智慧檢查點(Intelligent checkpoints),在 Prompt 的關鍵節點自動儲存快照,當 Agent 進行思考任務分支時,可省去重複處理提詞的時間。

更聰明的清除機制(Smarter eviction),即使舊的對話分支被刪除,共用的上下文前綴也能保留更久,非常適合長時間的寫程式輔助。

硬體門檻與社群實測建議(32GB 記憶體起跳)

雖然這次更新很香,但是呢,要享受良好的本地 AI 體驗也是有硬體門檻的。

Ollama 官方強烈建議:您的 Mac 必須具備至少32GB 以上的統一記憶體。根據 Reddit (r/LocalLLaMA) 科技社群玩家的早期實測,35B 級別的模型載入後大約會吃掉 20GB 的 RAM,剩下約 12GB 留給 KV Cache 運作。

如果你只是進行一般長度的專案對話,32GB 綽綽有餘,但若要處理超長文本,或把 Ollama 作為複雜 Agent 框架的後端,很容易就會觸碰到記憶體天花板並動用到虛擬記憶體(Swap)導致降速。因此,對於重度 AI 開發者來說,配備 48GB 甚至 64GB 記憶體的機型將會是更游刃有餘的完美選擇。

即刻搶先體驗本地 AI 革命

CyberQ 認為,Ollama + Apple MLX ,造福更多本地端 AI 生態系的用戶,繼續讓 Mac 能擔任 AI 開發者設備的好選擇。現在,你只需靠一台高階 Mac,就能擁有媲美雲端 AI 的生成速度,且完全不需擔心商業機密或隱私外洩的風險。

如果你手邊正好有一台規格達標的 Apple Silicon Mac,別猶豫了!立刻下載最新的 Ollama 0.19 預覽版,打開終端機輸入以下指令啟動專為寫程式優化的 35B 模型並與之對話,或搭配 Claude Code 等工具於背景啟動:

ollama run qwen3.5:35b-a3b-coding-nvfp4

ollama launch claude –model qwen3.5:35b-a3b-coding-nvfp4

如果對現有自己在 Mac 上跑本地模型覺得不夠快,可以去更新看看 Ollama,這次搭配 MLX 帶來的本地 AI 是有進步的了。

vLLM-Omni 推出,開源 AI 推論引擎新生態與 Ollama 的定位之爭
你們家的 AI 伺服器在網路上裸奔嗎 ? Cisco 揭露上千台 Ollama LLM 設備曝險門戶洞開
在 QNAP NAS 上使用 OLLAMA 執行 AI 模型基礎教學
ComfyUI v0.15.0 原生整合 Gemma 3、重構 LTX-Video,引領全模態混合工作流
標籤: AIAppleApple MLX frameworkM5OLLAMA
Share44Tweet28ShareShareShare8
上一篇

Oracle 預計裁員3萬人 豪賭 AI 基礎建設

下一篇

OpenAI 狂募 1,220 億美元!估值破 8,520 億美元,宣告 AI 超級 App 戰略

Icewind

Icewind

歷經數位內容、電商、資安、AI 與科技產業,擁有多年產業經驗,ISO 27001:2022 LA、ISO 27701:2019 LA。

相關文章

TIOBE 程式語言排行榜解析:Python 穩居王座、Java 探底,AI 時代下的技術版圖洗牌
新聞

TIOBE 程式語言排行榜解析:Python 穩居王座、Java 探底,AI 時代下的技術版圖洗牌

2026 年 4 月 11 日
WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末
新聞

WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末

2026 年 4 月 11 日
WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末
新聞

無可取代的科技氣體:解析 2026 氦氣危機與半導體供應鏈的關鍵問題

2026 年 4 月 11 日
claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察
AI 人工智慧

claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

2026 年 4 月 10 日
受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略
AI 人工智慧

受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略

2026 年 4 月 10 日
Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?
新聞

Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?

2026 年 4 月 10 日
下一篇
OpenAI 狂募 1,220 億美元!估值破 8,520 億美元,宣告 AI 超級 App 戰略

OpenAI 狂募 1,220 億美元!估值破 8,520 億美元,宣告 AI 超級 App 戰略

測試純 HDD ZFS 的效能極限,Toshiba 1.44 PB 高密度儲存實測報告解析

測試純 HDD ZFS 的效能極限,Toshiba 1.44 PB 高密度儲存實測報告解析

推薦閱讀

TIOBE 程式語言排行榜解析:Python 穩居王座、Java 探底,AI 時代下的技術版圖洗牌

TIOBE 程式語言排行榜解析:Python 穩居王座、Java 探底,AI 時代下的技術版圖洗牌

2026 年 4 月 11 日
WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末

WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末

2026 年 4 月 11 日
WireGuard Windows 用戶端新版革新了底層架構與微軟憑證風波始末

無可取代的科技氣體:解析 2026 氦氣危機與半導體供應鏈的關鍵問題

2026 年 4 月 11 日
知名硬體監控工具 CPUID 網站遭駭:HWMonitor 與 CPU-Z 下載連結遭替換為惡意軟體

知名硬體監控工具 CPUID 網站遭駭:HWMonitor 與 CPU-Z 下載連結遭替換為惡意軟體

2026 年 4 月 10 日
claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

2026 年 4 月 10 日

近期熱門

  • 解放 Gemma 4 31B 潛力!破解版地端 AI 無審查模型 CRACK 解析與部署實作建議

    解放 Gemma 4 31B 潛力!破解版地端 AI 無審查模型 CRACK 解析與部署實作建議

    442 shares
    Share 177 Tweet 111
  • 榨乾 16GB VRAM!算力與應用完美分離的個人 AI 工作站建置教學

    517 shares
    Share 207 Tweet 129
  • 台灣動畫導演靠 AI 與五千元硬體神省救回 90TB ZFS 磁碟陣列

    268 shares
    Share 107 Tweet 67
  • 擺脫分頁焦慮!打造完全掌握資料自主權的個人知識庫,Wallabag + Obsidian + QNAP NAS 實作教學

    226 shares
    Share 90 Tweet 57
  • 利用 OpenCode 搭配 DGX Spark 與 QNAP NAS 打造企業級私有化 AI 開發大腦

    218 shares
    Share 87 Tweet 55
  • Mac Apple Silicon 專屬的本地 AI 選型與採購指南

    187 shares
    Share 75 Tweet 47
  • Docker 29.4.0 提升映像檔傳輸效能,並修正容器無法刪除的舊問題

    172 shares
    Share 69 Tweet 43
  • GitHub 趨勢週報2 Vol.9:邊緣運算升溫,把 LLM 塞進你的手機

    172 shares
    Share 69 Tweet 43
  • 揮別盲目的背景連線:macOS 知名網路監控工具 Little Snitch 正式登陸 Linux

    169 shares
    Share 68 Tweet 42
  • 受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略

    166 shares
    Share 66 Tweet 42

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:[email protected]
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:[email protected]

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客 NAS 系統與電腦、手機一起的生活故事 多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。