CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
聯繫我們
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
  • 新聞
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
  • Docker
  • 進階應用
  • 網通
  • NAS
  • 開箱測試
  • 教學
  • 展覽直擊
首頁 新聞 AI 人工智慧

在你的電腦與 NAS 上跑本地端 ChatGPT,OpenAI 釋出開源模型 gpt-oss

Icewind by Icewind
2025 年 08 月 06 日 08:00
閱讀時間: 5 分鐘
A A
在你的電腦與 NAS 上跑本地端 ChatGPT,OpenAI 釋出開源模型 gpt-oss
2.4k
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

OpenAI 終於在 2025 年 8 月釋出首個以 ChatGPT 架構為基礎、可供本地端部署的開源模型 gpt-oss,分成gpt-oss-20b 與 gpt-oss-120b兩個不同參數的版本,前者因為比較小,可以在有 16GB 以上VRAM記憶體顯示卡的電腦執行,或者是統一記憶體容量夠的電腦執行 (NVIDIA新款AI電腦、蘋果 Mx 系列筆電),為 AI 社群投下一顆震撼彈。

RELATED POSTS

ds4 實作指引,128GB 記憶體機器搭配 NAS + Ollama 建立可落地的地端推論工作流

透過 AI Skills 最佳化公文與論文流程

GitHub 趨勢周報 Vol.14,DeepSeek V4 Flash 適合本地端,Caveman 生態補上 AI Agent 的記憶與規格化流程

根據 OpenAI 的說法,這兩個模型都採用彈性的 Apache 2.0 授權條款發佈,在推理任務上的表現優於同規模的開源模型,具備強大的工具使用能力,並針對消費級硬體上的高效部署進行了最佳化。它們採用強化學習與結合 OpenAI 最先進內部模型 (包括 o3 及其他尖端系統) 所啟發的技術進行訓練。

OpenAI 還說,gpt-oss-120b 模型在核心推理基準測試中的表現趨近 OpenAI o4-mini,同時可在單一 80GB GPU 上高效運作。gpt-oss-20b 模型在常見基準測試中的表現與 OpenAI o3‑mini 相近,且僅需 16 GB VRAM顯卡記憶體,即可在邊緣裝置上執行,非常適合用於裝置端應用、本地推論,或在無需昂貴基礎設施的情況下進行快速最佳化。(最少要有 16GB 的 NVIDIA 顯示卡,不然會很慢)

上圖是 CyberQ 測試 cpt-gss-20b 在本地端電腦上執行時的資源耗用截圖,GPU 記憶體和運算當然是吃滿的。

另外,這兩款模型在工具使用、少量示範函式調用、思路鏈推理 (可見於 Tau-Bench 智慧體評估套件的結果)以及 HealthBench 測試中表現優異,甚至超越 OpenAI o1 和 GPT‑4o 等部分專有模型 。

gpt-oss-20b 與 gpt-oss-120b

這次開源共包含兩個版本的模型:

模型圖層總參數量每個字元啟動參數數量專家總數每個字元啟動的專家數量上下文長度
gpt-oss-120b36117b5.1b1284128K
gpt-oss-20b2421b3.6b324128K

gpt-oss-120b:總參數1170億,每個token預設啟用約51億參數參與推理。定位為高推理需求的生產型應用,可在單張80GB VRAM 的 H100 GPU上運作。

gpt-oss-20b:總參數210億,每個token啟用36億參數,主打低延遲與本地部署場景,僅需 16GB VRAM 記憶體的顯示卡即可執行,適合邊緣設備或客製化應用。

實際執行 gpt-oss-20b 的效果

我們部署在我們自己電腦上的 OLLAMA 搭配 Open WebUI 中去執行,效果確實不錯,也能製作表格和更多衍生任務。

gpt-oss 的離線版 ChatGPT 模型是採用 Apache 2.0授權,這樣對開發者和社群都是很友善的,允許我們能自由進行研究、修改與商業部署,不用擔心專利風險或copyleft 條款的限制。

gpt-oss 其他主要的功能特點還包含:

針對程式碼任務,可支援函式呼叫、Python程式碼執行、網頁查詢與結構化輸出。

提供完整CoT(思維鏈)推理紀錄,這點是很不錯的。

訓練時導入MXFP4原生量化技術,強化運算效率。

推理資源配置彈性,開發者可依需求去設定高、中、低等級來進行。

下方是我們在 Open WebUI 中管理 Ollama 的模型頁面,下指令 ollama run gpt-oss:20b,用管理模型頁的下載功能去下載 gpt-oss-20b 模型,它的名稱為 gpt-oss:20b。如果是更大版本的模型,名稱為 gpt-oss:120b 。

檔案不大,12.8GB而已,很快就下載完畢。

完成之後會顯示已成功下載。

開啟之後的畫面是這樣,和其他在 Ollama 跑模型的輸入框都是一樣的。

有搭配 NVIDIA 顯示卡後,執行的效率就很快了,問題的回答與反應都很好,以這個 20b 參數的小模型來說,接近之前我們在線上 ChatGPT 官方網站跑 OpenAI o3‑mini 的效果接近,然後實際應用當然是沒有官方最新版的大模型好用,但是呀,這可是開源模型可以在本地端跑的,可以再訓練自己的資料集,以及針對不同任務下,我們去自訂,開發人員和研究人員可以在自己的環境中客製化 AI ,推動新的 AI 工作流程。

對個人來說,日常的問題在不耗費雲端付費 token 的情況下,可以用這個模型來完成一些不需要太深入推論的日常任務,已經是相當好用了,推薦大家部署在具備 NVIDIA顯示卡的機器上,記憶體越多越好,不論是機房內的伺服器、有安裝 NVIDIA 顯示卡的 QNAP NAS (如QAI-h1290FX NAS),以及家用電腦和工作站都很適合。

資源夠多的機構就可以使用 120b 參數的模型 gpt-oss-120b ,gpt-oss-120b 在競賽編碼 (Codeforces)、一般問題解決 (MMLU 與 HLE) 以及工具調用 (TauBench) 方面的表現優於 OpenAI o3‑mini,並與 OpenAI o4-mini 相當或更佳。此外,它在健康相關查詢 (HealthBench⁠) 及競賽數學 (AIME 2024 與 2025) 上的表現更勝 o4-mini。gpt-oss-20b 雖然規模較小,但在相同測試中與 OpenAI o3‑mini 相當或更佳,甚至在競賽數學與健康領域的表現上超越了 o3‑mini。

功能多樣,支援網頁搜尋與繼續跟進

實務上使用,在 gpt-oss 模型上,同樣可以自動產生跟進的問題和往下延伸。

而只要有先設定好搜尋引擎的 key ,就可以如下方圖片所示,支援網頁搜尋,請先自己去 Google 等搜尋引擎設定好客製化的搜尋引擎 api key ,再把 key 導入於 web-ui 與 ollama 中使用即可,這樣可讓 cht-oss 本地端小模型的能力增加,透過搜尋來強化基本日常任務的處理能力。

私密資料不外流,進階還能處理程式碼、用語音問問題

支援語音搜尋,這樣你在家裡或公司都可以用口說的方式問問題,讓 gpt-oss 回答你。

以在家或辦公室內透過手機來問問題的應用場景來說就很適合。

手機版網頁的界面和跟進問問題的 UI 與回應是友善的 :

而程式碼的編寫與直譯,在 gtp-oss 進行不要太複雜的小型專案,也可以達到可用的程度,但不如 Claude.ai 的程式撰寫功能強大,你可以把它當作一些程式碼在本地端的輔助撰寫工作,困難的問題再拿去給 Claude.ai 去展開也是可行的方式。

以上諸多任務中,使用本地端 LLM 在企業與家中最大的好處是,你所有覺得有個人隱私、公司商業機密的內容,都可以在本地端的電腦或伺服器、NAS 上實現,而不用擔心資料外流的問題,真的有需要上雲處理的,就記得要去識別化個人資訊,避免之前新聞報導過的 ChatGPT 雲端對話紀錄被分享公開、可搜尋到的資安議題。

部署和執行本地端 AI 模型,可以參考我們的方式,使用 gpt-oss 與其它包括微軟 phi4、Google gemma3 等高品質可在地端執行的 LLM 模型,提升你的生產力和個人學習、資料整理等多種日常任務的工作。

相關資源 :

gpt-oss Github 頁面

Hugging Face 頁面 : 20b 版本 / 120b 版本

OpenAI ChatGPT 官方提供的試用連結

OpenAI提供的測試報告 PDF

本文最上方的標題特色圖片,由 AI 所產生。

在 QNAP NAS 上使用 OLLAMA 運行 AI 模型基礎教學
GPT-5 全新登場──AI 的智慧美學與安全升級
標籤: AIChatGPTgpt-ossOpenAI
Share28Tweet18ShareShareShare5
上一篇

Proxmox VE 9.0 正式發布,帶來多項重大更新與功能躍進

下一篇

Claude Opus 4.1 登場,程式開發再上一層樓,Anthropic 預告近日將再推更強大 AI 模型

Icewind

Icewind

歷經數位內容、電商、資安、AI 與科技產業,擁有多年產業經驗,ISO 27001:2022 LA、ISO 27701:2019 LA。

相關文章

ds4 實作指引,128GB 記憶體機器搭配 NAS + Ollama 建立可落地的地端推論工作流
AI 代理

ds4 實作指引,128GB 記憶體機器搭配 NAS + Ollama 建立可落地的地端推論工作流

2026 年 5 月 15 日
透過 AI Skills 最佳化公文與論文流程
AI 人工智慧

透過 AI Skills 最佳化公文與論文流程

2026 年 5 月 15 日
GitHub 趨勢周報 Vol.14,DeepSeek V4 Flash 適合本地端,Caveman 生態補上 AI Agent 的記憶與規格化流程
AI 人工智慧

GitHub 趨勢周報 Vol.14,DeepSeek V4 Flash 適合本地端,Caveman 生態補上 AI Agent 的記憶與規格化流程

2026 年 5 月 12 日
Twinkle Hub 將台灣公開資料轉為 AI 專用 MCP
AI 人工智慧

Twinkle Hub 將台灣公開資料轉為 AI 專用 MCP

2026 年 5 月 12 日
Caveman 幫 AI 開發者暴力省下 75% Token 成本
AI 人工智慧

Caveman 幫 AI 開發者暴力省下 75% Token 成本

2026 年 5 月 11 日
人類對邪惡 AI 的想像,可能正在反過來影響 AI 黑化
AI 人工智慧

人類對邪惡 AI 的想像,可能正在反過來影響 AI 黑化

2026 年 5 月 11 日
下一篇
Claude Opus 4.1 登場,程式開發再上一層樓,Anthropic 預告近日將再推更強大 AI 模型

Claude Opus 4.1 登場,程式開發再上一層樓,Anthropic 預告近日將再推更強大 AI 模型

Qwen Image AI 圖像模型效果佳,本地端 AI 算圖新選擇

Qwen Image AI 圖像模型效果佳,本地端 AI 算圖新選擇

推薦閱讀

Pwn2Own Berlin 2026 戰況 DEVCORE領先與大廠防護焦點

Pwn2Own Berlin 2026 戰況 DEVCORE領先與大廠防護焦點

2026 年 5 月 16 日
ds4 實作指引,128GB 記憶體機器搭配 NAS + Ollama 建立可落地的地端推論工作流

ds4 實作指引,128GB 記憶體機器搭配 NAS + Ollama 建立可落地的地端推論工作流

2026 年 5 月 15 日
透過 AI Skills 最佳化公文與論文流程

透過 AI Skills 最佳化公文與論文流程

2026 年 5 月 15 日
ComfyUI v0.21.0 釋出更新:DynamicVRAM、PyAV 載入改造與本地 AI 工作流實測

ComfyUI v0.21.0 釋出更新:DynamicVRAM、PyAV 載入改造與本地 AI 工作流實測

2026 年 5 月 14 日
GitHub資安專案 YellowKey 點出 Windows BitLocker 信任機制風險

GitHub資安專案 YellowKey 點出 Windows BitLocker 信任機制風險

2026 年 5 月 13 日

近期熱門

  • Bun 真的要從 Zig 改寫成 Rust 嗎?AI 輔助重構進入系統軟體核心的壓力測試

    Bun 真的要從 Zig 改寫成 Rust 嗎?AI 輔助重構進入系統軟體核心的壓力測試

    347 shares
    Share 139 Tweet 87
  • AI 攻克博士級數學難題?菲爾茲獎得主 Timothy Gowers 與 ChatGPT 5.5 Pro 的震撼接觸

    254 shares
    Share 102 Tweet 64
  • Windows 11 KB5089549 五月安全更新上線:Secure Boot 憑證換軌、BitLocker 風險收斂與 Xbox Mode 登場

    195 shares
    Share 78 Tweet 49
  • GitHub 趨勢周報 Vol.14,DeepSeek V4 Flash 適合本地端,Caveman 生態補上 AI Agent 的記憶與規格化流程

    191 shares
    Share 76 Tweet 48
  • ds4 實作指引,128GB 記憶體機器搭配 NAS + Ollama 建立可落地的地端推論工作流

    161 shares
    Share 64 Tweet 40
  • 醫美攝影機偷拍案延燒,商業場域 CCTV 應檢討資安權限控管與合規存取安全

    240 shares
    Share 96 Tweet 60
  • Gemini API File Search 升級多模態 RAG,企業 NAS 正走向 AI 知識中樞

    144 shares
    Share 58 Tweet 36
  • PHP 8.5.6 與 8.4.21 正式發布:多項 CVE 漏洞修復與 JIT 引擎除錯

    236 shares
    Share 94 Tweet 59
  • 透過 AI Skills 最佳化公文與論文流程

    139 shares
    Share 56 Tweet 35
  • 人類對邪惡 AI 的想像,可能正在反過來影響 AI 黑化

    133 shares
    Share 53 Tweet 33

關於 CyberQ 賽博客

CyberQ 賽博客網站的命名正是 Cyber + Q ,是賽博網路、資訊、共識 / 高可用叢集、量子科技與品質的綜合體。

我們專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務。透過以下三大面向的「Q」核心元素,我們為您提供從基礎架構到資料智慧的雙引擎驅動力:

Quorum 與 Quantum-safe

在技術架構上,是基於信任的基礎架構,CyberQ 深入掌握分散式系統中的 Quorum(一致性)、Queue(任務調度) 與 QoS(服務品質),以 Quick(效率) 解決複雜的 IT 與資安問題。同時,我們積極投入 Quantum-safe(後量子密碼學) 等新興資安領域,確保企業基礎設施在未來運算時代具備堅不可摧的長期競爭力。

Query 與 Quotient

CyberQ 是協助企業成長的 AI 引擎,在堅韌的架構之上,我們透過 Query(洞察) 解析大量資料,並以 Quotient(提升企業科技智商) 的顧問服務,將 AI 導入本機端環境與自動化工作流程中,將資料轉化為企業最具價值的數位資產。

Quest與 Quantum Leap

專業媒體與技術顧問是我們的核心雙動能。

作為科技媒體,我們秉持駭客精神持續進行科技 Quest(探索),探索海內外產業動態。

作為顧問團隊,我們結合多年第一線實務經驗,提供量身打造的最佳化解決方案,協助企業完成數位轉型的 Quantum Leap(躍進)。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:[email protected]
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:[email protected]

Copyright ©2026 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客 NAS 系統與電腦、手機一起的生活故事 多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。