CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
聯繫我們
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
  • 新聞
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
  • Docker
  • 進階應用
  • 網通
  • NAS
  • 開箱測試
  • 教學
  • 展覽直擊
首頁 進階應用 AI 應用實戰

在 QNAP NAS 上使用 OLLAMA 執行 AI 模型基礎教學

Chen Glenn by Chen Glenn
2025 年 07 月 31 日 08:00
閱讀時間: 3 分鐘
A A
在 QNAP NAS 上使用 OLLAMA 執行 AI 模型基礎教學
527
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

使用 OLLMA 在電腦端 (Windows 、Linux 與 Mac) ,和在 QNAP NAS 上使用 OLLAMA 執行 AI 模型是差不多的,本篇教學以 NAS 系統為主來實作。

RELATED POSTS

2026 全球備份日:有備份不等於能還原,如何應對 AI 合規與勒索軟體雙重威脅

告別 SSL 憑證過期焦慮!myQNAPcloud 與 QTS SSL 新版升級打造零中斷安全連線

企業級儲存與運算節點的美好平衡 – QNAP TS-673A 開箱實測

隨著人工智慧技術的發展,越來越多的應用程式需要 AI 模型的支援。QNAP NAS 不僅是強大的儲存裝置,其內建的容器功能(Container Station)也能讓我們輕鬆部署各種應用程式,包含時下熱門的多種 AI 模型服務。接下來我們將告訴你,如何在 QNAP NAS 上使用 Container Station 部署 OLLAMA,這是一個輕量級的 AI 模型執行環境,讓我們能在自己的 NAS 上體驗 AI 模型帶來的各種便利,以及最主要就是省錢以及避免部分敏感資料外洩,有些簡單的問題和日常的問題可以透過本地端 NAS 的 AI 模型來執行獲得結果,有需要更詳細的資料和更複雜的任務,再去企業購買的雲端 AI 大模型平台去完成。

OLLAMA 簡介

OLLAMA 是一個專為在個人裝置上執行大型語言模型 (LLMs) 而設計的開源工具。它提供了一個簡潔的介面,讓使用者可以輕鬆地下載、安裝和執行各種預訓練的 AI 模型,例如 Llama 2、Mistral 等。透過 OLLAMA,即使沒有強大的雲端算力,也能在本地環境中進行 AI 模型推理。

準備工作

在開始部署之前,請確保我們的 QNAP NAS 滿足以下條件:

型號支援: 我們的 QNAP NAS 必須支援 Container Station 功能。大多數較新的 Intel 或 AMD 處理器型號都支援。請參考 QNAP 官方網站確認我們的 NAS 型號是否支援。 系統版本: 確保我們的 QTS/QuTS hero 作業系統已更新到最新版本。 記憶體 (RAM): 建議至少 8GB RAM,若要執行較大的模型,建議 16GB 或以上。 儲存空間: 依據我們想下載的 AI 模型大小,需要預留足夠的儲存空間。 Container Station: 確保已在 App Center 中安裝並啟用了 Container Station。

部署步驟

  1. 啟用 SSH 並登入

為了方便後續操作,建議先啟用 NAS 的 SSH 功能,必要操作結束後,大家要記得再將 SSH 功能關閉以策安全喔:

登入 QNAP NAS 的管理介面。 前往 控制台 > 網路 & 檔案服務 > Telnet/SSH。 勾選 允許 SSH 連線,並記下 SSH 埠號 (預設為 22)。 使用 SSH 用戶端工具,以 Windows 來說,最簡單的話用終端機這個工具即可,連接到我們的 NAS。輸入我們的 NAS IP 位址和使用者名稱密碼。

  1. 建立 OLLAMA 容器

OLLAMA 可以透過手動指令建立容器。

開啟 Container Station: 登入 QNAP NAS 管理介面,開啟 Container Station。

建立應用程式: 點擊左側導覽列的 建立,然後選擇 建立應用程式。

配置應用程式: 應用程式名稱: 輸入一個名稱,例如 ollama。

影像檔名稱: 輸入 ollama/ollama。 指令: 留空。 環境變數: 點擊 新增,輸入 OLLAMA_HOST,值設定為 0.0.0.0。 點擊 新增,輸入 OLLAMA_ORIGINS,值設定為 * (允許所有來源連線,若有安全疑慮可限制特定 IP)。 網路: 網路模式: 選擇 Bridge (橋接模式)。 連接埠轉送: 點擊 新增。 宿主機埠號: 輸入 11434 (這是 OLLAMA 預設的 API 埠號)。 容器埠號: 輸入 11434。 通訊協定: 選擇 TCP。

共用資料夾: 為了永久化模型資料 (以免容器移除後,我們跑過的AI資料就不見),建議掛載一個共用資料夾。 點擊 新增。 宿主機路徑: 選擇或建立一個資料夾,例如 /share/Container/ollama_data。 掛載點: 輸入 /root/.ollama (這是 OLLAMA 儲存模型和資料的預設路徑)。 資源限制 (選填): 我們可以根據 NAS 的硬體資源,設定 CPU 和記憶體的限制,以避免 OLLAMA 佔用過多資源。 建立應用程式: 檢查所有設定無誤後,點擊 建立。

Container Station 將會從 Docker Hub 下載 OLLAMA 影像並啟動容器。我們可以在 應用程式 頁面看到 ollama 容器的狀態。

  1. 下載並執行 AI 模型

OLLAMA 容器啟動後,我們可以透過 SSH 或容器日誌來操作 OLLAMA。

進入 OLLAMA 容器的 Shell:

在 Container Station 中,點擊 ollama 容器,然後選擇 終端機。

我們將會進入 OLLAMA 容器的命令列介面。

下載 AI 模型:

使用 ollama pull 命令來下載我們想要的 AI 模型。例如,下載 llama3 模型:
Bash

ollama pull llama3.1

OLLAMA 也支援其他模型,我們可以在 OLLAMA 官方模型庫 查看可用的模型列表。

下載過程中會顯示進度。模型檔案通常較大,需要耐心等待。

也可以另外安裝 webui 透過管理介面來下載 OLLAMA 支援的 AI 模型

執行 AI 模型:

模型下載完成後,我們可以使用 ollama run 命令來啟動模型並進行互動: Bash ollama run llama3.1 現在我們就可以在終端機中與 AI 模型進行對話了!輸入我們的問題,模型會給出回應。 要退出互動模式,請輸入 /bye 或按下 Ctrl + D。

  1. 透過 API 介面使用 OLLAMA

OLLAMA 不僅提供命令行介面,還提供了 RESTful API,方便其他應用程式或程式語言與之互動。

OLLAMA 的 API 預設監聽在 11434 埠號。我們可以透過我們的 NAS IP 位址和該埠號來訪問 API。

API 網址範例: http://我們的NAS_IP:11434/api/generate

許多開發者可以使用 Python、JavaScript 等語言來呼叫 OLLAMA API,實現更多客製化的 AI 應用。例如,我們可以使用 curl 命令測試 API:
Bash

curl -X POST http://我們的NAS_IP:11434/api/generate -d ‘{
“model”: “llama3.1”,
“prompt”: “Why is the sky blue?”
}’

常見問題與疑難排解

模型下載失敗: 檢查 NAS 的網路連線是否正常。 確認儲存空間是否充足。 嘗試重新啟動 OLLAMA 容器。 OLLAMA 服務無法啟動: 檢查 Container Station 中的容器日誌,查找錯誤訊息。 確認埠號 11434 是否被其他應用程式佔用。 檢查共用資料夾的路徑設定是否正確。 模型執行緩慢: AI 模型執行對硬體資源要求較高,尤其是記憶體和 CPU、GPU。 較大的模型會需要更多的記憶體和更強的 CPU 或 GPU。 考慮升級 NAS 的記憶體或使用更輕量級的模型。

透過 QNAP NAS 的 Container Station 和 OLLAMA,我們現在可以輕鬆地在自己的本地網路中執行 AI 模型。
這在一般中小型公司和家裡滿重要的,最主要就是省錢以及避免敏感資料外洩,有些簡單的問題和日常的問題可以透過本地端 NAS 的 AI 模型來執行獲得結果,也能夠讓我們能更靈活地探索 AI 模型的各種應用。從智慧聊天機器人到文件摘要、產生圖片、影片,自動化處理,MCP Server 應用與 AI 代理等等,我們的 QNAP NAS 將成為一個不錯的 AI 實驗室和辦公空間的好用 AI 工作站。

利用 QNAP NAS 搭配 NVIDIA GPU算力:部署輕量級 AI 推論應用
標籤: AIContainer StationNASNAS教學OLLAMA威聯通容器
Share6Tweet4ShareShareShare1
上一篇

網路測速釋疑 – 看公司或家中的網路傳輸有多快?

下一篇

NVIDIA 釋出新版驅動程式 GeForce 580.88

Chen Glenn

Chen Glenn

開發工程師,目前在北台灣的科技業任職。

相關文章

2026 全球備份日:有備份不等於能還原,如何應對 AI 合規與勒索軟體雙重威脅
NAS

2026 全球備份日:有備份不等於能還原,如何應對 AI 合規與勒索軟體雙重威脅

2026 年 3 月 30 日
NAS

告別 SSL 憑證過期焦慮!myQNAPcloud 與 QTS SSL 新版升級打造零中斷安全連線

2026 年 3 月 26 日
企業級儲存與運算節點的美好平衡 – QNAP TS-673A 開箱實測
NAS

企業級儲存與運算節點的美好平衡 – QNAP TS-673A 開箱實測

2026 年 3 月 26 日
Redis 8.6.2 修復潛在 UAF 安全性弱點與核心穩定性問題
DevOps

Redis 8.6.2 修復潛在 UAF 安全性弱點與核心穩定性問題

2026 年 3 月 25 日
AI 監控時代的優秀後盾!Toshiba S300 AI 企業級監控碟實測
NAS

AI 監控時代的優秀後盾!Toshiba S300 AI 企業級監控碟實測

2026 年 3 月 25 日
打造終極資料堡壘,QNAP Local HA 結合 Remote DR 異地冷備援與 Airgap+ 實戰架構
ISO 合規

打造終極資料堡壘,QNAP Local HA 結合 Remote DR 異地冷備援與 Airgap+ 實戰架構

2026 年 3 月 20 日
下一篇
NVIDIA 釋出新版驅動程式 GeForce 580.88

NVIDIA 釋出新版驅動程式 GeForce 580.88

Proxmox VE 9.0 正式發布,帶來多項重大更新與功能躍進

Proxmox VE 9.0 正式發布,帶來多項重大更新與功能躍進

推薦閱讀

OpenAI 狂募 1,220 億美元!估值破 8,520 億美元,宣告 AI 超級 App 戰略

OpenAI 狂募 1,220 億美元!估值破 8,520 億美元,宣告 AI 超級 App 戰略

2026 年 4 月 1 日
Mac 本機跑模型速度翻倍!Ollama 正式支援 MLX,釋放 Apple Silicon 潛能

Mac 本機跑模型速度翻倍!Ollama 正式支援 MLX,釋放 Apple Silicon 潛能

2026 年 4 月 1 日
Oracle 預計裁員3萬人 豪賭 AI 基礎建設

Oracle 預計裁員3萬人 豪賭 AI 基礎建設

2026 年 4 月 1 日
51 萬行程式碼機密外流!Claude Code 史詩級烏龍與開源神作 claw-code 的重生

51 萬行程式碼機密外流!Claude Code 史詩級烏龍與開源神作 claw-code 的重生

2026 年 4 月 1 日
Windows 11 緊急釋出頻外更新 KB5086672 修復 3 月可選更新 0x80073712 錯誤

Windows 11 緊急釋出頻外更新 KB5086672 修復 3 月可選更新 0x80073712 錯誤

2026 年 4 月 1 日

近期熱門

  • Windows 11 KB5079391 預覽版更新釋出,實測呈現記憶體用量降低與效能改善

    Windows 11 KB5079391 預覽版更新釋出,實測呈現記憶體用量降低與效能改善

    289 shares
    Share 116 Tweet 72
  • Wine 11 核心級重構讓 Linux 遊戲體驗產生革命性突破

    270 shares
    Share 108 Tweet 68
  • Mistral 推出開源語音生成模型 Voxtral 提升文字轉語音自然度

    262 shares
    Share 105 Tweet 66
  • 突破 LLM 記憶體之牆 ? 解析 GitHub 爆紅神作 TurboQuant+ 與 KV Cache 壓縮革命

    255 shares
    Share 102 Tweet 64
  • 2026 全球備份日:有備份不等於能還原,如何應對 AI 合規與勒索軟體雙重威脅

    211 shares
    Share 84 Tweet 53
  • 學歷貶值與 AI 轉型雙重夾擊!美國大學生求職信心跌破 20%,新鮮人如何靠實戰突圍?

    209 shares
    Share 84 Tweet 52
  • 為什麼 ChatGPT 突然不能打字?逆向工程揭密 Cloudflare 的隱藏防護機制

    185 shares
    Share 74 Tweet 46
  • OpenAI 記憶體採購疑雲與新演算法壓縮技術大突破,記憶體價格出現下跌態勢?

    172 shares
    Share 69 Tweet 43
  • 你今天 import axios 了嗎?千萬下載量前端神級套件驚爆遭植入後門!

    142 shares
    Share 57 Tweet 36
  • AI EXPO 2026 現場直擊 2:從技術宣示到企業落地,代理式 AI 開發架構、RAG 與資安合規成為核心重點

    137 shares
    Share 55 Tweet 34

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:[email protected]
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:[email protected]

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客 NAS 系統與電腦、手機一起的生活故事 多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。