CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
聯繫我們
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • 首頁
  • 新聞
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
  • Docker
  • 進階應用
  • 網通
  • NAS
  • 開箱測試
  • 教學
  • 展覽直擊
首頁 新聞 AI 人工智慧

Google與聯發科聯手推出LiteRT加速器 強化裝置端AI運算效能

Ashley Hsieh by Ashley Hsieh
2025 年 12 月 10 日 08:00
閱讀時間: 2 分鐘
A A
Google與聯發科聯手推出LiteRT加速器 強化裝置端AI運算效能
1.9k
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

隨著 AI 不再完全仰賴雲端,而逐漸改在裝置端直接運算,許多 NPU(神經處理單元) 已成為驅動下一代裝置端AI應用的關鍵核心。NPU 高效能與低功耗的特性,讓過往難以在邊緣裝置執行的AI模型也得以順暢運作,然而過去因Android裝置的硬體規格和軟體版本過於繁雜多樣,導致開發者難以讓需要高效能運算的AI模型在所有裝置上都能順利運作。

RELATED POSTS

claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略

Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?

近日 Google 在開發者部落格上宣布與聯發科(MediaTek)展開深度的技術合作,推出了全新的 LiteRT NeuroPilot Accelerator。這是一套讓開發者更容易把 AI 模型部署到 MediaTek 的 NPU(神經處理單元)上的工具,這項技術解決開發者在不同硬體環境下面臨的碎片化挑戰,讓開發者能夠透過統一的開發流程與最佳化工具,提升終端裝置用的小型 AI 模型在聯發科晶片上的執行效率。

LiteRT NeuroPilot Accelerator 可說是 TensorFlow Lite NeuroPilot delegate 的繼任者,部署體驗更佳。

開發者面臨的跨平台挑戰與解決方案

過去開發者若要在NPU上部署AI模型,往往面臨極高的技術門檻。由於市場上存在數百種不同的系統單晶片(SoC)組合,每種硬體都有獨特的編譯需求與SDK,導致開發流程複雜且難以維護。更令人頭痛的是,為了追求極致效能,必須為每一款晶片量身打造專屬的程式寫法,不能一套走天下。這對於希望應用程式能普及到大眾手中的開發者來說,是滿大的負擔。

LiteRT NeuroPilot Accelerator 透過統一的 API 介面改善了這些問題。開發者不再需要處理繁瑣的SDK細節,即可存取各種聯發科NPU的運算能力。

離線編譯與裝置端編譯的彈性選擇

為了滿足不同應用場景,LiteRT 提供了兩種彈性策略。針對目標明確的旗艦機種,開發者可採用離線編譯(Offline)模式,就像事先為特定硬體量身訂製最佳化,所有處理都已在前端完成,所以 App 啟動更快、資源占用更低。

而裝置端編譯(On-device),就像是通用款設計,App 在安裝到使用者的手機後,才會根據該裝置的實際規格自動進行適配。雖然首次開啟時需要一點時間進行調整,但最大的優勢是它能通吃市面上多款手機,減少了硬體碎片化的難題。

針對 Android 平台,Google 也整合了 Play for On-device AI(PODAI)服務。開發者只需利用 LiteRT 將 AI 模型與必要的 Runtime 函式庫打包成 AI Pack,當使用者從 Google Play 下載應用程式時,系統會自動分析裝置規格並派送相容的模型與運作環境,簡化了部署流程。

支援 Gemma 等先進生成式AI模型

此次合作的另一大亮點是對 Google Gemma 模型家族的全面支援。在聯發科的天璣 9500(Dimensity 9500)晶片發表會上,雙方展示了多款經過最佳化的模型,包括 Gemma 3 270M、Gemma 3 1B 以及專為行動裝置設計的多模態模型 Gemma 3n E2B。

資料顯示這些經過最佳化的模型在聯發科 NPU 上的執行速度比 CPU 快上 12 倍,比 GPU 快上 10 倍。以 Vivo X300 Pro 實測為例,Gemma 3n E2B 模型在處理 4K 上下文時,預填充速度超過每秒 1600 tokens,解碼速度則達到每秒 28 tokens,這樣的成績讓即時語音翻譯、視覺理解等複雜的多模態應用成為可能。

提升開發效率

為了讓開發者能更輕鬆地建構高效能機器學習管道,LiteRT 引入了簡化的 C++ API。這套新介面支援原生硬體緩衝區互通性(Native Hardware Buffer Interoperability),允許資料從 AHardwareBuffer 直接傳遞至 NPU,過程中無需進行資料複製,對於需要處理高吞吐量即時影像的相機與影片應用來說至關重要,能夠有效降低延遲並提升整體系統效能。

這次 Google 與聯發科的合作,可說進一步降低裝置端 AI 的開發時間,預期這個生態系的未來將有更多不錯 AI 應用出現在行動裝置上。

首圖由 Nano Banana AI 生成

AWS reInvent 2025發表 Trainium3 晶片與UltraServer 算力與 AI 應用全面升級
Google 計畫結盟 Meta 與 AMD 強化自研 AI 晶片生態系
晶片設計之神 Jim Keller 的下一步:攜手台灣,用開源架構與 Chiplet 點燃 AI 晶片新篇章 – SEMICON TAIWAN 2025
開箱實測 Arduino UNO Q,經典 UNO 加上高通 AI 核心成為新一代 SBC 與開發版優選
標籤: Dimensity 9500GemmaGoogleLiteRTNPUTensorFlow Lite天璣9500生成式AI聯發科裝置端AI邊緣運算
Share22Tweet14ShareShareShare4
上一篇

韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高

下一篇

Mistral 發布新版開源 AI 模型 Devstral 2 及 Mistral Large 3

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計、AI美術設計認證、淨零碳規劃管理師,在上市歐洲外商、生醫、金融、科技產業中淬煉,曾參與過多個跨平台專案,從需求分析、設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章

claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察
AI 人工智慧

claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

2026 年 4 月 10 日
受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略
AI 人工智慧

受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略

2026 年 4 月 10 日
Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?
新聞

Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?

2026 年 4 月 10 日
告別 Llama 時代?Meta 發布 Muse Spark 原生多模態模型聚焦個人超級 AI
AI 人工智慧

告別 Llama 時代?Meta 發布 Muse Spark 原生多模態模型聚焦個人超級 AI

2026 年 4 月 9 日
單卡訓練千億參數模型成為可能?解析 MegaTrain 記憶體架構
AI 人工智慧

單卡訓練千億參數模型成為可能?解析 MegaTrain 記憶體架構

2026 年 4 月 9 日
揮別盲目的背景連線:macOS 知名網路監控工具 Little Snitch 正式登陸 Linux
新聞

揮別盲目的背景連線:macOS 知名網路監控工具 Little Snitch 正式登陸 Linux

2026 年 4 月 9 日
下一篇
Mistral 發布新版開源 AI 模型 Devstral 2 及 Mistral Large 3

Mistral 發布新版開源 AI 模型 Devstral 2 及 Mistral Large 3

Windows 11 更新 KB5072033 終於修正了白閃問題,亦針對 Copilot 與檔案總管最佳化

Windows 11 更新 KB5072033 終於修正了白閃問題,亦針對 Copilot 與檔案總管最佳化

推薦閱讀

知名硬體監控工具 CPUID 網站遭駭:HWMonitor 與 CPU-Z 下載連結遭替換為惡意軟體

知名硬體監控工具 CPUID 網站遭駭:HWMonitor 與 CPU-Z 下載連結遭替換為惡意軟體

2026 年 4 月 10 日
claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

claude-usage 破解 Claude 用量盲盒,近期配額災情與生態觀察

2026 年 4 月 10 日
受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略

受不了 Claude 的限制或當掉不能用的時候嗎? 將每月 100 美元預算重新分配給 Zed 與 OpenRouter 的最佳化策略

2026 年 4 月 10 日
Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?

Claude Code 的 Vercel 擴充套件爆發隱私爭議,偷偷讀取所有專案的提示詞與 Bash 指令?

2026 年 4 月 10 日
告別 Llama 時代?Meta 發布 Muse Spark 原生多模態模型聚焦個人超級 AI

告別 Llama 時代?Meta 發布 Muse Spark 原生多模態模型聚焦個人超級 AI

2026 年 4 月 9 日

近期熱門

  • 解放 Gemma 4 31B 潛力!破解版地端 AI 無審查模型 CRACK 解析與部署實作建議

    解放 Gemma 4 31B 潛力!破解版地端 AI 無審查模型 CRACK 解析與部署實作建議

    433 shares
    Share 173 Tweet 108
  • 榨乾 16GB VRAM!算力與應用完美分離的個人 AI 工作站建置教學

    514 shares
    Share 206 Tweet 129
  • 台灣動畫導演靠 AI 與五千元硬體神省救回 90TB ZFS 磁碟陣列

    268 shares
    Share 107 Tweet 67
  • 擺脫分頁焦慮!打造完全掌握資料自主權的個人知識庫,Wallabag + Obsidian + QNAP NAS 實作教學

    226 shares
    Share 90 Tweet 57
  • 利用 OpenCode 搭配 DGX Spark 與 QNAP NAS 打造企業級私有化 AI 開發大腦

    217 shares
    Share 87 Tweet 54
  • Mac Apple Silicon 專屬的本地 AI 選型與採購指南

    187 shares
    Share 75 Tweet 47
  • Docker 29.4.0 提升映像檔傳輸效能,並修正容器無法刪除的舊問題

    172 shares
    Share 69 Tweet 43
  • GitHub 趨勢週報2 Vol.9:邊緣運算升溫,把 LLM 塞進你的手機

    171 shares
    Share 68 Tweet 43
  • 揮別盲目的背景連線:macOS 知名網路監控工具 Little Snitch 正式登陸 Linux

    169 shares
    Share 68 Tweet 42
  • Anthropic 鐵腕封鎖 OpenClaw 等第三方平台接入!算力吃到飽神話破滅,AI 代理市場面臨大洗牌

    155 shares
    Share 62 Tweet 39

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:[email protected]
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:[email protected]

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • 首頁
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • AI 代理
  • 龍蝦
  • AI 應用實戰
  • 資安
    • ISO 合規
  • Docker
    • 虛擬化
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • 網通
    • 100GbE
    • 10GbE
  • NAS
  • 開箱測試
    • 選購指南
  • 教學
    • DR.Q 快問快答
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客 NAS 系統與電腦、手機一起的生活故事 多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。