CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
聯繫我們
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
沒有結果
觀看所有搜尋結果
CyberQ 賽博客
沒有結果
觀看所有搜尋結果
  • Home
  • 新聞
  • 資安專區
  • AI 應用實戰
  • Docker / 容器
  • 基礎教學
  • 進階應用
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊
首頁 新聞 AI 人工智慧

Google與聯發科聯手推出LiteRT加速器 強化裝置端AI運算效能

Ashley Hsieh by Ashley Hsieh
2025 年 12 月 10 日
閱讀時間: 2 分鐘
A A
Google與聯發科聯手推出LiteRT加速器 強化裝置端AI運算效能
6
分享數
118
觀看數
分享到臉書分享到 X分享到Line分享到 Threads分享到 Linkedin

隨著 AI 不再完全仰賴雲端,而逐漸改在裝置端直接運算,許多 NPU(神經處理單元) 已成為驅動下一代裝置端AI應用的關鍵核心。NPU 高效能與低功耗的特性,讓過往難以在邊緣裝置執行的AI模型也得以順暢運作,然而過去因Android裝置的硬體規格和軟體版本過於繁雜多樣,導致開發者難以讓需要高效能運算的AI模型在所有裝置上都能順利運作。

RELATED POSTS

韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高

價值24萬史丹佛AI課程免費公開 詳解大型語言模型底層技術

擺脫盲鑽高風險 新創 Zanskar 運用 AI 成功尋找隱藏地熱資源

近日 Google 在開發者部落格上宣布與聯發科(MediaTek)展開深度的技術合作,推出了全新的 LiteRT NeuroPilot Accelerator。這是一套讓開發者更容易把 AI 模型部署到 MediaTek 的 NPU(神經處理單元)上的工具,這項技術解決開發者在不同硬體環境下面臨的碎片化挑戰,讓開發者能夠透過統一的開發流程與最佳化工具,提升終端裝置用的小型 AI 模型在聯發科晶片上的執行效率。

LiteRT NeuroPilot Accelerator 可說是 TensorFlow Lite NeuroPilot delegate 的繼任者,部署體驗更佳。

開發者面臨的跨平台挑戰與解決方案

過去開發者若要在NPU上部署AI模型,往往面臨極高的技術門檻。由於市場上存在數百種不同的系統單晶片(SoC)組合,每種硬體都有獨特的編譯需求與SDK,導致開發流程複雜且難以維護。更令人頭痛的是,為了追求極致效能,必須為每一款晶片量身打造專屬的程式寫法,不能一套走天下。這對於希望應用程式能普及到大眾手中的開發者來說,是滿大的負擔。

LiteRT NeuroPilot Accelerator 透過統一的 API 介面改善了這些問題。開發者不再需要處理繁瑣的SDK細節,即可存取各種聯發科NPU的運算能力。

離線編譯與裝置端編譯的彈性選擇

為了滿足不同應用場景,LiteRT 提供了兩種彈性策略。針對目標明確的旗艦機種,開發者可採用離線編譯(Offline)模式,就像事先為特定硬體量身訂製最佳化,所有處理都已在前端完成,所以 App 啟動更快、資源占用更低。

而裝置端編譯(On-device),就像是通用款設計,App 在安裝到使用者的手機後,才會根據該裝置的實際規格自動進行適配。雖然首次開啟時需要一點時間進行調整,但最大的優勢是它能通吃市面上多款手機,減少了硬體碎片化的難題。

針對 Android 平台,Google 也整合了 Play for On-device AI(PODAI)服務。開發者只需利用 LiteRT 將 AI 模型與必要的 Runtime 函式庫打包成 AI Pack,當使用者從 Google Play 下載應用程式時,系統會自動分析裝置規格並派送相容的模型與運作環境,簡化了部署流程。

支援 Gemma 等先進生成式AI模型

此次合作的另一大亮點是對 Google Gemma 模型家族的全面支援。在聯發科的天璣 9500(Dimensity 9500)晶片發表會上,雙方展示了多款經過最佳化的模型,包括 Gemma 3 270M、Gemma 3 1B 以及專為行動裝置設計的多模態模型 Gemma 3n E2B。

資料顯示這些經過最佳化的模型在聯發科 NPU 上的執行速度比 CPU 快上 12 倍,比 GPU 快上 10 倍。以 Vivo X300 Pro 實測為例,Gemma 3n E2B 模型在處理 4K 上下文時,預填充速度超過每秒 1600 tokens,解碼速度則達到每秒 28 tokens,這樣的成績讓即時語音翻譯、視覺理解等複雜的多模態應用成為可能。

提升開發效率

為了讓開發者能更輕鬆地建構高效能機器學習管道,LiteRT 引入了簡化的 C++ API。這套新介面支援原生硬體緩衝區互通性(Native Hardware Buffer Interoperability),允許資料從 AHardwareBuffer 直接傳遞至 NPU,過程中無需進行資料複製,對於需要處理高吞吐量即時影像的相機與影片應用來說至關重要,能夠有效降低延遲並提升整體系統效能。

這次 Google 與聯發科的合作,可說進一步降低裝置端 AI 的開發時間,預期這個生態系的未來將有更多不錯 AI 應用出現在行動裝置上。

首圖由 Nano Banana AI 生成

AWS reInvent 2025發表 Trainium3 晶片與UltraServer 算力與 AI 應用全面升級
Google 計畫結盟 Meta 與 AMD 強化自研 AI 晶片生態系
晶片設計之神 Jim Keller 的下一步:攜手台灣,用開源架構與 Chiplet 點燃 AI 晶片新篇章 – SEMICON TAIWAN 2025
開箱實測 Arduino UNO Q,經典 UNO 加上高通 AI 核心成為新一代 SBC 與開發版優選
標籤: Dimensity 9500GemmaGoogleLiteRTNPUTensorFlow Lite天璣9500生成式AI聯發科裝置端AI邊緣運算
Share2Tweet2ShareShareShare
上一篇

韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高

Ashley Hsieh

Ashley Hsieh

專案管理者與 UI/UX 設計、AI美術設計認證、淨零碳規劃管理師,在上市歐洲外商、生醫、金融、科技產業中淬煉,曾參與過多個跨平台專案,從需求分析、設計、使用者測試到專案交付流程都樂在其中。 私底下,我是一位「喜歡買東西但錢包容易抗議」的人,對科技、設計與藝術有熱情,正在努力平衡質感生活,學習和錢包一起成長的日常小練習者。

相關文章

韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高
新聞

韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高

2025 年 12 月 9 日
價值24萬史丹佛AI課程免費公開 詳解大型語言模型底層技術
AI 人工智慧

價值24萬史丹佛AI課程免費公開 詳解大型語言模型底層技術

2025 年 12 月 9 日
擺脫盲鑽高風險 新創 Zanskar 運用 AI 成功尋找隱藏地熱資源
AI 人工智慧

擺脫盲鑽高風險 新創 Zanskar 運用 AI 成功尋找隱藏地熱資源

2025 年 12 月 8 日
沒學歷也能進 OpenAI 當工程師,AI 時代大學教育價值正在崩解
AI 人工智慧

沒學歷也能進 OpenAI 當工程師,AI 時代大學教育價值正在崩解

2025 年 12 月 7 日
沒有 DRS 也不怕,ProxLB 讓 Proxmox 也擁有自動負載平衡 ?
新聞

沒有 DRS 也不怕,ProxLB 讓 Proxmox 也擁有自動負載平衡 ?

2025 年 12 月 7 日
DeepMind與Anthropic執行長同聲示警 邁向AGI的關鍵十年與風險
AI 人工智慧

DeepMind與Anthropic執行長同聲示警 邁向AGI的關鍵十年與風險

2025 年 12 月 7 日

推薦閱讀

Google與聯發科聯手推出LiteRT加速器 強化裝置端AI運算效能

Google與聯發科聯手推出LiteRT加速器 強化裝置端AI運算效能

2025 年 12 月 10 日
韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高

韓國大批監控影像遭駭外流 IP攝影機資安與私有雲監控重視度大幅提高

2025 年 12 月 9 日
實測 QNAP QuTS hero h6.0.0 Public Beta,高可用性 HA、FIDO2 與光纖通道虛擬化 NPIV 全面進駐,企業級儲存再進化

實測 QNAP QuTS hero h6.0.0 Public Beta,高可用性 HA、FIDO2 與光纖通道虛擬化 NPIV 全面進駐,企業級儲存再進化

2025 年 12 月 9 日

近期熱門

  • LINE、Meta、Google 與小紅書的反詐騙治理比較

    LINE、Meta、Google 與小紅書的反詐騙治理比較

    196 shares
    Share 78 Tweet 49
  • 沒學歷也能進 OpenAI 當工程師,AI 時代大學教育價值正在崩解

    192 shares
    Share 77 Tweet 48
  • Anthropic 發布 AI 面談工具 解析逾千名專業工作者對人工智慧的真實觀點

    164 shares
    Share 66 Tweet 41
  • DeepMind與Anthropic執行長同聲示警 邁向AGI的關鍵十年與風險

    131 shares
    Share 52 Tweet 33
  • Proxmox 雙箭齊發:Datacenter Manager 1.0 正式登場,PVE 9.1.2 補足拼圖

    126 shares
    Share 50 Tweet 32
  • 開箱迷你 AI 超級電腦,ASUS Ascent GX10 (NVIDIA DGX Spark) 搭配 QNAP NAS 擴充可用空間

    256 shares
    Share 102 Tweet 64
  • Docker Engine 29.1.2 更新修補 Go 執行時高風險漏洞與 Rootless 網路痛點

    109 shares
    Share 44 Tweet 27
  • 沒有 DRS 也不怕,ProxLB 讓 Proxmox 也擁有自動負載平衡 ?

    102 shares
    Share 41 Tweet 26
  • 擺脫盲鑽高風險 新創 Zanskar 運用 AI 成功尋找隱藏地熱資源

    96 shares
    Share 38 Tweet 24
  • Windows 11 KB5070311 預覽版更新釋出,深色模式終於全黑了,但多了一個惱人的白閃bug

    109 shares
    Share 44 Tweet 27

關於 CyberQ 賽博客

您的企業儲存、網路架構與資安科技好夥伴

專注於企業級網路與儲存環境建構、NAS 系統整合、資安解決方案與 AI 應用顧問服務,為您打造高可用、高安全、高效能的數位環境。

專業產業媒體 × 技術顧問團隊

我們關注新興科技趨勢,深入報導海內外產業動態,並結合多年實務經驗,提供量身打造的 IT 解決方案與精選內容。

我們提供的核心服務 : 

資安防護|網站開發與雲端服務|AI 導入與應用顧問|企業資訊環境建構|NAS 系統整合|數位內容產製|科技媒體|

CyberQ 致力於打造更智慧、更安全的數位未來。

新聞稿、採訪、授權、內容投訴、行銷合作、投稿刊登:service@cyberq.tw
廣告委刊、展覽會議、系統整合、資安顧問、業務提攜:service@cyberq.tw

Copyright ©2025 CyberQ.tw All Rights Reserved.

沒有結果
觀看所有搜尋結果
  • Home
    • 關於我們
    • 隱私權政策
  • 新聞
    • AI 人工智慧
  • 資安專區
    • ISO 合規
  • AI 應用實戰
  • Docker / 容器
    • 虛擬化
  • 基礎教學
    • NAS 基礎設定
  • 進階應用
    • DevOps
    • 程式開發
    • 企業解決方案
  • DR.Q 快問快答
  • 開箱測試
  • 展覽直擊

© 2025 CyberQ NAS、資安、資訊科技、AI應用的日常 關於 CyberQ 賽博客NAS 系統與電腦、手機一起的生活故事多年的系統整合與資訊安全經驗,協助智慧家居、小型工作室、辦公室與機構,導入更便利、更安全的資訊環境與應用。