在開源 AI 生成工具的領域中,ComfyUI 的迭代速度始終令人驚艷。就在稍早,ComfyUI 釋出了最新的 v0.11.0 版本。本次更新不僅大幅擴展了對前沿模型的支援,包括 Zimage Omni、Anima 以及 Flux 2 的多種變體,同時呢,ComfyUI 在開發者最關心的 VRAM 效率上做出了顯著的最佳化。對於追求極致效能與最新模型實驗的 AI 工程師與創作者而言,這是一個不容錯過的重要版本。
核心更新重點
1、最新熱門模型架構的擴展支援
v0.11.0 展現了 ComfyUI 對於新興架構強大的適應力。最受矚目的莫過於對 Zimage Omni Base Model 的支援(#11979, #11985),ComfyUI 在多模態或全能型模型整合上又邁出一步。
此外,針對近期熱門的模型架構,本次更新也迅速跟進:
Flux 2 生態系,新增對 Flux 2 Klein checkpoints 的載入支援(#12033),並引入了 LyCORIS LoKr 支援(#11997)以及 ModelScope-Trainer/DiffSynth LoRA 格式支援(#12042),大幅提升了微調模型的相容性。
輕量化與高效能模型,針對 Qwen 3 0.6B 模型提供了專屬配置(#11998),並支援了 Anima 模型(#12012)。
3D 與視訊生成,在 API 節點層面,新增了 TencentHunyuan3D(騰訊混元 3D)節點支援(#12026),以及針對 Vidu 參考節點支援最多 7 個主體(#12002),進一步強化了從 2D 到 3D 及動態影像的工作流能力。
2、顯著的 VRAM 效能最佳化
對於在消費級顯卡上執行大型模型的用戶來說,v0.11.0 帶來了多項底層最佳化:
LTX2 效率提升,引入了 LTX2 Tiny VAE (taeltx_2) 支援(#11929),並重構了前向傳播函數(forward function),有效減少了 VRAM 消耗並修復了空間修復(spatial inpainting)的問題(#12046)。
Qwen 與 WAN 最佳化,針對 Qwen VAE 和 WAN 模型進行了加速與 VRAM 減量最佳化(#12036),並針對 wan-vae 在單幀生成時關閉特徵緩存(#12090),減少不必要的資源占用。
動態計算,新增動態檢測 chroma radiance patch size 的功能(#11991),提升處理效率。
3、使用者體驗與開發者友善度強化
除了底層更新,前端體驗也有持續更新和改善,包括搜尋別名(Search Aliases),為節點架構新增了 search_aliases 欄位(#12010, #12035),這意味著用戶未來可以透過更多關鍵字或慣用語找到所需節點,大幅降低新手的學習曲線。
以及對 AMD ROCm 支援的更新,針對 AMD 使用者,可攜版環境已更新至支援 ROCm 7.2(#12101),改善了在 AMD 硬體上的穩定性與效能。
WaveSpeed 與 Multi/InfiniteTalk,新增 WaveSpeed 節點(#11945)與 Multi/InfiniteTalk 支援(#10179),豐富了音訊與數位人(Avatar)生成的應用場景。
CyberQ 認為,ComfyUI v0.11.0 的發布節奏很快,也呈現出目前開源社群在模型即基礎設施的趨勢。開發團隊不再僅僅滿足於能跑,而是更深入地最佳化,特別是針對 LTX2 與 Flux 2 的最佳化,直接回應了社群對於高畫質生成與低顯示記憶體門檻的渴望。對於資安與企業部署而言,需注意新版 API 節點的變動(如移除 ByteDanceImageEditNode),建議在更新生產環境前進行完整測試。
CyberQ 建議所有依賴 ComfyUI 進行高階工作流設計的用戶立即備份環境並進行升級,以體驗最新的模型支援、工作流與效能改善。
首圖由 Nano Banana AI 生成









