镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
flux
ComfyUI
WebUI
ComfyUI_nunchaku 双节棍极速搓图
comfyui+nunchaku极速出图、改图!
0/小时
v1.0

ComfyUI-Nunchaku 极速搓图镜像

交流群】【视频教程

项目简介

ComfyUI-Nunchaku 是 ComfyUI 的一个扩展节点,集成了高效的 Nunchaku 推理引擎,支持基于 SVDQuant 的 4-bit 神经网络量化模型推理。该项目大幅降低了显存占用、提升了推理速度,并兼容 LoRA、Flux Fill(局部重绘)、ControlNet 等高级功能,适用于 RTX 20/30/40 系列显卡[1][2]。

  • 官方仓库:[mit-han-lab/ComfyUI-nunchaku][1]
  • 模型仓库:[HuggingFace/mit-han-lab][3]
  • 交流群:Slack、Discord、微信群(详见项目主页)

功能特性

  • 支持 INT4 量化模型推理,速度与精度兼得
  • 兼容多种 ComfyUI 工作流(文生图、局部重绘、深度控制等)
  • 支持多 LoRA、ControlNet-Union-Pro 2.0
  • 提供 NunchakuWheelInstaller 节点,自动安装/升级依赖
  • 适配 20/30/40 系列 NVIDIA GPU,自动内存优化
  • 提供中英文视频与文档教程

使用说明

  1. 启动 ComfyUI

image.png

  1. 选择 Nunchaku 工作流(以 双节棍 开头的 workflow),或导入工作流。

image.png


参数说明

  • cache_threshold:控制首块缓存容差(典型值 0.12),增大可提速但略降画质,0 为关闭
  • attention:选择注意力机制(nunchaku-fp16 推荐,20 系显卡必须用此项)
  • cpu_offload:是否启用 CPU 辅助,自动根据显存判断。
  • device_id:指定 GPU ID
  • data_type:反量化张量数据类型,Turing 架构仅支持 float16
  • i2f_mode:Turing 架构 GEMM 实现模式(enabled/always)

下载模型文件

  • 推荐模型:
    • svdq-int4-flux.1-dev
    • svdq-int4-flux.1-fill-dev
  • 50 系显卡用户请优先下载带 fp4 的模型,其余下载 int4 即可[3]。

下载方式(以 HuggingFace 为例):

huggingface-cli download mit-han-lab/svdq-int4-flux.1-dev --local-dir models/diffusion_models
huggingface-cli download mit-han-lab/svdq-int4-flux.1-fill-dev --local-dir models/diffusion_models

下载后请将整个模型文件夹放入 ComfyUI 的 models/diffusion_models 目录。


常见问题

  • 打不开ComfyUI:开机后等待2分钟左右启动完成才能正常打开。
  • 找不到模型:可以自行下载模型。要联系我增加相应的模型。
  • 模型加载失败:确保模型文件夹完整放入对应目录,文件名与 workflow 匹配

免责声明

本镜像基于开源社区内容制作,按“原样”提供,不保证完整性与安全性。使用者需自行承担风险,遵守相关法律法规及第三方许可协议。如不同意本声明,请立即删除镜像,继续使用即视为接受上述条款。


参考资源

  • [官方仓库 mit-han-lab/ComfyUI-nunchaku][1]
  • [模型仓库 HuggingFace/mit-han-lab][3]
  • [详细中文教程与参数说明][3]
  • [官方视频教程][2]
镜像信息
@ai来事
已使用
9
镜像大小170GB
最近编辑2025-06-19
支持卡型
RTX40系3080Ti48G RTX40系3090P40A100A800
+7
框架版本
PyTorch-2.7
CUDA版本
12.4
应用
JupyterLab: 8888
版本
v1.0
2025-06-19
PyTorch:2.7 | CUDA:12.4 | 大小:170.00GB