ComfyUI-Nunchaku 极速搓图镜像
【交流群】【视频教程】
项目简介
ComfyUI-Nunchaku 是 ComfyUI 的一个扩展节点,集成了高效的 Nunchaku 推理引擎,支持基于 SVDQuant 的 4-bit 神经网络量化模型推理。该项目大幅降低了显存占用、提升了推理速度,并兼容 LoRA、Flux Fill(局部重绘)、ControlNet 等高级功能,适用于 RTX 20/30/40 系列显卡[1][2]。
- 官方仓库:[mit-han-lab/ComfyUI-nunchaku][1]
- 模型仓库:[HuggingFace/mit-han-lab][3]
- 交流群:Slack、Discord、微信群(详见项目主页)
功能特性
- 支持 INT4 量化模型推理,速度与精度兼得
- 兼容多种 ComfyUI 工作流(文生图、局部重绘、深度控制等)
- 支持多 LoRA、ControlNet-Union-Pro 2.0
- 提供 NunchakuWheelInstaller 节点,自动安装/升级依赖
- 适配 20/30/40 系列 NVIDIA GPU,自动内存优化
- 提供中英文视频与文档教程
使用说明
- 启动 ComfyUI

- 选择 Nunchaku 工作流(以
双节棍
开头的 workflow),或导入工作流。

参数说明
- cache_threshold:控制首块缓存容差(典型值 0.12),增大可提速但略降画质,0 为关闭
- attention:选择注意力机制(
nunchaku-fp16
推荐,20 系显卡必须用此项)
- cpu_offload:是否启用 CPU 辅助,自动根据显存判断。
- device_id:指定 GPU ID
- data_type:反量化张量数据类型,Turing 架构仅支持 float16
- i2f_mode:Turing 架构 GEMM 实现模式(enabled/always)
- …
下载模型文件
- 推荐模型:
svdq-int4-flux.1-dev
svdq-int4-flux.1-fill-dev
- 50 系显卡用户请优先下载带
fp4
的模型,其余下载 int4
即可[3]。
下载方式(以 HuggingFace 为例):
huggingface-cli download mit-han-lab/svdq-int4-flux.1-dev --local-dir models/diffusion_models
huggingface-cli download mit-han-lab/svdq-int4-flux.1-fill-dev --local-dir models/diffusion_models
下载后请将整个模型文件夹放入 ComfyUI 的 models/diffusion_models
目录。
常见问题
- 打不开ComfyUI:开机后等待2分钟左右启动完成才能正常打开。
- 找不到模型:可以自行下载模型。要联系我增加相应的模型。
- 模型加载失败:确保模型文件夹完整放入对应目录,文件名与 workflow 匹配
免责声明
本镜像基于开源社区内容制作,按“原样”提供,不保证完整性与安全性。使用者需自行承担风险,遵守相关法律法规及第三方许可协议。如不同意本声明,请立即删除镜像,继续使用即视为接受上述条款。
参考资源
- [官方仓库 mit-han-lab/ComfyUI-nunchaku][1]
- [模型仓库 HuggingFace/mit-han-lab][3]
- [详细中文教程与参数说明][3]
- [官方视频教程][2]