原生 ComfyUI 模型的 GGUF 量化支持
这目前非常 WIP。这些自定义节点为以 llama.cpp 流行的 GGUF 格式存储的模型文件提供支持。
虽然量化对于常规 UNET 模型 (conv2d) 不可行,但 factor/DiT 模型(例如 flux)似乎受量化的影响较小。这允许在低端 GPU 上以低得多的每权重可变比特率量化运行它。为了进一步节省 VRAM,还包括一个用于加载 T5 文本编码器的量化版本的节点。
GitHub - city96/ComfyUI-GGUF:GGUF 对原生 ComfyUI 模型的量化支持
git clone https://github.com/city96/ComfyUI-GGUF.git
打开 ComfyUI 的管理器,进入 节点管理。
前往 Hugging Face 或HF-Mirror其他资源平台,下载所需的 GGUF 模型文件。
将模型文件放置到以下路径:
点击 排队提示,生成图像并查看结果。例如,使用 FLUX Q2 和 T5-XXL Q3 模型时,可在 6GB 显存下生成高质量图像。
通过以上步骤,即可在 ComfyUI 中成功运行 GGUF 文件模型!
https://blog.xqlee.com/article/2509221530464669.html