ComfyUI自带有一个模型管理,如果你的网络通达,则该方案是最简单。
启动ComfyUI
点击右上角的“Manager” 按钮
找到上图所示的 “Model Manger” ,点击 “Model Manger”按钮进入模型下载管理
这里的类型,对应ComfyUI安装目录的models目录,
如果你知道docker,那么这个base就可以理解为官方版镜像,例如官方版 nginx,然后又有玩家扩展了一些功能发布了一个nginx-ext版,nginx-ext版是基于nginx官方版的。这里的Base就是这个意思。
国内常用下载网站
下面以阿里的千问图像为例
打开魔塔社区,搜索qwen-image ,找到ComfyUI库的 Qwen-Image_ComfyUI · 模型库
打开后,点击模型文件
模型文件有官方的split_files和非官方的non_official。这里以官方的为准,我们需要下载的文件有
提示:这里是以fp8精度为例,如果你的显卡显存够大,可以选非量化版下载
三个文件下载完成后分别放在相对应的confyui models文件夹里面,参考下图
重要提示:
新手动下载了某个模型,需要重启当前运行的ComfyUI才可用哟!!!
点击顶部加号,添加一个新工作流
点击左侧菜单的“范本”
搜索 qwen-image
选择第一个,如上所示。
打开后提示缺少模型,则我们再去魔塔社区下载 缺少的模型,搜索 “qwen-image-lightning”
找到模型文件
然后找到 Qwen-Image-Lightning-8steps-V1.0.safetensors
下载文件,放到ConfiyUI/models/loras/
目录下
重要提示:
新手动下载了某个模型,需要重启当前运行的ComfyUI才可用哟!!!
官方示例流程图参考:
点击下面的运行,测试:(由于我的设备只有16G显存无法运行官方的fp8量化版)如果你的显存大于24G,可以尝试运行。
接下来就是测试非官方的量化版了。
打开阿里QWen-image 魔塔社区官方仓库地址 Qwen-Image · 模型库
找到旁边的量化版
量化模型选择city96/的
打开后在模型文件找到适合自己显存大小的量化模型,我这里选择的是Q4_K_M 需要>=16G显存显卡哦
下载完成后,将gguf模型文件放置于Confyui/models/uset/
目录下
双击工作区,弹出搜索框搜索GGUF
大模型使用一般用 Unet Loader,如加载 unset/Qwen_Image-Q4_K_M.gguf
文本解析器一般用CLIPLoader, 如加载千问的文本编码模型 text_encoders/qwen_2.5_vl_7b_fp8_scaled.gguf
解析器一般还是官方的格式多。
生成示例:
https://blog.xqlee.com/article/250922142637880.html