ComfyUI&SD通用Flux模型LoRA权重多版本下载合集
问君能有几多愁,恰似Flux的5大模型3大插件3小模型下载地址整理!
AI真的是普通人越来越难玩了,怎么现在下载个模型都这么复杂,不同FP要对应不同的模型,不同的模型要对应不同的衍生小模型。
最最可恶的是,人家官方免费提供的模型,网上这些居然要求收费下载?要么就是让你必须进群才发下载地址,你比人家Apache-2.0的开源协议都牛逼。
Flux介绍
Flux 是由 Black Forest Labs(前 Stable Diffusion 核心成员创立)开发的 AI 图像生成模型,凭借其混合架构和先进技术,在文字生成、细节渲染等方面表现突出。以下是关键信息整理:
模型简介
核心特性与技术优势
- 架构创新:采用 混合多模态+并行扩散变换器 架构,参数规模达 120 亿,结合流匹配(flow matching)技术提升训练效率。
- 文字生成能力:相比 Stable Diffusion,Flux 在图片中生成 清晰可读文字 的能力显著提升,尤其擅长复杂排版场景。
- 硬件效率:通过旋转位置嵌入和并行注意力层优化,支持 16GB+ VRAM 的硬件配置,生成速度较快(如 Schnell 版本)。
- 分辨率灵活性:支持 0.1-2.0 兆像素 的多种宽高比,适应性更强。
版本与适用场景
Flux 提供三个版本:
- Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
- Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究。
- Pro(专业版,闭源 API):商业级性能,适用于企业级高精度需求。
Flux 与 Stable Diffusion 的对比
特性 | Flux | Stable Diffusion |
---|---|---|
文字生成 | 更清晰、可读性高 | 易出错,需额外插件优化 |
分辨率支持 | 0.1-2.0 兆像素灵活适配 | 依赖版本,部分限制较多 |
硬件需求 | 16GB+ VRAM(推荐 24GB+) | 6GB+ VRAM 可运行 |
多视图一致性 | 通过 ControlNet 实现骨骼姿势控制 | 需手动调整或插件辅助 |
应用场景
- 设计领域:生成高精度广告素材、品牌设计图,支持风格定制(如赛博朋克、日系萌系)。
- 游戏开发:结合多视图生成技术,快速创建角色三视图原型,提升开发效率。
- 教育科研:用于 AI 绘图教学,通过参数调整(如随机种子、步数)帮助理解生成逻辑。
集成与使用
- ComfyUI 支持:用户可通过下载模型文件(如
FP8 单文件版本
)和配置文本编码器,在 ComfyUI 中搭建工作流。 - 车厘子工作室:提供免费调用 Flux Schnell 模型的功能,适合教学和快速原型设计。
Flux 凭借其 高性能架构 和 易用性,成为 AI 图像生成领域的新标杆,尤其适合需要高精度文字、多视图一致性的场景。开发者可通过 ComfyUI 等工具灵活部署,而普通用户也能通过开源版本快速体验其能力。
相关链接
模型官网
Black Forest Labs – Frontier AI Lab
Github
https://github.com/black-forest-labs/flux
API文档
什么是FP?
先说人话,后面的你可以看看不都行,如果你想的电脑或服务器性能比较好,显示的显存在16GB以上,内存在64GB以上,那你就下载FP16版本的,这样可以获得最好的绘画效果。
如果你电脑显存在8G以上,内存在32GB以上,那推荐你下载FP8版本。
如果你的电脑8G显存都不到,那你就下载GGUF版本吧。
但GGUF还有多个分支,比如Q2|Q3|Q4|Q5|Q6|Q8,虽然有FP4版本,但更推荐你下载GGUF版本。值得注意的是,这里的Q8和FP8差不多,但速度不如FP8,那为么还要选择Q8?因为这个版虽然速度慢,但效果更加可控且稳定,效果更好,官方也推荐低显存的用这个版本,更有前途。
我们先来了解一下基础知识,模型下载时能够看到分为FP16
|FP8
|FP4
|GGUF
等,这些其实就是模型的量化,其中FP16
需要的系统资源最大,其它依次递减,值得单独一说的是GGUF
,GGUF
是通过量化技术
和缓存优化
提升加载速度,尤其在大模型推理中表现突出。
术语 | 全称/说明 | 所属框架/标准 |
---|---|---|
FP16 | NVIDIA 的 半精度浮点数(Half-Precision Floating Point),等同于 FP16。支持 GPU Tensor Core 加速。 | NVIDIA CUDA |
FP8 | NVIDIA 的 低精度浮点数(8-bit Floating Point),精度低于 FP16,但内存占用减半。部分场景需配合 INT8 混合精度使用。 | NVIDIA CUDA |
FP4 | NVIDIA 的 超低精度浮点数(4-bit Floating Point),精度更低,内存占用仅为 FP16 的 1/4。通常用于推理阶段或特定加速场景。 | NVIDIA CUDA(实验性支持) |
GGUF | Stability AI 开发的 混合精度存储格式,专为 GPU Tensor Core 设计,兼容 FP16/FP8 权重+FP8 激活,优化内存占用与计算效率。 | Stable Diffusion/GPT 等模型 |
内存占用
- FP16 : 占 FP32 的 1/2 → 适合大模型(如 7B 参数以上)部署。
- FP8 : 占 FP32 的 1/4 → 进一步压缩内存,但需权衡精度。
- FP4 : 占 FP32 的 1/8 → 极致压缩,仅适用于对精度要求不高的场景。
- GGUF : 动态混合精度(权重 FP16/FP8 + 激活 FP8),内存占用接近 FP8/FP4,但灵活性更高。
计算效率
- FP16/FP8/FP4 : 直接利用 GPU 的 Tensor Core 加速矩阵运算,性能接近 FP32。
- GGUF : 通过 量化技术 和 缓存优化 提升加载速度,尤其在大模型推理中表现突出。
精度损失
格式 | 数值范围 | 适用场景 |
---|---|---|
FP32 | ±1e308 | 精确计算(如科学模拟、高精度图像生成) |
FP16 | ±65536 | 平衡精度与性能(Stable Diffusion 默认) |
FP8 | ±128 | 快速推理(需权衡精度,如文本生成) |
FP4 | ±5.96e-3 | 极端压缩场景(需验证精度容忍度) |
文件体积
- FP32: 最大 → 占用约 8GB/10B 参数。
- FP16: 约 4GB/10B 参数。
- FP8/FP4: 约 1-2GB/10B 参数(具体依模型结构而定)。
- GGUF: 类似 FP8/FP4,但文件体积可能略小(因优化编码)。
基础模型
注意,无论你使用下面哪个模型,都是需要VAE模型和CLIP模型的,这是必须要下载的,你可以理解为这是配套设施,只下载基础模型是无法使用的。
无论你想下载两个模型,你都能看到有Dev和Schnell这两个版本可以选择,关于这两个模型的区别上面已经说了,但为了防止没有耐心的人不看,所以这里再说一下有什么区别,如果你的硬件不是特别差,那就整个Dev版本的。
- Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
- Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究,效果比Schnell版本要好。
FP16-官方版
以下是官方版的FP16大模型,显存需要16GB以上,内存需要64GB以上,对硬件要求苛刻,效果极佳,但速度较慢,需要额外下载VAE模型,VAE的下载地址在后面。
下载后的模型存放位置:ComfyUl\models\unet
FP8-ComfyUI版
如果你的设备显存在8GB以上,内存在32GB以上,可以使用该模型。
注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAE
|CLIP-L
|T5XXL
模型。
下载后的模型存放位置:ComfyUl\models\checkpoints
FP8-Kijia版
虽然这个也不错,但如果你想下载FP8版本,还是推荐下载上面ComfyUI版的FP8。
下载后的模型存放位置:ComfyUl\models\unet
NF4-张吕敏版(量化模型)
个人觉得不太好用,所以没有下载到网盘,感兴趣且有条件的用户可以自行【点击此处】前往拥抱脸
下载。
名称 | 类型 | 大小 | 格式 |
---|---|---|---|
flux1-dev-bnb-nf4-unet.safetensors | Dev-NF4 | 6.14GB | Safetensors |
flux1-dev-bnb-nf4-v2-unet.safetensors | Dev-NF4-V2 | 6.7GB | Safetensors |
flux1-schnell-bnb-nf4-unet.safetensors | Schnell-NF4 | 6.14GB | Safetensors |
flux1-schnell-bnb-nf4-v2-unet.safetensors | Schnell-NF4-V2 | 6.69GB | Safetensors |
注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAE
|CLIP-L
|T5XXL
模型。
下载后的模型存放位置:ComfyUl\models\checkpoints
GGUF(量化模型)
官方已不推荐使用NF4|FP4,如果你想下载FP4类型的模型,那么推荐直接下载GGUF版本的Q4。
下面模型中,Q4对应的就是量化后的FP4,Q8就是量化后的FP8,虽然速度上不如直接使用FP8,但是稳定,对硬件的要求低。
注意:使用该版本需要GGUF的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAE
|CLIP-L
|T5XXL
模型。
下载后的模型存放位置:ComfyUl\models\unet
为什么Q4和Q5存在多个后缀?我应该下载哪一个?下面是详细的解释,如果你看不懂也没关系,随便下载一个就行,都差不太多。
Flux绘画模型存在多个Q4、Q5等版本的后缀,主要与量化技术、优化策略及显存适配相关。以下是不同后缀的常见含义及区别:
- 量化级别(Q+数字)后缀中的
Q4
、Q5
等表示量化参数版本。例如:
Q4_0
、Q4_1
:同一量化级别(Q4)的不同优化迭代版本,可能通过调整量化精度或算法进一步降低显存占用。Q8_0
:更高量化级别,显存需求更大(如12.7 GB),但生成质量可能更优。- 量化策略(K/S等字母组合)后缀中的
K
、S
等字母可能代表特定量化策略:
K_S
:结合K-means聚类和稀疏量化技术,显存占用更低(如Q4_K_S为6.81 GB),适合低显存设备。K
:单独使用K-means量化,平衡显存与质量。- 模型架构差异部分版本(如
F16
)可能基于FP16精度开发,而Q
系列为GGUF量化格式,两者在存储效率和加载速度上有差异。后缀通过数字、字母组合区分量化技术、优化版本及硬件适配性,用户可根据显存容量(如6G显存选Q4_K_S,12G以上可选Q8_0)和生成需求选择合适版本。
VAE模型
只要你使用了Flux模型,那么基本都是需要VAE文件的,所以不用管自己下载的什么版本,直接下载VAE文件。
下载后的模型存放位置:ComfyUl\models\vae
Clip模型
如果你的硬件比较好,那就下载clip_l和t5xxl_fp16这两个模型。
如果你的硬件条件一般,那就下载clip_l和t5xxl_fp8_e4m3fn这两个模型。
几乎所有基础模型
都是需要Clip模型
的,解释来解释去的,反而容易乱,反正模型也不大,建议无脑全部下载吧。
下载后的模型存放位置:ComfyUl\models\clip
工作流
本站也提供了配套的各项工作流给大家,如果有需要,可以按需下载。
注意:该套工作流和模型需要相应的插件,插件在本文末尾可以找到。

LoRA
部分工作流中是存在LoRA节点的,如果你不想下载LoRA模型,可以屏蔽工作流中关于LoRA的节点。
下载后的模型存放位置:ComfyUl\models\xlabs\loras


各压缩包内LoRA模型详细信息如下:
LoRA.rar ├─anime_lora.safetensors ├─art_lora.safetensors ├─disney_lora.safetensors ├─furry_lora.safetensors ├─mjv6_lora.safetensors ├─realism_lora.safetensors └─scenery_lora.safetensors
LoRA_ComfyUI.rar ├─anime_lora_comfy_converted.safetensors ├─art_lora_comfy_converted.safetensors ├─disney_lora_comfy_converted.safetensors ├─mjv6_lora_comfy_converted.safetensors ├─realism_lora_comfy_converted.safetensors └─scenery_lora_comfy_converted.safetensors
ComfyUI插件
你可能在使用模型或加载同坐流时遇到如下报错提示,这是因为你还没有安装相应的插件。

如果你打算使用NF4或张吕敏版本的模型,那么这里有一项特殊操作,你需要打开ComfyUI的终端,在终端中执行
bitsandbytes>=0.43.0
,否则无法加载工作流和模型,会持续报错。如果你不打算使用NF4或张吕敏版本的模型,那么可以忽略此步骤。
iP-Adapter
此为视觉模型,按需下载。
Controlnet
下载后的模型存放位置:ComfyUl\models\xlabs\Controlnets
Flux模型更新|2024-11-21
懒的整理了,直接打包发出来吧。
下载后的文件目录如下:
2024-11-21 ├─Flux-工作流全.json ├─深度+线稿lora │ ├─flux1-canny-dev-lora.safetensors │ └─flux1-depth-dev-lora.safetensors ├─深度+线稿大模型 │ ├─flux1-canny-dev.safetensors │ └─flux1-depth-dev.safetensors ├─重绘大模型 │ └─flux1-fill-dev.safetensors └─风格模型 ├─flux1-redux-dev.safetensors └─sigclip_vision_patch14_384.safetensors
ComfyUI对应的模型路径如下:
ComfyUI ├─models │ └─clip_vision │ └─sigclip_vision_patch14_384.safetensors │ └─syle_models │ └─flux1-redux-dev.safetensors │ └─lora │ ├─flux1-canny-dev-lora.safetensors │ └─flux1-depth-dev-lora.safetensors │ └─unet │ └─flux1-fill-dev.safetensors │ ├─flux1-canny-dev.safetensors │ └─flux1-depth-dev.safetensors
总结
太太太太太繁琐了,可能个别地方没写清楚,不明白的地方可以留言提问。
此文章由OpenAI开源维基百科原创发布,如若转载请注明出处:https://openai.wiki/flux-model.html