Flux|模型下载

本文提供Flux模型的全面解析与下载合集,涵盖Schnell/Dev/Pro三大版本及FP16/FP8/GGUF等量化类型。详细说明不同硬件配置的适配方案(16GB/8GB显存)、模型特性(文字生成/多视图一致性)及ComfyUI集成方法,包含VAE/CLIP/IP-Adapter等配套模型、工作流与插件下载地址。适合设计师、开发者及AI爱好者快速部署高性能图像生成工具。

ComfyUI&SD通用Flux模型LoRA权重多版本下载合集

问君能有几多愁,恰似Flux的5大模型3大插件3小模型下载地址整理!

AI真的是普通人越来越难玩了,怎么现在下载个模型都这么复杂,不同FP要对应不同的模型,不同的模型要对应不同的衍生小模型。

最最可恶的是,人家官方免费提供的模型,网上这些居然要求收费下载?要么就是让你必须进群才发下载地址,你比人家Apache-2.0的开源协议都牛逼。

Flux介绍

Flux 是由 Black Forest Labs(前 Stable Diffusion 核心成员创立)开发的 AI 图像生成模型,凭借其混合架构和先进技术,在文字生成、细节渲染等方面表现突出。以下是关键信息整理:


模型简介

核心特性与技术优势

  • 架构创新:采用 混合多模态+并行扩散变换器 架构,参数规模达 120 亿,结合流匹配(flow matching)技术提升训练效率。
  • 文字生成能力:相比 Stable Diffusion,Flux 在图片中生成 清晰可读文字 的能力显著提升,尤其擅长复杂排版场景。
  • 硬件效率:通过旋转位置嵌入和并行注意力层优化,支持 16GB+ VRAM 的硬件配置,生成速度较快(如 Schnell 版本)。
  • 分辨率灵活性:支持 0.1-2.0 兆像素 的多种宽高比,适应性更强。

版本与适用场景

Flux 提供三个版本:

  • Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
  • Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究。
  • Pro(专业版,闭源 API):商业级性能,适用于企业级高精度需求。

Flux 与 Stable Diffusion 的对比

特性FluxStable Diffusion
文字生成更清晰、可读性高易出错,需额外插件优化
分辨率支持0.1-2.0 兆像素灵活适配依赖版本,部分限制较多
硬件需求16GB+ VRAM(推荐 24GB+)6GB+ VRAM 可运行
多视图一致性通过 ControlNet 实现骨骼姿势控制需手动调整或插件辅助

应用场景

  • 设计领域:生成高精度广告素材、品牌设计图,支持风格定制(如赛博朋克、日系萌系)。
  • 游戏开发:结合多视图生成技术,快速创建角色三视图原型,提升开发效率。
  • 教育科研:用于 AI 绘图教学,通过参数调整(如随机种子、步数)帮助理解生成逻辑。

集成与使用

  • ComfyUI 支持:用户可通过下载模型文件(如 FP8 单文件版本)和配置文本编码器,在 ComfyUI 中搭建工作流。
  • 车厘子工作室:提供免费调用 Flux Schnell 模型的功能,适合教学和快速原型设计。

Flux 凭借其 高性能架构易用性,成为 AI 图像生成领域的新标杆,尤其适合需要高精度文字、多视图一致性的场景。开发者可通过 ComfyUI 等工具灵活部署,而普通用户也能通过开源版本快速体验其能力。

相关链接

模型官网

Black Forest Labs – Frontier AI Lab

Github

https://github.com/black-forest-labs/flux

API文档

BFL Docs

什么是FP?

先说人话,后面的你可以看看不都行,如果你想的电脑或服务器性能比较好,显示的显存在16GB以上,内存在64GB以上,那你就下载FP16版本的,这样可以获得最好的绘画效果。

如果你电脑显存在8G以上,内存在32GB以上,那推荐你下载FP8版本。

如果你的电脑8G显存都不到,那你就下载GGUF版本吧。

但GGUF还有多个分支,比如Q2|Q3|Q4|Q5|Q6|Q8,虽然有FP4版本,但更推荐你下载GGUF版本。值得注意的是,这里的Q8和FP8差不多,但速度不如FP8,那为么还要选择Q8?因为这个版虽然速度慢,但效果更加可控且稳定,效果更好,官方也推荐低显存的用这个版本,更有前途。


我们先来了解一下基础知识,模型下载时能够看到分为FP16FP8FP4GGUF等,这些其实就是模型的量化,其中FP16需要的系统资源最大,其它依次递减,值得单独一说的是GGUFGGUF是通过量化技术缓存优化提升加载速度,尤其在大模型推理中表现突出。

术语全称/说明所属框架/标准
FP16NVIDIA 的 半精度浮点数(Half-Precision Floating Point),等同于 FP16。支持 GPU Tensor Core 加速。NVIDIA CUDA
FP8NVIDIA 的 低精度浮点数(8-bit Floating Point),精度低于 FP16,但内存占用减半。部分场景需配合 INT8 混合精度使用。NVIDIA CUDA
FP4NVIDIA 的 超低精度浮点数(4-bit Floating Point),精度更低,内存占用仅为 FP16 的 1/4。通常用于推理阶段或特定加速场景。NVIDIA CUDA(实验性支持)
GGUFStability AI 开发的 混合精度存储格式,专为 GPU Tensor Core 设计,兼容 FP16/FP8 权重+FP8 激活,优化内存占用与计算效率。Stable Diffusion/GPT 等模型

内存占用

  • FP16 : 占 FP32 的 1/2 → 适合大模型(如 7B 参数以上)部署。
  • FP8 : 占 FP32 的 1/4 → 进一步压缩内存,但需权衡精度。
  • FP4 : 占 FP32 的 1/8 → 极致压缩,仅适用于对精度要求不高的场景。
  • GGUF : 动态混合精度(权重 FP16/FP8 + 激活 FP8),内存占用接近 FP8/FP4,但灵活性更高。

计算效率

  • FP16/FP8/FP4 : 直接利用 GPU 的 Tensor Core 加速矩阵运算,性能接近 FP32。
  • GGUF : 通过 量化技术 和 缓存优化 提升加载速度,尤其在大模型推理中表现突出。

精度损失

格式数值范围适用场景
FP32±1e308精确计算(如科学模拟、高精度图像生成)
FP16±65536平衡精度与性能(Stable Diffusion 默认)
FP8±128快速推理(需权衡精度,如文本生成)
FP4±5.96e-3极端压缩场景(需验证精度容忍度)

文件体积

  • FP32: 最大 → 占用约 8GB/10B 参数。
  • FP16: 约 4GB/10B 参数。
  • FP8/FP4: 约 1-2GB/10B 参数(具体依模型结构而定)。
  • GGUF: 类似 FP8/FP4,但文件体积可能略小(因优化编码)。

基础模型

注意,无论你使用下面哪个模型,都是需要VAE模型和CLIP模型的,这是必须要下载的,你可以理解为这是配套设施,只下载基础模型是无法使用的。

无论你想下载两个模型,你都能看到有Dev和Schnell这两个版本可以选择,关于这两个模型的区别上面已经说了,但为了防止没有耐心的人不看,所以这里再说一下有什么区别,如果你的硬件不是特别差,那就整个Dev版本的。

  • Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
  • Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究,效果比Schnell版本要好。

FP16-官方版

以下是官方版的FP16大模型,显存需要16GB以上,内存需要64GB以上,对硬件要求苛刻,效果极佳,但速度较慢,需要额外下载VAE模型,VAE的下载地址在后面。

flux1-Dev.safetensors

提取密码 文件说明 Dev-FP16 文件大小 22.17GB 文件格式 Safetensors 资源价格 免费 下载次数 24

flux1-schnell.sft

提取密码 文件说明 Schnell-FP16 文件大小 22.15GB 文件格式 SFT 资源价格 免费 下载次数 16

下载后的模型存放位置:ComfyUl\models\unet

FP8-ComfyUI版

如果你的设备显存在8GB以上,内存在32GB以上,可以使用该模型。

flux1-dev-fp8-org.safetensors

提取密码 文件说明 Dev-FP8 文件大小 16.06GB 文件格式 Safetensors 资源价格 免费 下载次数 25

flux1-schnell-fp8-org.safetensors

提取密码 文件说明 Schnell-FP8 文件大小 16.05GB 文件格式 Safetensors 资源价格 免费 下载次数 13

注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUl\models\checkpoints

FP8-Kijia版

虽然这个也不错,但如果你想下载FP8版本,还是推荐下载上面ComfyUI版的FP8。

flux1-dev-fp8.safetensors

提取密码 文件说明 Dev-FP8 文件大小 11.08GB 文件格式 Safetensors 资源价格 免费 下载次数 10

flux1-schnell-fp8.safetensors

提取密码 文件说明 Schnell-FP8 文件大小 11.07GB 文件格式 Safetensors 资源价格 免费 下载次数 10

下载后的模型存放位置:ComfyUl\models\unet

NF4-张吕敏版(量化模型)

个人觉得不太好用,所以没有下载到网盘,感兴趣且有条件的用户可以自行【点击此处】前往拥抱脸下载。

名称类型大小格式
flux1-dev-bnb-nf4-unet.safetensorsDev-NF46.14GBSafetensors
flux1-dev-bnb-nf4-v2-unet.safetensorsDev-NF4-V26.7GBSafetensors
flux1-schnell-bnb-nf4-unet.safetensorsSchnell-NF46.14GBSafetensors
flux1-schnell-bnb-nf4-v2-unet.safetensorsSchnell-NF4-V26.69GBSafetensors

注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUl\models\checkpoints

GGUF(量化模型)

官方已不推荐使用NF4|FP4,如果你想下载FP4类型的模型,那么推荐直接下载GGUF版本的Q4。

下面模型中,Q4对应的就是量化后的FP4,Q8就是量化后的FP8,虽然速度上不如直接使用FP8,但是稳定,对硬件的要求低。

flux1-dev-Q8_0.gguf

提取密码 文件说明 Dev-Q8-0 文件大小 11.84GB 文件格式 GGUF 资源价格 免费 下载次数 12

flux1-dev-Q6_K.gguf

提取密码 文件说明 Dev-Q6-K 文件大小 9.18GB 文件格式 GGUF 资源价格 免费 下载次数 9

flux1-dev-Q5_1.gguf

提取密码 文件说明 Dev-Q5-1 文件大小 8.39GB 文件格式 GGUF 资源价格 免费 下载次数 9

flux1-dev-Q5_K_S.gguf

提取密码 文件说明 Dev-Q5_K_S 文件大小 7.72GB 文件格式 GGUF 资源价格 免费 下载次数 6

flux1-dev-Q5_0.gguf

提取密码 文件说明 Dev-Q5_0 文件大小 7.70GB 文件格式 GGUF 资源价格 免费 下载次数 9

flux1-dev-Q4_K_S.gguf

提取密码 文件说明 Dev-Q4_K_S 文件大小 6.34GB 文件格式 GGUF 资源价格 免费 下载次数 14

flux1-dev-Q4_1.gguf

提取密码 文件说明 Dev-Q4_1 文件大小 7.01GB 文件格式 GGUF 资源价格 免费 下载次数 10

flux1-dev-Q4_0.gguf

提取密码 文件说明 Dev-Q4_0 文件大小 6.32GB 文件格式 GGUF 资源价格 免费 下载次数 7

flux1-dev-Q3_K_S.gguf

提取密码 文件说明 Dev-Q3_K_S 文件大小 4.87GB 文件格式 GGUF 资源价格 免费 下载次数 9

flux1-dev-Q2_K.gguf

提取密码 文件说明 Dev-Q2_K 文件大小 3.76GB 文件格式 GGUF 资源价格 免费 下载次数 9

注意:使用该版本需要GGUF的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUl\models\unet

为什么Q4和Q5存在多个后缀?我应该下载哪一个?下面是详细的解释,如果你看不懂也没关系,随便下载一个就行,都差不太多。

Flux绘画模型存在多个Q4、Q5等版本的后缀,主要与量化技术、优化策略及显存适配相关。以下是不同后缀的常见含义及区别:

  1. 量化级别(Q+数字)后缀中的Q4Q5等表示量化参数版本。例如:
    • Q4_0Q4_1:同一量化级别(Q4)的不同优化迭代版本,可能通过调整量化精度或算法进一步降低显存占用。
    • Q8_0:更高量化级别,显存需求更大(如12.7 GB),但生成质量可能更优。
  2. 量化策略(K/S等字母组合)后缀中的KS等字母可能代表特定量化策略:
    • K_S:结合K-means聚类和稀疏量化技术,显存占用更低(如Q4_K_S为6.81 GB),适合低显存设备。
    • K:单独使用K-means量化,平衡显存与质量。
  3. 模型架构差异部分版本(如F16)可能基于FP16精度开发,而Q系列为GGUF量化格式,两者在存储效率和加载速度上有差异。

后缀通过数字、字母组合区分量化技术、优化版本及硬件适配性,用户可根据显存容量(如6G显存选Q4_K_S,12G以上可选Q8_0)和生成需求选择合适版本。

VAE模型

只要你使用了Flux模型,那么基本都是需要VAE文件的,所以不用管自己下载的什么版本,直接下载VAE文件。

ae.sft

提取密码 文件说明 VAE 文件大小 319.77 文件格式 SFT 资源价格 免费 下载次数 23

下载后的模型存放位置:ComfyUl\models\vae

Clip模型

如果你的硬件比较好,那就下载clip_l和t5xxl_fp16这两个模型。

如果你的硬件条件一般,那就下载clip_l和t5xxl_fp8_e4m3fn这两个模型。

几乎所有基础模型都是需要Clip模型的,解释来解释去的,反而容易乱,反正模型也不大,建议无脑全部下载吧。

clip_l.safetensors

提取密码 文件说明 L 文件大小 234.74MB 文件格式 Safetensors 资源价格 免费 下载次数 19

t5xxl_fp8_e4m3fn.safetensors

提取密码 文件说明 FP8 文件大小 4.56GB 文件格式 Safetensors 资源价格 免费 下载次数 15

t5xxl_fp16.safetensors

提取密码 文件说明 FP16 文件大小 9.12GB 文件格式 Safetensors 资源价格 免费 下载次数 13

下载后的模型存放位置:ComfyUl\models\clip

工作流

本站也提供了配套的各项工作流给大家,如果有需要,可以按需下载。

注意:该套工作流和模型需要相应的插件,插件在本文末尾可以找到。

Flux|模型下载

FP8文生图+LoRA.json

提取密码 文件说明 文件大小 11.22KB 文件格式 JSON 资源价格 免费 下载次数 14

GGUF文生图.json

提取密码 文件说明 文件大小 11.80KB 文件格式 JSON 资源价格 免费 下载次数 16

NF4文生图.json

提取密码 文件说明 文件大小 10.73KB 文件格式 JSON 资源价格 免费 下载次数 11

官方文生图+ControlNet深度.json

提取密码 文件说明 文件大小 14.24KB 文件格式 JSON 资源价格 免费 下载次数 9

官方文生图+ControlNet硬边缘.json

提取密码 文件说明 文件大小 14.21KB 文件格式 JSON 资源价格 免费 下载次数 11

官方文生图+ControlNet软边缘.json

提取密码 文件说明 文件大小 14.35KB 文件格式 JSON 资源价格 免费 下载次数 11

官方文生图+IPAdapter风格迁移.json

提取密码 文件说明 文件大小 13.78KB 文件格式 JSON 资源价格 免费 下载次数 12

官方文生图+Lora(完整版).json

提取密码 文件说明 文件大小 13.43KB 文件格式 JSON 资源价格 免费 下载次数 11

官方文生图+Lora(简化版).json

提取密码 文件说明 文件大小 12.13KB 文件格式 JSON 资源价格 免费 下载次数 11

LoRA

部分工作流中是存在LoRA节点的,如果你不想下载LoRA模型,可以屏蔽工作流中关于LoRA的节点。

下载后的模型存放位置:ComfyUl\models\xlabs\loras

F.1-超写实逼真黑悟空-支持在线生图.Safetensors

提取密码 文件说明 孙悟空 文件大小 584.36MB 文件格式 Safetensors 资源价格 免费 下载次数 13

LoRA.rar

提取密码 文件说明 通用版 文件大小 464.43MB 文件格式 RAR 资源价格 免费 下载次数 12

LoRA_ComfyUI.rar

提取密码 文件说明 ComfyUI版 文件大小 399.63MB 文件格式 RAR 资源价格 免费 下载次数 10

各压缩包内LoRA模型详细信息如下:

LoRA.rar
├─anime_lora.safetensors 
├─art_lora.safetensors 
├─disney_lora.safetensors 
├─furry_lora.safetensors 
├─mjv6_lora.safetensors 
├─realism_lora.safetensors 
└─scenery_lora.safetensors 
LoRA_ComfyUI.rar
├─anime_lora_comfy_converted.safetensors 
├─art_lora_comfy_converted.safetensors 
├─disney_lora_comfy_converted.safetensors 
├─mjv6_lora_comfy_converted.safetensors 
├─realism_lora_comfy_converted.safetensors 
└─scenery_lora_comfy_converted.safetensors 

ComfyUI插件

你可能在使用模型或加载同坐流时遇到如下报错提示,这是因为你还没有安装相应的插件。

Flux|模型下载

如果你打算使用NF4或张吕敏版本的模型,那么这里有一项特殊操作,你需要打开ComfyUI的终端,在终端中执行bitsandbytes>=0.43.0,否则无法加载工作流和模型,会持续报错。如果你不打算使用NF4或张吕敏版本的模型,那么可以忽略此步骤。

comfyui_controlnet_aux-main.zip

提取密码 文件说明 文件大小 41.39MB 文件格式 ZIP 资源价格 免费 下载次数 11

gguf-main.zip

提取密码 文件说明 文件大小 90.83KB 文件格式 ZIP 资源价格 免费 下载次数 9

ComfyUI-GGUF-main.zip

提取密码 文件说明 文件大小 29.74KB 文件格式 ZIP 资源价格 免费 下载次数 9

x-flux-comfyui-main.zip

提取密码 文件说明 文件大小 1.58MB 文件格式 ZIP 资源价格 免费 下载次数 7

iP-Adapter

此为视觉模型,按需下载。

clip_vision_l.safetensors

提取密码 模型位置 ComfyUl\models\clip_vision 文件大小 1.59GB 文件格式 Safetensors 资源价格 免费 下载次数 12

flux-ip-adapter.safetensors

提取密码 模型位置 ComfyUl\models\xlabs\ipadapters 文件大小 936.28MB 文件格式 Safetensors 资源价格 免费 下载次数 11

Controlnet

下载后的模型存放位置:ComfyUl\models\xlabs\Controlnets

flux-canny-controlnet-v3.safetensors

提取密码 文件说明 硬化边 文件大小 1.39GB 文件格式 Safetensors 资源价格 免费 下载次数 11

flux-depth-controlnet-v3.safetensors

提取密码 文件说明 深度 文件大小 1.39GB 文件格式 Safetensors 资源价格 免费 下载次数 9

flux-hed-controlnet-v3.safetensors

提取密码 文件说明 软化边 文件大小 1.39GB 文件格式 Safetensors 资源价格 免费 下载次数 9

Flux模型更新|2024-11-21

懒的整理了,直接打包发出来吧。

2024-11-21

提取密码 文件说明 整合包 文件大小 69.7GB 文件格式 FILES 资源价格 免费 下载次数 15

下载后的文件目录如下:

2024-11-21
├─Flux-工作流全.json 
├─深度+线稿lora 
│ ├─flux1-canny-dev-lora.safetensors 
│ └─flux1-depth-dev-lora.safetensors 
├─深度+线稿大模型 
│ ├─flux1-canny-dev.safetensors 
│ └─flux1-depth-dev.safetensors 
├─重绘大模型 
│ └─flux1-fill-dev.safetensors 
└─风格模型 
  ├─flux1-redux-dev.safetensors 
  └─sigclip_vision_patch14_384.safetensors 

ComfyUI对应的模型路径如下:

ComfyUI
├─models
│ └─clip_vision
│    └─sigclip_vision_patch14_384.safetensors 
│ └─syle_models
│    └─flux1-redux-dev.safetensors 
│ └─lora
│    ├─flux1-canny-dev-lora.safetensors 
│    └─flux1-depth-dev-lora.safetensors 
│ └─unet
│    └─flux1-fill-dev.safetensors 
│    ├─flux1-canny-dev.safetensors 
│    └─flux1-depth-dev.safetensors 

总结

太太太太太繁琐了,可能个别地方没写清楚,不明白的地方可以留言提问。

此文章由OpenAI开源维基百科原创发布,如若转载请注明出处:https://openai.wiki/flux-model.html

(0)
上一篇 2025-03-05 22:51
下一篇 2025-03-07 03:09

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

评论列表(3条)

  • 匿名
    匿名 2025-03-08 00:57

    好家伙,居然还在更新

  • 111
    111 2025-03-08 00:58

    好家伙,居然还在更新

微信