Flux|模型下载

本文提供Flux模型的全面解析与下载合集,涵盖Schnell/Dev/Pro三大版本及FP16/FP8/GGUF等量化类型。详细说明不同硬件配置的适配方案(16GB/8GB显存)、模型特性(文字生成/多视图一致性)及ComfyUI集成方法,包含VAE/CLIP/IP-Adapter等配套模型、工作流与插件下载地址。适合设计师、开发者及AI爱好者快速部署高性能图像生成工具。

ComfyUI&SD通用Flux模型LoRA权重多版本下载合集

问君能有几多愁,恰似Flux的5大模型3大插件3小模型下载地址整理!

AI真的是普通人越来越难玩了,怎么现在下载个模型都这么复杂,不同FP要对应不同的模型,不同的模型要对应不同的衍生小模型。

最最可恶的是,人家官方免费提供的模型,网上这些居然要求收费下载?要么就是让你必须进群才发下载地址,你比人家Apache-2.0的开源协议都牛逼。

Flux介绍

Flux 是由 Black Forest Labs(前 Stable Diffusion 核心成员创立)开发的 AI 图像生成模型,凭借其混合架构和先进技术,在文字生成、细节渲染等方面表现突出。以下是关键信息整理:


模型简介

核心特性与技术优势

  • 架构创新:采用 混合多模态+并行扩散变换器 架构,参数规模达 120 亿,结合流匹配(flow matching)技术提升训练效率。
  • 文字生成能力:相比 Stable Diffusion,Flux 在图片中生成 清晰可读文字 的能力显著提升,尤其擅长复杂排版场景。
  • 硬件效率:通过旋转位置嵌入和并行注意力层优化,支持 16GB+ VRAM 的硬件配置,生成速度较快(如 Schnell 版本)。
  • 分辨率灵活性:支持 0.1-2.0 兆像素 的多种宽高比,适应性更强。

版本与适用场景

Flux 提供三个版本:

  • Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
  • Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究。
  • Pro(专业版,闭源 API):商业级性能,适用于企业级高精度需求。

Flux 与 Stable Diffusion 的对比

特性FluxStable Diffusion
文字生成更清晰、可读性高易出错,需额外插件优化
分辨率支持0.1-2.0 兆像素灵活适配依赖版本,部分限制较多
硬件需求16GB+ VRAM(推荐 24GB+)6GB+ VRAM 可运行
多视图一致性通过 ControlNet 实现骨骼姿势控制需手动调整或插件辅助

应用场景

  • 设计领域:生成高精度广告素材、品牌设计图,支持风格定制(如赛博朋克、日系萌系)。
  • 游戏开发:结合多视图生成技术,快速创建角色三视图原型,提升开发效率。
  • 教育科研:用于 AI 绘图教学,通过参数调整(如随机种子、步数)帮助理解生成逻辑。

集成与使用

  • ComfyUI 支持:用户可通过下载模型文件(如 FP8 单文件版本)和配置文本编码器,在 ComfyUI 中搭建工作流。
  • 车厘子工作室:提供免费调用 Flux Schnell 模型的功能,适合教学和快速原型设计。

Flux 凭借其 高性能架构易用性,成为 AI 图像生成领域的新标杆,尤其适合需要高精度文字、多视图一致性的场景。开发者可通过 ComfyUI 等工具灵活部署,而普通用户也能通过开源版本快速体验其能力。

相关链接

模型官网

Black Forest Labs – Frontier AI Lab

Github

https://github.com/black-forest-labs/flux

API文档

BFL Docs

什么是FP?

先说人话,后面的你可以看看不都行,如果你想的电脑或服务器性能比较好,显示的显存在16GB以上,内存在64GB以上,那你就下载FP16版本的,这样可以获得最好的绘画效果。

如果你电脑显存在8G以上,内存在32GB以上,那推荐你下载FP8版本。

如果你的电脑8G显存都不到,那你就下载GGUF版本吧。

但GGUF还有多个分支,比如Q2|Q3|Q4|Q5|Q6|Q8,虽然有FP4版本,但更推荐你下载GGUF版本。值得注意的是,这里的Q8和FP8差不多,但速度不如FP8,那为么还要选择Q8?因为这个版虽然速度慢,但效果更加可控且稳定,效果更好,官方也推荐低显存的用这个版本,更有前途。


我们先来了解一下基础知识,模型下载时能够看到分为FP16FP8FP4GGUF等,这些其实就是模型的量化,其中FP16需要的系统资源最大,其它依次递减,值得单独一说的是GGUFGGUF是通过量化技术缓存优化提升加载速度,尤其在大模型推理中表现突出。

术语全称/说明所属框架/标准
FP16NVIDIA 的 半精度浮点数(Half-Precision Floating Point),等同于 FP16。支持 GPU Tensor Core 加速。NVIDIA CUDA
FP8NVIDIA 的 低精度浮点数(8-bit Floating Point),精度低于 FP16,但内存占用减半。部分场景需配合 INT8 混合精度使用。NVIDIA CUDA
FP4NVIDIA 的 超低精度浮点数(4-bit Floating Point),精度更低,内存占用仅为 FP16 的 1/4。通常用于推理阶段或特定加速场景。NVIDIA CUDA(实验性支持)
GGUFStability AI 开发的 混合精度存储格式,专为 GPU Tensor Core 设计,兼容 FP16/FP8 权重+FP8 激活,优化内存占用与计算效率。Stable Diffusion/GPT 等模型

内存占用

  • FP16 : 占 FP32 的 1/2 → 适合大模型(如 7B 参数以上)部署。
  • FP8 : 占 FP32 的 1/4 → 进一步压缩内存,但需权衡精度。
  • FP4 : 占 FP32 的 1/8 → 极致压缩,仅适用于对精度要求不高的场景。
  • GGUF : 动态混合精度(权重 FP16/FP8 + 激活 FP8),内存占用接近 FP8/FP4,但灵活性更高。

计算效率

  • FP16/FP8/FP4 : 直接利用 GPU 的 Tensor Core 加速矩阵运算,性能接近 FP32。
  • GGUF : 通过 量化技术 和 缓存优化 提升加载速度,尤其在大模型推理中表现突出。

精度损失

格式数值范围适用场景
FP32±1e308精确计算(如科学模拟、高精度图像生成)
FP16±65536平衡精度与性能(Stable Diffusion 默认)
FP8±128快速推理(需权衡精度,如文本生成)
FP4±5.96e-3极端压缩场景(需验证精度容忍度)

文件体积

  • FP32: 最大 → 占用约 8GB/10B 参数。
  • FP16: 约 4GB/10B 参数。
  • FP8/FP4: 约 1-2GB/10B 参数(具体依模型结构而定)。
  • GGUF: 类似 FP8/FP4,但文件体积可能略小(因优化编码)。

基础模型

注意,无论你使用下面哪个模型,都是需要VAE模型和CLIP模型的,这是必须要下载的,你可以理解为这是配套设施,只下载基础模型是无法使用的。

无论你想下载两个模型,你都能看到有Dev和Schnell这两个版本可以选择,关于这两个模型的区别上面已经说了,但为了防止没有耐心的人不看,所以这里再说一下有什么区别,如果你的硬件不是特别差,那就整个Dev版本的。

  • Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
  • Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究,效果比Schnell版本要好。

FP16-官方版

以下是官方版的FP16大模型,显存需要16GB以上,内存需要64GB以上,对硬件要求苛刻,效果极佳,但速度较慢,需要额外下载VAE模型,VAE的下载地址在后面。

flux1-Dev.safetensors

提取密码 文件说明 Dev-FP16 文件大小 22.17GB 文件格式 Safetensors 资源价格 免费 下载次数 0

flux1-schnell.sft

提取密码 文件说明 Schnell-FP16 文件大小 22.15GB 文件格式 SFT 资源价格 免费 下载次数 0

下载后的模型存放位置:ComfyUl\models\unet

FP8-ComfyUI版

如果你的设备显存在8GB以上,内存在32GB以上,可以使用该模型。

flux1-dev-fp8-org.safetensors

提取密码 文件说明 Dev-FP8 文件大小 16.06GB 文件格式 Safetensors 资源价格 免费 下载次数 0

flux1-schnell-fp8-org.safetensors

提取密码 文件说明 Schnell-FP8 文件大小 16.05GB 文件格式 Safetensors 资源价格 免费 下载次数 0

注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUl\models\checkpoints

FP8-Kijia版

虽然这个也不错,但如果你想下载FP8版本,还是推荐下载上面ComfyUI版的FP8。

flux1-dev-fp8.safetensors

提取密码 文件说明 Dev-FP8 文件大小 11.08GB 文件格式 Safetensors 资源价格 免费 下载次数 0

flux1-schnell-fp8.safetensors

提取密码 文件说明 Schnell-FP8 文件大小 11.07GB 文件格式 Safetensors 资源价格 免费 下载次数 0

下载后的模型存放位置:ComfyUl\models\unet

NF4-张吕敏版(量化模型)

个人觉得不太好用,所以没有下载到网盘,感兴趣且有条件的用户可以自行【点击此处】前往拥抱脸下载。

名称类型大小格式
flux1-dev-bnb-nf4-unet.safetensorsDev-NF46.14GBSafetensors
flux1-dev-bnb-nf4-v2-unet.safetensorsDev-NF4-V26.7GBSafetensors
flux1-schnell-bnb-nf4-unet.safetensorsSchnell-NF46.14GBSafetensors
flux1-schnell-bnb-nf4-v2-unet.safetensorsSchnell-NF4-V26.69GBSafetensors

注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUl\models\checkpoints

GGUF(量化模型)

官方已不推荐使用NF4|FP4,如果你想下载FP4类型的模型,那么推荐直接下载GGUF版本的Q4。

下面模型中,Q4对应的就是量化后的FP4,Q8就是量化后的FP8,虽然速度上不如直接使用FP8,但是稳定,对硬件的要求低。

flux1-dev-Q8_0.gguf

提取密码 文件说明 Dev-Q8-0 文件大小 11.84GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q6_K.gguf

提取密码 文件说明 Dev-Q6-K 文件大小 9.18GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q5_1.gguf

提取密码 文件说明 Dev-Q5-1 文件大小 8.39GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q5_K_S.gguf

提取密码 文件说明 Dev-Q5_K_S 文件大小 7.72GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q5_0.gguf

提取密码 文件说明 Dev-Q5_0 文件大小 7.70GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q4_K_S.gguf

提取密码 文件说明 Dev-Q4_K_S 文件大小 6.34GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q4_1.gguf

提取密码 文件说明 Dev-Q4_1 文件大小 7.01GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q4_0.gguf

提取密码 文件说明 Dev-Q4_0 文件大小 6.32GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q3_K_S.gguf

提取密码 文件说明 Dev-Q3_K_S 文件大小 4.87GB 文件格式 GGUF 资源价格 免费 下载次数 0

flux1-dev-Q2_K.gguf

提取密码 文件说明 Dev-Q2_K 文件大小 3.76GB 文件格式 GGUF 资源价格 免费 下载次数 0

注意:使用该版本需要GGUF的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUl\models\unet

为什么Q4和Q5存在多个后缀?我应该下载哪一个?下面是详细的解释,如果你看不懂也没关系,随便下载一个就行,都差不太多。

Flux绘画模型存在多个Q4、Q5等版本的后缀,主要与量化技术、优化策略及显存适配相关。以下是不同后缀的常见含义及区别:

  1. 量化级别(Q+数字)后缀中的Q4Q5等表示量化参数版本。例如:
    • Q4_0Q4_1:同一量化级别(Q4)的不同优化迭代版本,可能通过调整量化精度或算法进一步降低显存占用。
    • Q8_0:更高量化级别,显存需求更大(如12.7 GB),但生成质量可能更优。
  2. 量化策略(K/S等字母组合)后缀中的KS等字母可能代表特定量化策略:
    • K_S:结合K-means聚类和稀疏量化技术,显存占用更低(如Q4_K_S为6.81 GB),适合低显存设备。
    • K:单独使用K-means量化,平衡显存与质量。
  3. 模型架构差异部分版本(如F16)可能基于FP16精度开发,而Q系列为GGUF量化格式,两者在存储效率和加载速度上有差异。

后缀通过数字、字母组合区分量化技术、优化版本及硬件适配性,用户可根据显存容量(如6G显存选Q4_K_S,12G以上可选Q8_0)和生成需求选择合适版本。

VAE模型

只要你使用了Flux模型,那么基本都是需要VAE文件的,所以不用管自己下载的什么版本,直接下载VAE文件。

ae.sft

提取密码 文件说明 VAE 文件大小 319.77 文件格式 SFT 资源价格 免费 下载次数 0

下载后的模型存放位置:ComfyUl\models\vae

Clip模型

如果你的硬件比较好,那就下载clip_l和t5xxl_fp16这两个模型。

如果你的硬件条件一般,那就下载clip_l和t5xxl_fp8_e4m3fn这两个模型。

几乎所有基础模型都是需要Clip模型的,解释来解释去的,反而容易乱,反正模型也不大,建议无脑全部下载吧。

clip_l.safetensors

提取密码 文件说明 L 文件大小 234.74MB 文件格式 Safetensors 资源价格 免费 下载次数 0

t5xxl_fp8_e4m3fn.safetensors

提取密码 文件说明 FP8 文件大小 4.56GB 文件格式 Safetensors 资源价格 免费 下载次数 0

t5xxl_fp16.safetensors

提取密码 文件说明 FP16 文件大小 9.12GB 文件格式 Safetensors 资源价格 免费 下载次数 0

下载后的模型存放位置:ComfyUl\models\clip

工作流

本站也提供了配套的各项工作流给大家,如果有需要,可以按需下载。

注意:该套工作流和模型需要相应的插件,插件在本文末尾可以找到。

Flux|模型下载

FP8文生图+LoRA.json

提取密码 文件说明 文件大小 11.22KB 文件格式 JSON 资源价格 免费 下载次数 0

GGUF文生图.json

提取密码 文件说明 文件大小 11.80KB 文件格式 JSON 资源价格 免费 下载次数 0

NF4文生图.json

提取密码 文件说明 文件大小 10.73KB 文件格式 JSON 资源价格 免费 下载次数 0

官方文生图+ControlNet深度.json

提取密码 文件说明 文件大小 14.24KB 文件格式 JSON 资源价格 免费 下载次数 0

官方文生图+ControlNet硬边缘.json

提取密码 文件说明 文件大小 14.21KB 文件格式 JSON 资源价格 免费 下载次数 0

官方文生图+ControlNet软边缘.json

提取密码 文件说明 文件大小 14.35KB 文件格式 JSON 资源价格 免费 下载次数 0

官方文生图+IPAdapter风格迁移.json

提取密码 文件说明 文件大小 13.78KB 文件格式 JSON 资源价格 免费 下载次数 0

官方文生图+Lora(完整版).json

提取密码 文件说明 文件大小 13.43KB 文件格式 JSON 资源价格 免费 下载次数 0

官方文生图+Lora(简化版).json

提取密码 文件说明 文件大小 12.13KB 文件格式 JSON 资源价格 免费 下载次数 0

LoRA

部分工作流中是存在LoRA节点的,如果你不想下载LoRA模型,可以屏蔽工作流中关于LoRA的节点。

下载后的模型存放位置:ComfyUl\models\xlabs\loras

F.1-超写实逼真黑悟空-支持在线生图.Safetensors

提取密码 文件说明 孙悟空 文件大小 584.36MB 文件格式 Safetensors 资源价格 免费 下载次数 0

LoRA.rar

提取密码 文件说明 通用版 文件大小 464.43MB 文件格式 RAR 资源价格 免费 下载次数 0

LoRA_ComfyUI.rar

提取密码 文件说明 ComfyUI版 文件大小 399.63MB 文件格式 RAR 资源价格 免费 下载次数 0

各压缩包内LoRA模型详细信息如下:

LoRA.rar
├─anime_lora.safetensors 
├─art_lora.safetensors 
├─disney_lora.safetensors 
├─furry_lora.safetensors 
├─mjv6_lora.safetensors 
├─realism_lora.safetensors 
└─scenery_lora.safetensors 
LoRA_ComfyUI.rar
├─anime_lora_comfy_converted.safetensors 
├─art_lora_comfy_converted.safetensors 
├─disney_lora_comfy_converted.safetensors 
├─mjv6_lora_comfy_converted.safetensors 
├─realism_lora_comfy_converted.safetensors 
└─scenery_lora_comfy_converted.safetensors 

ComfyUI插件

你可能在使用模型或加载同坐流时遇到如下报错提示,这是因为你还没有安装相应的插件。

Flux|模型下载

如果你打算使用NF4或张吕敏版本的模型,那么这里有一项特殊操作,你需要打开ComfyUI的终端,在终端中执行bitsandbytes>=0.43.0,否则无法加载工作流和模型,会持续报错。如果你不打算使用NF4或张吕敏版本的模型,那么可以忽略此步骤。

comfyui_controlnet_aux-main.zip

提取密码 文件说明 文件大小 41.39MB 文件格式 ZIP 资源价格 免费 下载次数 0

gguf-main.zip

提取密码 文件说明 文件大小 90.83KB 文件格式 ZIP 资源价格 免费 下载次数 0

ComfyUI-GGUF-main.zip

提取密码 文件说明 文件大小 29.74KB 文件格式 ZIP 资源价格 免费 下载次数 0

x-flux-comfyui-main.zip

提取密码 文件说明 文件大小 1.58MB 文件格式 ZIP 资源价格 免费 下载次数 0

iP-Adapter

此为视觉模型,按需下载。

clip_vision_l.safetensors

提取密码 模型位置 ComfyUl\models\clip_vision 文件大小 1.59GB 文件格式 Safetensors 资源价格 免费 下载次数 0

flux-ip-adapter.safetensors

提取密码 模型位置 ComfyUl\models\xlabs\ipadapters 文件大小 936.28MB 文件格式 Safetensors 资源价格 免费 下载次数 0

Controlnet

下载后的模型存放位置:ComfyUl\models\xlabs\Controlnets

flux-canny-controlnet-v3.safetensors

提取密码 文件说明 硬化边 文件大小 1.39GB 文件格式 Safetensors 资源价格 免费 下载次数 0

flux-depth-controlnet-v3.safetensors

提取密码 文件说明 深度 文件大小 1.39GB 文件格式 Safetensors 资源价格 免费 下载次数 0

flux-hed-controlnet-v3.safetensors

提取密码 文件说明 软化边 文件大小 1.39GB 文件格式 Safetensors 资源价格 免费 下载次数 0

Flux模型更新|2024-11-21

懒的整理了,直接打包发出来吧。

2024-11-21

提取密码 文件说明 整合包 文件大小 69.7GB 文件格式 FILES 资源价格 免费 下载次数 0

下载后的文件目录如下:

2024-11-21
├─Flux-工作流全.json 
├─深度+线稿lora 
│ ├─flux1-canny-dev-lora.safetensors 
│ └─flux1-depth-dev-lora.safetensors 
├─深度+线稿大模型 
│ ├─flux1-canny-dev.safetensors 
│ └─flux1-depth-dev.safetensors 
├─重绘大模型 
│ └─flux1-fill-dev.safetensors 
└─风格模型 
  ├─flux1-redux-dev.safetensors 
  └─sigclip_vision_patch14_384.safetensors 

ComfyUI对应的模型路径如下:

ComfyUI
├─models
│ └─clip_vision
│    └─sigclip_vision_patch14_384.safetensors 
│ └─syle_models
│    └─flux1-redux-dev.safetensors 
│ └─lora
│    ├─flux1-canny-dev-lora.safetensors 
│    └─flux1-depth-dev-lora.safetensors 
│ └─unet
│    └─flux1-fill-dev.safetensors 
│    ├─flux1-canny-dev.safetensors 
│    └─flux1-depth-dev.safetensors 

总结

太太太太太繁琐了,可能个别地方没写清楚,不明白的地方可以留言提问。

此文章由OpenAI开源维基百科原创发布,如若转载请注明出处:https://openai.wiki/flux-model.html

(0)
上一篇 1天前
下一篇 2023-04-24 13:03

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

微信