Stable Diffusion|LoRA模型训练|极速版

本教程为LoRA模型训练极速版,本文将会抛弃kohya_ss大部分固定参数的讲解,只讲如何设置以及修改某一部分,你看完这篇教程,操作一次之后,可以在三十分钟内调教训练一个属于自己的订制LoRA模型。

LoRA模型训练教程|极速训练教程

之前已经两篇已经讲过了关于训练LoRA模型的所有相关内容,但是因为讲的过于细致,所以大家肯定有很多地方是一知半解的,其实常用的参数就只有那几个而已,本期将会为大家带来如何快速训练LoRA模型的教程。

在开始此教程之前,请确认电脑中已经安装部署完成kohya_ss,因为本文以训练为主,安装过程之前讲过,不做过多复述。

既然是极速版,那么本文将会抛弃大部分固定参数的讲解,只讲如何设置修改某一部分,你看完这篇教程,操作一次之后,可以在三十分钟内训练一个属于自己的订制LoRA模型。

前置教程

如果在本教程中存在不理解的部分,可以查阅如下文章,解决你所有的疑惑。

训练过程

训练一个模型需要哪些步骤?

准备图像素材裁切并抠像素材自动打标手动改标推算参数训练模型效果测试

这七个步骤其实并不繁琐,本站使用的素材数量为35张50步,只需要循环1次就能够得到较好的效果,下面开始教学吧。

准备图像素材

这一步没有什么好说的,假如你想训练一个LoRA人物,那么你必须要先准备关于此人物的相关图像素材。

素材描述

本次使用的模特素材是站长的女神”南韩魅魔-张娜英”,随便选了35张,打算训练50次。

如果你的素材只有十几张,那就训练个七八十次,适当提高训练次数即可。

之前介绍素材准备那一期,可能大家觉得对于素材的要求太高了,这次我们使用质量较低的图像素材,模糊、滤镜、各样的画风和妆容。

素材展示

素材下载

你们有福啦,这35张素材也打包送给你们吧。

张娜英-原图

提取密码 文件说明 文件大小 8.41MB 文件格式 RAR 资源价格 免费 下载次数 0

裁切并抠像素材

此部分内容之前本站介绍过三种方式,但是现在突然发现在Photoshop的新版很香啊,建议直接使用Photoshop手动裁切+自动抠像,点击两下就能完成抠像和裁切,已经是非常方便的了。

Photoshop下载

本站不提供盗版软件下载,但是提供指路链接,请自行【点击前往】探索。

操作教程

我们可以一次性在Photoshop中打开这35张图片,然后直接点击下面的移除背景按钮。

Stable Diffusion|LoRA模型训练|极速版

移除背景之后我们直接顺便裁切一下头部,记得输入512*512,不然可能不是1:1的比例。

然后拖拽选框至合适位置之后,双击裁切区域框,或者按键盘上的回车键,确定裁切。

Stable Diffusion|LoRA模型训练|极速版

选择文件导出导出为…,根据下方设置之后,点击蓝色的导出按钮即可。

Stable Diffusion|LoRA模型训练|极速版

熟练操作之后,平均1分钟导出3张,一共也没多少张,所以慢慢弄吧,毕竟这样在生成Tag标签时,效果更好一些。

自动打标

打开SD,切换同至图像预处理选项卡,输入我们裁切好之后的图像文件夹,然后再新建一个文件夹用来存放自动生成的Tag,记得勾选Keep original size和使用Deepbooru生成标签选项,最后点击Preprocess按钮,开始自动打标。

Stable Diffusion|LoRA模型训练|极速版

自动打标速度还是非常快的,35张图在几秒内就已经处理完成了。

手动改标

使用BooruDatasetTagManager软件加载已经生成Tag的文件夹,加载完成之后点击自动翻译。

改标描述

老生常谈,标签生成时可能会生成鼻子嘴巴张嘴绿色美瞳帽子红色头发等标签,哪些应该保留?哪些应该删除呢?

首先是五官中的鼻子嘴巴,这些是我们模特自带的,如果你把这些保留着,那么将会变成可自定义的部分了,我们希望以后生成的鼻子和嘴巴都使用张娜英自身的,那就别保留这些标签,直接删除

其次是张嘴吐舌头等,这种是要保留的,因为这不是五官的描述,是表情的表述,保留之后方便我们后续为LoRA模型通过关键字换表情。

最后是红色头发绿色美瞳帽子等Tag,这些我们可能想让他变成黑色头发、红色美瞳、其他款式的帽子等,所以也是需要保留的。

简而言之,你不希望后续通过提示词替换的内容,那就删除;希望可以通过提示词修改的部分,那就保留。五官是模特自身的特色,所以我们不需要保留五官的描述,其它的装饰和表情Tag,建议全部保留。

注意:如果图中有手或者其它物体、部位并没有在Tag标签中描写,那么AI学习时不知道这部分是什么东西,会影响其它Tag的权限,建议自行补全。

改标示例1

Stable Diffusion|LoRA模型训练|极速版
自动Tag中文Tag操作备注
1girl1个女人必须存在性别
baseball cap棒球帽
blue headwear蓝色头饰删除重复
cup杯子
drink删除没有喝的动作
hand on own cheek把手放在自己的脸颊上
hand on own face把手放在自己脸上删除重复且不太准确
hat帽子删除重复
head rest枕着头/托着头
jewelry首饰
lips嘴唇删除五官Tag删除
long hair长发
necklace项链
nose鼻子删除五官Tag删除
realistic现实的/真实的
shirt衬衫
simple background简单背景/无背景
solo单人
upper body上半身
white background白色背景删除重复
straw吸管添加补全缺失Tag

改标示例2

Stable Diffusion|LoRA模型训练|极速版
自动Tag中文Tag操作备注
1girl1个女人必须存在性别
animal动物删除已填写为猫
animal focus动物焦点删除焦点为人物
black eyes黑眼
black hair黑发
cat
closed mouth闭嘴
dog删除不正确
lips嘴唇删除五官Tag删除
looking at viewer看向阅图者
shiba inu柴犬删除不正确
short hair短发
simple background简单背景/无背景
smile微笑
solo单人
white background白色背景
hand添加补全缺失Tag

总结

一般都是删除的比较多,手动添加的部分非常少,所以整体的改标速度还是非常快的。

只要不是特别离谱的Tag标签错误,不改也没有什么大事。

推算参数

模型配置

运行kohya_ss,切换同至Dreambooth LoRA选项卡。

首先我们需要设置一个基础模型,也就是我们训练的LoRA模型要基于哪个大模型去训练。

比如本次站长要训练真人模型,想使用Chilloutmix-Ni大模型进行训练。那就【点击前往C站】去查询该模型的信息,可以在右侧看到Base Model SD 1.5,那就代表我们的大模型为SD 1.5版本。

Stable Diffusion|LoRA模型训练|极速版

回到Dreambooth LoRA界面,已知模型SD版本为1.5,那就在Model Quick Pick内直接选择SD1.5

关于下面的v2v_parameterization不要动,因为在你选择Model Quick Pick时,它会自动判定是否需要勾选其它选项。

Stable Diffusion|LoRA模型训练|极速版

此时点击📄按钮,然后会弹出一个窗口,让你选择模型路径,正常选择你已经下载好的基础模型即可。

Model Quick Pick选项会自动变为custom,不用理会。

Stable Diffusion|LoRA模型训练|极速版

文件配置

此时我们需要新建三个文件夹,目录位置随意,只要你能找的到就好。

  • Image folder
    • 用于加载你的训练图片文件夹,站长将已经打好Tag的张娜英_TAG文件夹移动至该目录下。
    • 此时我们还需要理性该文件夹的名称,名称格式为【每单图训练次数_模型名称】。
    • 站长想训练30次,模型名称为张娜英,因此需要将文件夹名称修改为30_ZhangNaYing
    • 最后!不要直接填写此文件夹,要填写此文件夹的上级目录。该文件夹内只有需要训练的素材,不要放其它的内容。
  • Output folder
    • 用于保存我们稍后训练完成的模型文件夹
    • 如果已经有其它训练好的模型在此,要先删除。
  • Logging folder
    • 用于保存生成的日子文件夹
    • 注意:要在该文件夹内新建一个空的log.txt文件,不然会报错。
  • Model output name
    • 此处设置为训练完成后的LoRA模型名称
    • 本次训练的角色为张娜英,所以站长设置为ZhangNaYing。(不支持中文)
Stable Diffusion|LoRA模型训练|极速版

推算参数配置

下图是关于推算参数时的常规设置,所有参数都是固定的,无论你训练什么模型,都别修改,就这样去配置即可。

Stable Diffusion|LoRA模型训练|极速版

推算结果

我们已经完成了所有相关配置,此时点击Train model按钮。

此时需要等待片刻,可以在kohya_ssCMD窗口中看到如下输出内容:

Folder 30_ZhangNaYing: 35 images found
Folder 30_ZhangNaYing: 1050 steps
max_train_steps = 1050
stop_text_encoder_training = 0
lr_warmup_steps = 0
accelerate launch --num_cpu_threads_per_process=2 "train_network.py" --enable_bucket --pretrained_model_name_or_path="D:/openai.wiki/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_Ni.safetensors" --train_data_dir="D:/openai.wiki/kohya_ss/train" --resolution=512,512 --output_dir="D:/openai.wiki/kohya_ss/model" --logging_dir="D:/openai.wiki/kohya_ss/log" --network_alpha="64" --save_model_as=safetensors --network_module=networks.lora --text_encoder_lr=0.5 --unet_lr=1.0 --network_dim=128 --output_name="ZhangNaYing" --lr_scheduler_num_cycles="1" --learning_rate="1.0" --lr_scheduler="constant" --train_batch_size="1" --max_train_steps="1050" --save_every_n_epochs="1" --mixed_precision="fp16" --save_precision="fp16" --cache_latents --optimizer_type="DAdaptation" --max_data_loader_n_workers="0" --bucket_reso_steps=64 --xformers --bucket_no_upscale
prepare tokenizer
Use DreamBooth method.
prepare images.
found directory D:\openai.wiki\kohya_ss\train\30_ZhangNaYing contains 35 image files
1050 train images with repeating.
0 reg images.
no regularization images / 正則化画像が見つかりませんでした
[Dataset 0]
  batch_size: 1
  resolution: (512, 512)
  enable_bucket: True
  min_bucket_reso: 256
  max_bucket_reso: 1024
  bucket_reso_steps: 64
  bucket_no_upscale: True

  [Subset 0 of Dataset 0]
    image_dir: "D:\openai.wiki\kohya_ss\train\30_ZhangNaYing"
    image_count: 35
    num_repeats: 30
    shuffle_caption: False
    keep_tokens: 0
    caption_dropout_rate: 0.0
    caption_dropout_every_n_epoches: 0
    caption_tag_dropout_rate: 0.0
    color_aug: False
    flip_aug: False
    face_crop_aug_range: None
    random_crop: False
    token_warmup_min: 1,
    token_warmup_step: 0,
    is_reg: False
    class_tokens: ZhangNaYing
    caption_extension: .caption


[Dataset 0]
loading image sizes.
100%|████████████████████████████████████████████████████████████████████████████████| 35/35 [00:00<00:00, 3674.06it/s]
make buckets
min_bucket_reso and max_bucket_reso are ignored if bucket_no_upscale is set, because bucket reso is defined by image size automatically / bucket_no_upscaleが指定された場合は、bucketの解像度は画像サイズから自動計算されるため、min_bucket_resoとmax_bucket_resoは無視されます
number of images (including repeats) / 各bucketの画像枚数(繰り返し回数を含む)
bucket 0: resolution (512, 512), count: 1050
mean ar error (without repeats): 0.0
prepare accelerator
D:\openai.wiki\kohya_ss\venv\lib\site-packages\accelerate\accelerator.py:249: FutureWarning: `logging_dir` is deprecated and will be removed in version 0.18.0 of 🤗 Accelerate. Use `project_dir` instead.
  warnings.warn(
Using accelerator 0.15.0 or above.
loading model for process 0/1
load StableDiffusion checkpoint: D:/openai.wiki/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_Ni.safetensors
loading u-net: <All keys matched successfully>
loading vae: <All keys matched successfully>
loading text encoder: <All keys matched successfully>
CrossAttention.forward has been replaced to enable xformers.
[Dataset 0]
caching latents.
100%|██████████████████████████████████████████████████████████████████████████████████| 35/35 [00:41<00:00,  1.18s/it]
import network module: networks.lora
create LoRA network. base dim (rank): 128, alpha: 64.0
create LoRA for Text Encoder: 72 modules.
create LoRA for U-Net: 192 modules.
enable LoRA for text encoder
enable LoRA for U-Net
prepare optimizer, data loader etc.
when multiple learning rates are specified with dadaptation (e.g. for Text Encoder and U-Net), only the first one will take effect / D-Adaptationで複数の学習率を指定した場合(Text EncoderとU-Netなど)、最初の学習率のみが有効になります: lr=0.5
use D-Adaptation Adam optimizer | {}
running training / 学習開始
  num train images * repeats / 学習画像の数×繰り返し回数: 1050
  num reg images / 正則化画像の数: 0
  num batches per epoch / 1epochのバッチ数: 1050
  num epochs / epoch数: 1
  batch size per device / バッチサイズ: 1
  gradient accumulation steps / 勾配を合計するステップ数 = 1
  total optimization steps / 学習ステップ数: 1050
steps:   0%|                                                                                  | 0/1050 [00:00<?, ?it/s]
epoch 1/1
steps:  10%|█████▋                                                     | 102/1050 [01:31<14:14,  1.11it/s, loss=0.0886]

当你看到steps为5%以上的时候,回到GUI界面,点击Start tensorboard按钮。

Stable Diffusion|LoRA模型训练|极速版

此时将会自动弹出一个网页,我们在左侧筛选只看最下面的,也就是最新的一个数据。

然后查看lr/d*lr数据表窗口,等待一条直线的出现,如果没出现直线就点几下刷新数据按钮。

Stable Diffusion|LoRA模型训练|极速版

把鼠标放到直线上,可以看到一个数值,这个数值主是我们的推荐学习率,请记住你自己的数值,因为后面会用到。

Stable Diffusion|LoRA模型训练|极速版

此时我们是否继续当前的训练已经不再重要,可以直接关闭CMD窗口,然后重新运行kohya_ss

训练模型

我们在上一步已经得到了推荐训练数值为3.64e-5,这是科学计数法的显示方式,我们直接把这个数据粘贴到系统的计算器,然后按=键,就可以正常的十进制显示方式,也就是0.0000364

下面我们在红框区域填写该数值,在填写Text Encoder learning rate时,记得将该数值除以10,那么也就0.0000364/10=0.00000364,其它所有参数照抄,与本站一至即可。

Stable Diffusion|LoRA模型训练|极速版

一切就绪之后,点击Train model按钮,然后就可以在CMD窗口内看到模型正在训练啦。

Folder 30_ZhangNaYing: 35 images found
Folder 30_ZhangNaYing: 1050 steps
max_train_steps = 1050
stop_text_encoder_training = 0
lr_warmup_steps = 0
accelerate launch --num_cpu_threads_per_process=2 "train_network.py" --enable_bucket --pretrained_model_name_or_path="D:/openai.wiki/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_Ni.safetensors" --train_data_dir="D:/openai.wiki/kohya_ss/train" --resolution=512,512 --output_dir="D:/openai.wiki/kohya_ss/model" --logging_dir="D:/openai.wiki/kohya_ss/log" --network_alpha="64" --save_model_as=safetensors --network_module=networks.lora --text_encoder_lr=3.64e-06 --unet_lr=3.64e-05 --network_dim=128 --output_name="ZhangNaYing" --lr_scheduler_num_cycles="1" --learning_rate="3.64e-05" --lr_scheduler="constant_with_warmup" --train_batch_size="1" --max_train_steps="1050" --save_every_n_epochs="1" --mixed_precision="fp16" --save_precision="fp16" --cache_latents --optimizer_type="AdamW8bit" --max_data_loader_n_workers="0" --bucket_reso_steps=64 --xformers --bucket_no_upscale
prepare tokenizer
Use DreamBooth method.
prepare images.
found directory D:\openai.wiki\kohya_ss\train\30_ZhangNaYing contains 35 image files
1050 train images with repeating.
0 reg images.
no regularization images / 正則化画像が見つかりませんでした
[Dataset 0]
  batch_size: 1
  resolution: (512, 512)
  enable_bucket: True
  min_bucket_reso: 256
  max_bucket_reso: 1024
  bucket_reso_steps: 64
  bucket_no_upscale: True

  [Subset 0 of Dataset 0]
    image_dir: "D:\openai.wiki\kohya_ss\train\30_ZhangNaYing"
    image_count: 35
    num_repeats: 30
    shuffle_caption: False
    keep_tokens: 0
    caption_dropout_rate: 0.0
    caption_dropout_every_n_epoches: 0
    caption_tag_dropout_rate: 0.0
    color_aug: False
    flip_aug: False
    face_crop_aug_range: None
    random_crop: False
    token_warmup_min: 1,
    token_warmup_step: 0,
    is_reg: False
    class_tokens: ZhangNaYing
    caption_extension: .caption


[Dataset 0]
loading image sizes.
100%|████████████████████████████████████████████████████████████████████████████████| 35/35 [00:00<00:00, 4060.65it/s]
make buckets
min_bucket_reso and max_bucket_reso are ignored if bucket_no_upscale is set, because bucket reso is defined by image size automatically / bucket_no_upscaleが指定された場合は、bucketの解像度は画像サイズから自動計算されるため、min_bucket_resoとmax_bucket_resoは無視されます
number of images (including repeats) / 各bucketの画像枚数(繰り返し回数を含む)
bucket 0: resolution (512, 512), count: 1050
mean ar error (without repeats): 0.0
prepare accelerator
D:\openai.wiki\kohya_ss\venv\lib\site-packages\accelerate\accelerator.py:249: FutureWarning: `logging_dir` is deprecated and will be removed in version 0.18.0 of 🤗 Accelerate. Use `project_dir` instead.
  warnings.warn(
Using accelerator 0.15.0 or above.
loading model for process 0/1
load StableDiffusion checkpoint: D:/openai.wiki/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_Ni.safetensors
loading u-net: <All keys matched successfully>
loading vae: <All keys matched successfully>
loading text encoder: <All keys matched successfully>
CrossAttention.forward has been replaced to enable xformers.
[Dataset 0]
caching latents.
100%|██████████████████████████████████████████████████████████████████████████████████| 35/35 [00:03<00:00,  9.13it/s]
import network module: networks.lora
create LoRA network. base dim (rank): 128, alpha: 64.0
create LoRA for Text Encoder: 72 modules.
create LoRA for U-Net: 192 modules.
enable LoRA for text encoder
enable LoRA for U-Net
prepare optimizer, data loader etc.

===================================BUG REPORT===================================
Welcome to bitsandbytes. For bug reports, please submit your error trace to: https://github.com/TimDettmers/bitsandbytes/issues
For effortless bug reporting copy-paste your error into this form: https://docs.google.com/forms/d/e/1FAIpQLScPB8emS3Thkp66nvqwmjTEgxp8Y9ufuWTzFyr9kJ5AoI47dQ/viewform?usp=sf_link
================================================================================
CUDA SETUP: Loading binary D:\openai.wiki\kohya_ss\venv\lib\site-packages\bitsandbytes\libbitsandbytes_cuda116.dll...
use 8-bit AdamW optimizer | {}
running training / 学習開始
  num train images * repeats / 学習画像の数×繰り返し回数: 1050
  num reg images / 正則化画像の数: 0
  num batches per epoch / 1epochのバッチ数: 1050
  num epochs / epoch数: 1
  batch size per device / バッチサイズ: 1
  gradient accumulation steps / 勾配を合計するステップ数 = 1
  total optimization steps / 学習ステップ数: 1050
steps:   0%|                                                                                  | 0/1050 [00:00<?, ?it/s]
epoch 1/1
steps: 100%|███████████████████████████████████████████████████████████| 1050/1050 [09:15<00:00,  1.89it/s, loss=0.105]
saving checkpoint: D:/openai.wiki/kohya_ss/model\ZhangNaYing.safetensors
model saved.
steps: 100%|███████████████████████████████████████████████████████████| 1050/1050 [09:15<00:00,  1.89it/s, loss=0.105]

steps为100%时,我们就可以在所设定的模型目录下看到已经训练完的模型啦。

最后是当前的Loss值为0.105,这个数值有点过大了,按道理来说,该值无限接近0.08是比较好的。不知道为什么之前测试给朋友生成的时候该数值都比较好,但是给大家演示的时候却翻车了。

效果展示

1girl, the most beautiful image ever seen,(thin face:1.3), uhd, RAW, korea, sharp focus, realistic, (photorealistic), best quality, ultra high res, masterpiece, <lora:ZhangNaYing:1>
Negative prompt: (3 arms:1.1), (worst quality:2), (low quality:2), (normal quality:2), lowres, acnes, skin blemishes, age spot, glans,extra fingers,fewer fingers,strange fingers, ((monochrome)), ((grayscale)),(bad legs:1.5), (bad hands:1.5), (3_hands:1.5), large_pussy, huge_pusyy, excessive_pubic_hair, huge_clitoris, fat_mons, colored_pubic_hair, mismatched_pubic_hair, erect_clitoris, clitoris_slip, pussy_juice_puddle, excessive_pussy_juice, pussy_juice_trail, pussy_juice_drip_through_clothes, medium_breasts, small_medium_breasts, large_breasts, huge_breasts, gigantic_breasts, large_areolae, long_nipples, sagging_breasts, veiny_breasts, pointy_breasts, asymmetrical_breasts, dark_areolae, dark_nipples, (big_head:1.5)
Steps: 35, Sampler: DPM++ SDE Karras, CFG scale: 7, Seed: 2551890436, Size: 512x765, Model hash: 7234b76e42, Model: chilloutmix_Ni, Lora hashes: ZhangNaYing: a01133dfbe40, Version: v1.3.0

总结

此次的模型训练Loss值并不是很好,但教程中出现的问题越多越好,这样后面才有更多的解决方案可以提供给大家,后面的教程将会提取如何提高或降低Loss值的问题。

此文章由OpenAI开源维基百科原创发布,如若转载请注明出处:https://openai.wiki/sd-lora-quick-train.html

(0)
上一篇 2023-05-31 02:28
下一篇 2023-06-05 15:37

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

评论列表(12条)

  • 唯心止论
    唯心止论 2023-06-05 01:49

    clip反推,不是一直在加载推不出来,就是出现error,怎么回事 另一个反推可以用

    • PhiltreX
      PhiltreX 2023-06-05 13:12

      @唯心止论可能因为你的CLIP模型没下载成功,把之前旧的推理模型删除一下,重新下载。

  • overcookkk
    overcookkk 2023-06-08 16:12

    你好,请教两个问题:
    1、出图的时候,prompt加上full body等这些词,让它生成全身中远景的图,脸部是否会崩掉。(我自己测试训练的lora会出现这样,怎么解决呢?)
    2、素材方面:标签直接使用反推的标签,做不做修改,最终出图感觉没啥大区别;以及 素材加上一些全身照,并不全都用大头照,最终出图也是感觉没啥大区别。站长有没有啥建议呢?

    • PhiltreX
      PhiltreX 2023-06-09 15:24

      @overcookkk没有太理解你所指的建议是哪方面,如果你希望出图的时候脸不崩掉可以考虑勾选面部修复,一般来说可以获得更好的效果。
      素材反推的Tag还是有必要简单修改一下的,因为不被定义的标签会被认为是LoRA模型的一部分,很难单独通过Prompt进行调整。

  • 孙笑川和粥皮
    孙笑川和粥皮 2023-06-08 16:57

    团长,我修改成推演参数后再演算,在进程哪里直接跳过了,什么情况?

  • overcookkk
    overcookkk 2023-06-09 15:30

    我有尝试过,素材打标签后,标签中有金色头发,长发等标签,然后我手动删除所有金色头发,长发这两个标签,但是训练的lora出图的时候,还是可以通过prompt来控制头发颜色和头发长短,为啥呢?

  • 1
    1 2023-07-13 23:12

    站长,安装kohya时报错这个什么原因,好像是这两个东西安装不上
    23:02:51-739599 INFO Version: v21.8.2
    23:02:51-743603 INFO Python 3.9.13 on Windows
    23:02:51-756750 INFO nVidia toolkit detected
    23:02:53-337703 INFO Torch 2.0.1+cu118
    23:02:53-358721 INFO Installing modules from requirements_windows_torch2.txt…
    23:02:53-363807 INFO Installing package: torch==2.0.1+cu118 torchvision==0.15.2+cu118 –index-url
    https://download.pytorch.org/whl/cu118
    23:02:58-775744 INFO Installing package: xformers==0.0.20 bitsandbytes==0.35.0
    23:03:10-128052 ERROR Error running pip: install –upgrade xformers==0.0.20 bitsandbytes==0.35.0
    23:03:10-130055 INFO Installing modules from requirements.txt…
    23:03:10-137064 INFO Installing package: -e .
    23:03:21-625158 INFO Copying bitsandbytes files…
    23:03:21-634168 ERROR File not found error: [Errno 2] No such file or directory:
    ‘C:\\stable-diffusion-webui\\extensions\\kohya_ss\\venv\\Lib\\site-packages\\bitsandbytes\\cuda
    _setup’
    23:03:21-636168 INFO Configuring accelerate…
    —————————————————————————————————–

    • PhiltreX
      PhiltreX 2023-07-14 10:41

      @1你是不是没用Conda啊,怎么好像是在系统环境中创建的,所以很多东西版本有冲突,而且路径也是错的。

  • 1
    1 2023-07-13 23:22

    另外我直接运行的话报错是
    Could not load torch: cuDNN version incompatibility: PyTorch was compiled against (8, 7, 0)
    but found runtime version (8, 6, 0). PyTorch already comes bundled with cuDNN. One option to
    resolving this error is to ensure PyTorch can find the bundled cuDNN.

    • PhiltreX
      PhiltreX 2023-07-14 10:42

      @1CUDNN安装也不正确,建议重新部署,从第一步开始来。

  • earlytalk
    earlytalk 2023-07-15 17:17

    为啥我抠图后,在sd里面打tag,出的图有白边,而且还有原背景

微信