LoRA

本文介绍LoRA模型在Stable Diffusion WebUI中如何加载和使用LoRA模型的教程,八重神子|Korean Doll|i_am_young22|张娜英|蠢沫沫|ChilloutMix

LoRA

本页面提供LORA模型的使用教程和下载链接,包括基础模型和角色模型的下载方法,以及在Stable Diffusion WebUI中如何加载和使用LORA模型。

技术交流

本站已开放AI技术交流论坛,如果您在学习过程当中遇到问题,可在本站论坛【点击前往】发帖求助。

前置条件

如果您还未部署Stable Diffusion WebUI,可以通过阅读下面的文章进行安装部署。

模型下载

基础模型可以理解为一栋大楼的地基,是这一整栋大楼的根本,如果没有地基的存在,也就没有办法在上面建设每个单独的房间。

所以如果你想使用Lora生成指定的角色,那就必须要先加载基础模型,然后再安装角色模型。

基础模型

LoRA

目前比较主流的基础模型为ChilloutMix,是以SD官网模型1.5版本为基础进行训练的。

官网下载

https://civitai.com/models/6424/chilloutmix

网盘下载

Chilloutmix-Ni

提取密码 文件说明 文件大小 7.17GB 文件格式 safetensors 资源价格 免费 下载次数 13

角色模型

为方便大家学习使用,本页面仅提供几个演示模型,关于其它模型的下载,请看下面单独的下载地址。

名称中文名称角色标签网盘
Yae Miko八重神子<lora:yaeMikoRealistic_yaemikoFull:1>下载
Korean Doll韩国娃娃<lora:koreanDollLikeness_v15:0.66>下载
Yor Briar约尔·福杰<lora:yor:0.6>下载
Jelly果冻<lora:niji_jelly:0.7>下载
i_am_young22张娜英<lora:zny_1.0:0.7>下载
chunmomo蠢沫沫<lora:chunmm:0.8>下载
Taiwan Doll台湾女孩<lora:taiwanDollLikeness_v10:0.66>下载
Raiden Shogun雷电将军<lora:raidenShogunRealistic_raidenshogun:0.6>下载
hf2ming-beta-020601仿宋服风格<lora:hf2ming-beta-020601:1>下载
角色模型列表

其它模型

更多模型请前往以下文章内下载:

模型展示

Tips:点击图片可自动跳转至相应角色的下载地址。

使用教程

  1. 下载基础模型ChilloutMix,移动至*\stable-diffusion-webui\models\Stable-diffusion目录。
  2. 下载需要的角色模型,移动至*\stable-diffusion-webui\models\Lora目录。
  3. 重启Stable Diffusion WebUI主界面
  4. Stable Diffusion WebUI的主界面左上角加载基础模型ChilloutMix
  5. 在SD的文生图或图生图界面内的生成按钮下,可以看到一个粉色的图标,该图标名为Show extra networks(显示额外网络),点击该红色图标将会在本页弹出一个面板,在该面板中可以看到Lora选项卡
  6. 可以看到已经安装的Lora模型,点击模型名称将会自动该角色名称加载到Prompt文本框中。
  7. 填写一些其它的描述信息和相应的参数之后,就可以看到非常理解的效果了。

提示词示例

示例拆解

下面是一段完整的提示词示例,该示例以八重神子角色模型为例,在提示词中可以看到被尖角号括起来的角色名称<lora:yaeMikoRealistic_yaemikoFull:1>,除名称外的其它词条也比较少,但是效果非常棒。

best quality, ultra high res, (photorealistic:1.4), 1girl, nude, full body, spread legs,  <lora:koreanDollLikeness_v15:1> ,<lora:yaeMikoRealistic_yaemikoMixed:1>,
Negative prompt: paintings, sketches, (worst quality:2),(low quality:2),(normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans,{{{bad_hands}}},badhand, bad_feet,
ENSD: 31337, Size: 960x1024, Seed: 4138265202, Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 7, Clip skip: 2, Model hash: fc2511737a

示例效果展示

LoRA

相关推荐

如果您对LoRA感兴趣,那么下面这篇关于ControlNet的教程,您也一定会感兴趣。

此文章由OpenAI开源维基百科原创发布,如若转载请注明出处:https://openai.wiki/lora.html

(0)
上一篇 2023-02-25 13:36
下一篇 2023-02-27 19:59

相关推荐

回复 2070炼丹苦手

您的邮箱地址不会被公开。 必填项已用 * 标注

评论列表(90条)

  • 看不见
    看不见 2023-03-29 23:47

    你那个提示词很不正经。。。。。。
    出来的图,不堪入目啊

  • Tey
    Tey 2023-03-30 09:11

    出图的瞬间 我被震精了

  • 看得见
    看得见 2023-04-03 14:30

    站长 多更新点lora啊 C站上不去

  • 沙加
    沙加 2023-04-03 21:08

    教教怎么训练模型吧,比如训练换头,选取头部照片 训练身体 选取身体照片抠除背景图什么的,这些走了好多弯路,还有什么设置提示词,虽然下载了模型,但是弄出来好看的模型人物还是挺难的。。

    • PhiltreX
      PhiltreX 2023-04-04 01:49

      @沙加emmm,你所说的是炼丹这一块吗?我没有无版权的角色素材,而且我的显卡是2080TI,好拉胯,所以一直没弄。

    • 闪耀的小骚包
      闪耀的小骚包 2023-04-21 15:39

      @PhiltreX2080TI,很好了,我的才2060,哎

    • PhiltreX
      PhiltreX 2023-04-22 15:30

      @闪耀的小骚包有点想买4070,太香了。

  • sariel
    sariel 2023-04-04 12:20

    用的示例中的词条,和另一个模型,直接生成色图了。。。

  • Sven
    Sven 2023-04-04 13:53

    如何训练自己的lora

    • PhiltreX
      PhiltreX 2023-04-04 16:01

      @Sven抱歉,站长的显卡不怎么样,所以没搞过这方面的东西。

  • 2070炼丹苦手
    2070炼丹苦手 2023-04-05 10:29

    需要更多更多的模型~~~

  • 花
    2023-04-05 17:38

    赛博菩萨

  • tieny
    tieny 2023-04-06 23:29

    互联网英雄!

  • 没所谓
    没所谓 2023-04-07 17:30

    站长有没有Xiaorenshu_v20这个lora,死活找不到下载

  • 找不到
    找不到 2023-04-09 22:04

    点击『show extra network』,但是webui没有弹出任何页面出来,怎么回事儿呀

    • 找不到
      找不到 2023-04-09 22:04

      @找不到看起来像是页面卡死了,lora加载不出来

    • PhiltreX
      PhiltreX 2023-04-09 22:23

      @找不到中文为显示额外的网络,你这个按钮在哪里啊,我没看到过。

  • 多更新模型lora
    多更新模型lora 2023-04-10 18:00

    加油多更新些,搞个C站镜像,太难了555

  • 1013692111@qq.com
    1013692111@qq.com 2023-04-11 19:39

    韩国娃娃下不下来

  • 求个新海诚的lora
    求个新海诚的lora 2023-04-12 20:02

    makotoShinkaiSubstyles_offset,站长加油

  • 菜鸟
    菜鸟 2023-04-13 00:29

    为什么我安装了LORA模型,也用了上面的关键词算出来完全不是上面的图,人物也很奇怪。

    • PhiltreX
      PhiltreX 2023-04-13 12:12

      @菜鸟基础模型也很重要,如果你的底模型与官方不一致也是不行的。

  • 金刚
    金刚 2023-04-13 11:22

    站长,为啥我这边生成出来的就很抽象 不是真人呢

    • PhiltreX
      PhiltreX 2023-04-13 12:14

      @金刚基础模型不要用SD的,要用本文中所给出的Chilloutmix-Ni模型。

  • 火
    2023-04-19 14:47

    有触发词吗?

  • 野的像风
    野的像风 2023-04-21 13:30

    大佬麻烦问一下,有没有关于室内设计的模型和教程,模型是看了很多,但是都不知道怎么用,有没有详细的教程

  • lora
    lora 2023-04-21 20:11

    你那个宋的lora是明的,可以找得到宋的lora吗? lora-hf2song-v1.safetensors

  • openai.wiki的忠实粉丝
    openai.wiki的忠实粉丝 2023-04-22 21:02

    lora(你这下的模型)的名称可以改吗

  • 吉地墨客
    吉地墨客 2023-04-23 19:22

    大佬,为什么下载点击的任务lora模型,实际上都是safetensor模型。这个放到主模型文件夹,不是和主模型打架了???

    • PhiltreX
      PhiltreX 2023-04-24 03:00

      @吉地墨客LoRA的模型目录为.\stable-diffusion-webui\models\Lora,与主模型是不冲突的。

  • 天意
    天意 2023-04-23 21:22

    站长大人 ,你好 以下三个lora 模型请问哪里可以下载???
    orangejuicemix_10
    wakamezakeCumBetweenThighs_v10
    uberRealisticPornMerge_urpmv12320LORA (1)

  • innet
    innet 2023-04-25 21:43

    你好大佬,我下载了基础的模型和人物模型,用了你提供的咒语,但是出来的都是抽象的图案,项目也重新启动过了。帮我看看啥问题呗 https://pan.succes.cool/s/eAOIL

    • PhiltreX
      PhiltreX 2023-04-26 00:44

      @innet你这是把所有的设置全部都放在了Prompt内,这是不对的,你此时应该点击一下生成按钮下面的第一个按钮,然后再生成,效果就好了。

  • 老张在此
    老张在此 2023-04-26 15:22

    站长大人,请问长泽亚美的lora模型在哪里下载??还有其他日本女明星的模型吗?

  • 老张在此
    老张在此 2023-04-26 15:23

    站长,不好意思,打错字 了,是长泽雅美lora模型,

  • 天意
    天意 2023-04-26 20:39

    站长大人,请问长泽雅美的lora有吗?还有这个lora 去哪里可以下载?

  • llgy
    llgy 2023-04-28 16:15

    你好,为什么我的图生成后都会有很多的彩色呢

  • 康馨
    康馨 2023-04-29 16:08

    为什么下载老是被阻止 说是不安全,怎末解决啊

  • hp_zerolan
    hp_zerolan 2023-05-06 16:37

    提个建议,建议放在主站的这些基础模型、lora等等,都同步到论坛里?我发现好多之前特意去找的在主站这里找到了一些

    • PhiltreX
      PhiltreX 2023-05-06 19:36

      @hp_zerolan最近站长的任务量太大了,一边弄论坛,一边弄网站,还有一些其它的日常工作,所以暂时还没有同步到论坛内哈,如果有需要,可以前往论坛发贴。

  • Electrolux
    Electrolux 2023-05-14 11:29

    你好,按照你的方法得到的图很简陋,ENSD: 31337, Size: 960×1024, Seed: 4138265202, Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 7, Clip skip: 2, Model hash: fc2511737a这部分我不知道怎么弄,是这部分的原因么?该怎么处理呢?

  • 张疾风
    张疾风 2023-06-01 16:09

    站长问一下3.多G的和7.多G的基础模型有什么区别,用哪个比较好

    • PhiltreX
      PhiltreX 2023-06-01 22:55

      @张疾风7G的支持二次训练,如果你不打算训练的话,下载小的就可以。

    • 张疾风
      张疾风 2023-06-09 15:09

      @PhiltreX好的感谢大佬

  • innewst
    innewst 2023-06-08 13:56

    请问大佬,我按照提示词输入后效果和示例不一样是什么原因呢?
    我能看到下载的chilloutmix_Ni模型的hash值是7234b76e42,但提示词里面的model hash是fc2511737a,难道是模型不对吗?

    • PhiltreX
      PhiltreX 2023-06-09 15:21

      @innewst理论上是都没有问题的,这是模型的MD5值,为了确保模型的唯一性。不过,现在这种模型是无法植入恶意代码之类的,所以只要可以正常出图就行。

    • innewst
      innewst 2023-06-13 09:14

      @PhiltreX谢谢!我后来发现是自己的lora环境出问题了,已经修复。至于那个hash值是chilloutmix的不同版本造成的,影响不大,现在已经正常。

  • 006
    006 2023-07-02 10:57

    为什么我使用了模型没有用啊 下载到劳拉模型 然后点击使用 在使用一些关键词 生出的图片 和模型没有关系 还是动漫的 是什么原因啊

  • hukan008
    hukan008 2023-07-03 10:35

    感谢站长的分享,您的“示例效果展示”这张图可能违规了,风险很高。建议换一张吧。

    • PhiltreX
      PhiltreX 2023-07-03 20:15

      @hukan008哈?啥也没露啊,但是感谢提醒,我一会重新生成一个换一下。🙏

  • Jede
    Jede 2023-07-03 17:55

    友情提醒,如果复制完整的prompt,确保你周围没人,否则…:)

  • 天意
    天意 2023-10-18 20:07

    站长大人,请问有没有,佟丽娅的lora,请指教一下

  • 天意
    天意 2023-10-18 20:55

    请问有佟丽亚的lora吗?

  • dfdf
    dfdf 2024-03-04 16:33

    麻烦存一份Chilloutmix-Ni到腾讯微云,谢谢

  • aa
    aa 2024-08-15 10:02

    Stable diffusion model failed to load
    Loading weights [a7529df023] from /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/models/Stable-diffusion/final-pruned.ckpt
    Loading weights [a7529df023] from /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/models/Stable-diffusion/final-pruned.ckpt
    Creating model from config: /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/configs/v1-inference.yaml
    Creating model from config: /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/configs/v1-inference.yaml
    creating model quickly: OSErrorcreating model quickly: OSError

    Traceback (most recent call last):
    File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 973, in _bootstrap
    self._bootstrap_inner()
    File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 1016, in _bootstrap_inner
    self.run()
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/anyio/_backends/_asyncio.py”, line 807, in run
    result = context.run(func, *args)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/utils.py”, line 707, in wrapper
    response = f(*args, **kwargs)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/ui_settings.py”, line 316, in
    fn=lambda value, k=k: self.run_settings_single(value, key=k),
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/ui_settings.py”, line 95, in run_settings_single
    if value is None or not opts.set(key, value):
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/options.py”, line 165, in set
    option.onchange()
    Traceback (most recent call last):
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/call_queue.py”, line 14, in f
    res = func(*args, **kwargs)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/initialize_util.py”, line 181, in
    shared.opts.onchange(“sd_model_checkpoint”, wrap_queued_call(lambda: sd_models.reload_model_weights()), call=False)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 977, in reload_model_weights
    load_model(checkpoint_info, already_loaded_state_dict=state_dict)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 820, in load_model
    sd_model = instantiate_from_config(sd_config.model, state_dict)
    File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 973, in _bootstrap
    self._bootstrap_inner()
    File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 1016, in _bootstrap_inner
    self.run()
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/anyio/_backends/_asyncio.py”, line 807, in run
    result = context.run(func, *args)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/utils.py”, line 707, in wrapper
    response = f(*args, **kwargs)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/ui.py”, line 1165, in
    update_image_cfg_scale_visibility = lambda: gr.update(visible=shared.sd_model and shared.sd_model.cond_stage_key == “edit”)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 775, in instantiate_from_config
    return constructor(**params)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/shared_items.py”, line 175, in sd_model
    return modules.sd_models.model_data.get_sd_model()
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 693, in get_sd_model
    load_model()
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 820, in load_model
    sd_model = instantiate_from_config(sd_config.model, state_dict)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 775, in instantiate_from_config
    return constructor(**params)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 563, in __init__
    self.instantiate_cond_stage(cond_stage_config)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 563, in __init__
    self.instantiate_cond_stage(cond_stage_config)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 630, in instantiate_cond_stage
    model = instantiate_from_config(config)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 630, in instantiate_cond_stage
    model = instantiate_from_config(config)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/util.py”, line 89, in instantiate_from_config
    return get_obj_from_str(config[“target”])(**config.get(“params”, dict()))
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/util.py”, line 89, in instantiate_from_config
    return get_obj_from_str(config[“target”])(**config.get(“params”, dict()))
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py”, line 103, in __init__
    self.tokenizer = CLIPTokenizer.from_pretrained(version)
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/transformers/tokenization_utils_base.py”, line 1809, in from_pretrained
    raise EnvironmentError(
    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py”, line 103, in __init__
    self.tokenizer = CLIPTokenizer.from_pretrained(version)
    OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘openai/clip-vit-large-patch14’ is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.

    File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/transformers/tokenization_utils_base.py”, line 1809, in from_pretrained
    raise EnvironmentError(
    OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘openai/clip-vit-large-patch14’ is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.
    Failed to create model quickly; will retry using slow method.

    Failed to create model quickly; will retry using slow method.
    我这是为啥

微信