LoRA
本页面提供LORA模型的使用教程和下载链接,包括基础模型和角色模型的下载方法,以及在Stable Diffusion WebUI中如何加载和使用LORA模型。
技术交流
本站已开放AI技术交流论坛,如果您在学习过程当中遇到问题,可在本站论坛【点击前往】发帖求助。
前置条件
如果您还未部署Stable Diffusion WebUI,可以通过阅读下面的文章进行安装部署。
模型下载
基础模型可以理解为一栋大楼的地基,是这一整栋大楼的根本,如果没有地基的存在,也就没有办法在上面建设每个单独的房间。
所以如果你想使用Lora生成指定的角色,那就必须要先加载基础模型,然后再安装角色模型。
基础模型
目前比较主流的基础模型为ChilloutMix,是以SD官网模型1.5版本为基础进行训练的。
官网下载
https://civitai.com/models/6424/chilloutmix
网盘下载
角色模型
为方便大家学习使用,本页面仅提供几个演示模型,关于其它模型的下载,请看下面单独的下载地址。
名称 | 中文名称 | 角色标签 | 网盘 |
---|---|---|---|
Yae Miko | 八重神子 | <lora:yaeMikoRealistic_yaemikoFull:1> | 下载 |
Korean Doll | 韩国娃娃 | <lora:koreanDollLikeness_v15:0.66> | 下载 |
Yor Briar | 约尔·福杰 | <lora:yor:0.6> | 下载 |
Jelly | 果冻 | <lora:niji_jelly:0.7> | 下载 |
i_am_young22 | 张娜英 | <lora:zny_1.0:0.7> | 下载 |
chunmomo | 蠢沫沫 | <lora:chunmm:0.8> | 下载 |
Taiwan Doll | 台湾女孩 | <lora:taiwanDollLikeness_v10:0.66> | 下载 |
Raiden Shogun | 雷电将军 | <lora:raidenShogunRealistic_raidenshogun:0.6> | 下载 |
hf2ming-beta-020601 | 仿宋服风格 | <lora:hf2ming-beta-020601:1> | 下载 |
其它模型
更多模型请前往以下文章内下载:
模型展示
Tips:点击图片可自动跳转至相应角色的下载地址。
使用教程
- 下载基础模型
ChilloutMix
,移动至*\stable-diffusion-webui\models\Stable-diffusion
目录。 - 下载需要的角色模型,移动至
*\stable-diffusion-webui\models\Lora
目录。 - 重启
Stable Diffusion WebUI
主界面 - 在
Stable Diffusion
WebUI的主界面左上角加载基础模型ChilloutMix
。 - 在SD的文生图或图生图界面内的生成按钮下,可以看到一个粉色的图标,该图标名为
Show extra networks(显示额外网络)
,点击该红色图标将会在本页弹出一个面板,在该面板中可以看到Lora选项卡
。 - 可以看到已经安装的Lora模型,点击模型名称将会自动该角色名称加载到Prompt文本框中。
- 填写一些其它的描述信息和相应的参数之后,就可以看到非常理解的效果了。
提示词示例
示例拆解
下面是一段完整的提示词示例,该示例以八重神子
角色模型为例,在提示词中可以看到被尖角号括起来的角色名称<lora:yaeMikoRealistic_yaemikoFull:1>
,除名称外的其它词条也比较少,但是效果非常棒。
best quality, ultra high res, (photorealistic:1.4), 1girl, nude, full body, spread legs, <lora:koreanDollLikeness_v15:1> ,<lora:yaeMikoRealistic_yaemikoMixed:1>, Negative prompt: paintings, sketches, (worst quality:2),(low quality:2),(normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans,{{{bad_hands}}},badhand, bad_feet, ENSD: 31337, Size: 960x1024, Seed: 4138265202, Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 7, Clip skip: 2, Model hash: fc2511737a
示例效果展示
相关推荐
如果您对LoRA感兴趣,那么下面这篇关于ControlNet的教程,您也一定会感兴趣。
你那个提示词很不正经。。。。。。
出来的图,不堪入目啊
@看不见 emmmm,不要在意细节。
@PhiltreX 大哥,你这个生成用了多长时间?
@null 2080TI,生成时间在10秒左右吧。
@PhiltreX 底模型用那个?
@看不见 nude是裸T,spread legs是张开腿
@看不见 我在公司跑出来这个图,这是要我原地离职的节奏。
出图的瞬间 我被震精了
站长 多更新点lora啊 C站上不去
@看得见 emmm,我看没有多少人评论,我以为大家都不怎么需要的,所以我就没搞,那我今天或者明天再更一些。
@PhiltreX 赞
@PhiltreX c站网址是什么
@null 网址https://civitai.com
@PhiltreX 需要梯子好烦躁
@cc 唉,没办法,寄人篱下啊。
教教怎么训练模型吧,比如训练换头,选取头部照片 训练身体 选取身体照片抠除背景图什么的,这些走了好多弯路,还有什么设置提示词,虽然下载了模型,但是弄出来好看的模型人物还是挺难的。。
@沙加 emmm,你所说的是炼丹这一块吗?我没有无版权的角色素材,而且我的显卡是2080TI,好拉胯,所以一直没弄。
@PhiltreX 2080TI,很好了,我的才2060,哎
@闪耀的小骚包 有点想买4070,太香了。
用的示例中的词条,和另一个模型,直接生成色图了。。。
@sariel emmm,我可不知道啊,我是正常的。
如何训练自己的lora
@Sven 抱歉,站长的显卡不怎么样,所以没搞过这方面的东西。
需要更多更多的模型~~~
@2070炼丹苦手 今天就更新!
赛博菩萨
互联网英雄!
站长有没有Xiaorenshu_v20这个lora,死活找不到下载
@没所谓 这不是一搜一大把吗 哈哈
https://www.123pan.com/s/sKd9-HuJc.html
点击『show extra network』,但是webui没有弹出任何页面出来,怎么回事儿呀
@找不到 看起来像是页面卡死了,lora加载不出来
@找不到 中文为
显示额外的网络
,你这个按钮在哪里啊,我没看到过。加油多更新些,搞个C站镜像,太难了555
@多更新模型lora 唉 更新的时候要找标签 匹配图片啥的 下载5分钟,整理成帖子2小时。
韩国娃娃下不下来
@1013692111@qq.com 可能是网络问题吧,我这里刚测试了一下,可以正常下载呢。
makotoShinkaiSubstyles_offset,站长加油
@求个新海诚的lora 下载地址https://www.123pan.com/s/sKd9-zSJc.html
为什么我安装了LORA模型,也用了上面的关键词算出来完全不是上面的图,人物也很奇怪。
@菜鸟 基础模型也很重要,如果你的底模型与官方不一致也是不行的。
站长,为啥我这边生成出来的就很抽象 不是真人呢
@金刚 基础模型不要用SD的,要用本文中所给出的Chilloutmix-Ni模型。
有触发词吗?
大佬麻烦问一下,有没有关于室内设计的模型和教程,模型是看了很多,但是都不知道怎么用,有没有详细的教程
@野的像风 好的,我最近会写一些关于SD的全方位教程文章。
你那个宋的lora是明的,可以找得到宋的lora吗? lora-hf2song-v1.safetensors
@lora 找到了1和1.5两个版本,都给你吧。
https://www.123pan.com/s/sKd9-8eJc.html
https://www.123pan.com/s/sKd9-0eJc.html
@PhiltreX 非常感谢!想问问nfsw的ckpt或者lora可以找得到吗?C站给封,太难下了
@lora 本站过几天将会开启Lora独立板块,方便大家下载。
@PhiltreX 那会搞模型板块吗?
@lora 是的哈,会搞模型板块,近期也会开放论坛,方便大家交流。
lora(你这下的模型)的名称可以改吗
@openai.wiki的忠实粉丝 可以改的
大佬,为什么下载点击的任务lora模型,实际上都是safetensor模型。这个放到主模型文件夹,不是和主模型打架了???
@吉地墨客 LoRA的模型目录为
.\stable-diffusion-webui\models\Lora
,与主模型是不冲突的。站长大人 ,你好 以下三个lora 模型请问哪里可以下载???
orangejuicemix_10
wakamezakeCumBetweenThighs_v10
uberRealisticPornMerge_urpmv12320LORA (1)
@天意 第一个模型库将这个删除了。
第三个也不知道对不对
https://www.123pan.com/s/sKd9-9iJc.html
https://www.123pan.com/s/sKd9-QiJc.html
@PhiltreX 只要是orangejuicemix的罗拉模型就行,不一定需要什么版本
@天意 没有,C站作者把这个模型删除了。
@PhiltreX 好的
你好大佬,我下载了基础的模型和人物模型,用了你提供的咒语,但是出来的都是抽象的图案,项目也重新启动过了。帮我看看啥问题呗 https://pan.succes.cool/s/eAOIL
@innet 你这是把所有的设置全部都放在了Prompt内,这是不对的,你此时应该点击一下生成按钮下面的第一个按钮,然后再生成,效果就好了。
站长大人,请问长泽亚美的lora模型在哪里下载??还有其他日本女明星的模型吗?
站长,不好意思,打错字 了,是长泽雅美lora模型,
@老张在此 这里https://www.123pan.com/s/sKd9-gzJc.html
站长大人,请问长泽雅美的lora有吗?还有这个lora 去哪里可以下载?
你好,为什么我的图生成后都会有很多的彩色呢
@llgy 明天本站论坛功能将会开放注册,届时欢迎来发帖求助。
https://bbs.openai.wiki
为什么下载老是被阻止 说是不安全,怎末解决啊
@康馨 明天本站论坛功能将会开放注册,届时欢迎来发帖求助,因为网站里不能发截图,我看不到就没法解决。
https://bbs.openai.wiki
提个建议,建议放在主站的这些基础模型、lora等等,都同步到论坛里?我发现好多之前特意去找的在主站这里找到了一些
@hp_zerolan 最近站长的任务量太大了,一边弄论坛,一边弄网站,还有一些其它的日常工作,所以暂时还没有同步到论坛内哈,如果有需要,可以前往论坛发贴。
你好,按照你的方法得到的图很简陋,ENSD: 31337, Size: 960×1024, Seed: 4138265202, Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 7, Clip skip: 2, Model hash: fc2511737a这部分我不知道怎么弄,是这部分的原因么?该怎么处理呢?
@Electrolux 看看这个https://bbs.openai.wiki/thread-9-1-2.html
站长问一下3.多G的和7.多G的基础模型有什么区别,用哪个比较好
@张疾风 7G的支持二次训练,如果你不打算训练的话,下载小的就可以。
@PhiltreX 好的感谢大佬
请问大佬,我按照提示词输入后效果和示例不一样是什么原因呢?
我能看到下载的chilloutmix_Ni模型的hash值是7234b76e42,但提示词里面的model hash是fc2511737a,难道是模型不对吗?
@innewst 理论上是都没有问题的,这是模型的MD5值,为了确保模型的唯一性。不过,现在这种模型是无法植入恶意代码之类的,所以只要可以正常出图就行。
@PhiltreX 谢谢!我后来发现是自己的lora环境出问题了,已经修复。至于那个hash值是chilloutmix的不同版本造成的,影响不大,现在已经正常。
为什么我使用了模型没有用啊 下载到劳拉模型 然后点击使用 在使用一些关键词 生出的图片 和模型没有关系 还是动漫的 是什么原因啊
@006 把完整的关键字贴出来我看一下
感谢站长的分享,您的“示例效果展示”这张图可能违规了,风险很高。建议换一张吧。
@hukan008 哈?啥也没露啊,但是感谢提醒,我一会重新生成一个换一下。🙏
友情提醒,如果复制完整的prompt,确保你周围没人,否则…:)
@Jede 哈哈哈哈,那可不归我管了。
站长大人,请问有没有,佟丽娅的lora,请指教一下
请问有佟丽亚的lora吗?
麻烦存一份Chilloutmix-Ni到腾讯微云,谢谢
Stable diffusion model failed to load
Loading weights [a7529df023] from /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/models/Stable-diffusion/final-pruned.ckpt
Loading weights [a7529df023] from /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/models/Stable-diffusion/final-pruned.ckpt
Creating model from config: /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/configs/v1-inference.yaml
Creating model from config: /Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/configs/v1-inference.yaml
creating model quickly: OSErrorcreating model quickly: OSError
Traceback (most recent call last):
File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 973, in _bootstrap
self._bootstrap_inner()
File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 1016, in _bootstrap_inner
self.run()
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/anyio/_backends/_asyncio.py”, line 807, in run
result = context.run(func, *args)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/utils.py”, line 707, in wrapper
response = f(*args, **kwargs)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/ui_settings.py”, line 316, in
fn=lambda value, k=k: self.run_settings_single(value, key=k),
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/ui_settings.py”, line 95, in run_settings_single
if value is None or not opts.set(key, value):
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/options.py”, line 165, in set
option.onchange()
Traceback (most recent call last):
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/call_queue.py”, line 14, in f
res = func(*args, **kwargs)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/initialize_util.py”, line 181, in
shared.opts.onchange(“sd_model_checkpoint”, wrap_queued_call(lambda: sd_models.reload_model_weights()), call=False)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 977, in reload_model_weights
load_model(checkpoint_info, already_loaded_state_dict=state_dict)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 820, in load_model
sd_model = instantiate_from_config(sd_config.model, state_dict)
File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 973, in _bootstrap
self._bootstrap_inner()
File “/usr/local/Cellar/python@3.10/3.10.14/Frameworks/Python.framework/Versions/3.10/lib/python3.10/threading.py”, line 1016, in _bootstrap_inner
self.run()
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/anyio/_backends/_asyncio.py”, line 807, in run
result = context.run(func, *args)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/utils.py”, line 707, in wrapper
response = f(*args, **kwargs)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/ui.py”, line 1165, in
update_image_cfg_scale_visibility = lambda: gr.update(visible=shared.sd_model and shared.sd_model.cond_stage_key == “edit”)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 775, in instantiate_from_config
return constructor(**params)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/shared_items.py”, line 175, in sd_model
return modules.sd_models.model_data.get_sd_model()
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 693, in get_sd_model
load_model()
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 820, in load_model
sd_model = instantiate_from_config(sd_config.model, state_dict)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/modules/sd_models.py”, line 775, in instantiate_from_config
return constructor(**params)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 563, in __init__
self.instantiate_cond_stage(cond_stage_config)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 563, in __init__
self.instantiate_cond_stage(cond_stage_config)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 630, in instantiate_cond_stage
model = instantiate_from_config(config)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 630, in instantiate_cond_stage
model = instantiate_from_config(config)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/util.py”, line 89, in instantiate_from_config
return get_obj_from_str(config[“target”])(**config.get(“params”, dict()))
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/util.py”, line 89, in instantiate_from_config
return get_obj_from_str(config[“target”])(**config.get(“params”, dict()))
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py”, line 103, in __init__
self.tokenizer = CLIPTokenizer.from_pretrained(version)
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/transformers/tokenization_utils_base.py”, line 1809, in from_pretrained
raise EnvironmentError(
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py”, line 103, in __init__
self.tokenizer = CLIPTokenizer.from_pretrained(version)
OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘openai/clip-vit-large-patch14’ is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.
File “/Users/bc_rdsec_suning_li/PycharmProjects/Ai_auto/stable-diffusion-webui/venv/lib/python3.10/site-packages/transformers/tokenization_utils_base.py”, line 1809, in from_pretrained
raise EnvironmentError(
OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘openai/clip-vit-large-patch14’ is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.
Failed to create model quickly; will retry using slow method.
Failed to create model quickly; will retry using slow method.
我这是为啥