AMD显卡本地化部署Stable Diffusion WebUI AI绘画教程
本文介绍了如何在本地环境中使用AMD显卡
部署Stable Diffusion WebUI
AI绘画工具,但是因为AMD不支持Torch和CUDA之类的依赖环境,所以可能出图速度不如N卡快。
警告
站长没有AMD显卡,以下内容根据Stable Diffusion WebUI作者所给出的相应帮助信息所撰写,所以可能有不正确的地方,欢迎A卡用户指正,帮助更多的人。
安装前提
- 你的电脑必须是AMD显卡。
- 必须安装Git工具,该工具是为了可以自动拉取GitHub远程仓库的代码。
安装过程
如果部分软件由于网络问题无法下载,可以在此文章最后找到所有所需安装包的百度网盘|腾讯微云|阿里网盘的下载地址。
Git下载
该软件的作用是拉取远程Github仓库代码,可以让你的Stable Diffusion远程实时更新,及时使用全新功能。
Git安装
配置环境
项目文件夹
在电脑的D盘新建一个文件夹,本站以域名为例,建议您与本站使用同样的名字openai.wiki
,方便您后续不用改代码,这个文件夹用来后续存放项目文件。
本站创建项目文件夹后的完整路径为D:\openai.wiki
拉取远程仓库
在您通过本站教程安装Git和Conda后,按下键盘上的Windows徽标键+R键,然后输入CMD,按下回车。将会自动弹出一个黑色的CMD窗口,我们在这个窗口内输入如下命令,这段命令的作用为,将CMD的当前工作路径指定为D:\openai.wiki
目录。
cd /d D:\openai.wiki
自动安装
建议先尝试自动安装,如果自动安装失败,那么再尝试下面的手动安装。
执行如下代码,拉取SD的文件至本地。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
此时,双击运行D:\openai.wiki\stable-diffusion-webui
目录下的webui.sh
文件即可。
手动安装
执行以下代码,粘贴至该窗口内,然后按下回车,命令行窗口内将会自动下载支持AMD版本的Stable Diffusion WebUI相关文件至D:\openai.wiki
目录下。
git clone https://github.com/lshqqytiger/stable-diffusion-webui-directml && cd stable-diffusion-webui-directml && git submodule init && git submodule update
等待上面的命令行运行结束之后,就可以在D盘的openai.wiki
文件夹内看到所拉取的Github仓库文件啦!
注意:必须要开启魔法上网,不然大概率无法下载。
BUG处理
黑色方块
如果您可以成功运行,但是在出图时却出现黑色方块等问题,那么您可以使用文本编辑器打开webui-user.sh
文件,找到#export COMMANDLINE_ARGS=""
这一行。
# Commandline arguments for webui.py, for example: export COMMANDLINE_ARGS="--medvram --opt-split-attention" #export COMMANDLINE_ARGS=""
我们修改#export COMMANDLINE_ARGS=""
的内容,删除#
号,后面添加--precision full --no-half
参数,修改后的内容如下,然后记得保存,重新运行。
export COMMANDLINE_ARGS="--precision full --no-half"
注意:某些显卡,如Radeon RX 6000
系列和RX 500
系列,无需设置以上内容即可正常运行,节省大量显存。总而言之,如果你出图正常,请忽略BUG处理中的这些操作。
低显存模式
如果您有的AMD显卡显存只有4-6GB,,那么您可以使用文本编辑器打开webui-user.sh
文件,找到#export COMMANDLINE_ARGS=""
这一行。
# Commandline arguments for webui.py, for example: export COMMANDLINE_ARGS="--medvram --opt-split-attention" #export COMMANDLINE_ARGS=""
我们修改#export COMMANDLINE_ARGS=""
的内容,删除#
号,后面添加--precision full --no-half
参数,修改后的内容如下,然后记得保存,重新运行。
export COMMANDLINE_ARGS="--opt-sub-quad-attention --lowvram --disable-nan-check"
模型安装
什么是模型?怎么下载?怎么安装?请阅读下面这篇:
下载好模型之后,将模型移到至./models/Stable-diffusion
目录内。
警告
以上所有内容均为理论,因为站长没有AMD显卡,实在没有办法测试,如果有问题,欢迎反馈。
技术交流
本站已开放AI技术交流论坛,如果您在学习过程当中遇到问题,可在本论坛【点击前往】发帖求助。
点击下文前往Stable Diffusion的教程总目录,学习其它内容。
评论 (0)