AI绘画部署及模型推荐和下载 |
您所在的位置:网站首页 › novelai整合包 › AI绘画部署及模型推荐和下载 |
文末会附带整合包地址和个人整合效果很好的一些大模型。 首先先确定几种情况 1.随便玩玩,本地机器显卡比较好(最好2080及以上,显存最好大于8g) 2.随便玩玩,本地显卡不行,使用云端部署 3.就是想体验下全部自己部署 前两者已经无限趋近傻瓜包了,本地有秋叶的整合包(百度网盘下载速度有点难受),各种云平台也都有了sd的镜像。 第三种这个么,大佬研究底层的不会来看我的文章。来看的我就理解为想折腾下吧。 1.首先sd webui是github的一个开源项目,通过git clone或者下载压缩包。 git地址:GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UIx 2.下载好后,需要配置好环境,即python3.10..6,git,以及显卡对应的cuda cuda下载地址: CUDA Toolkit Archive | NVIDIA Developer 3.上述安装好后执行pip install代码,等待下载依赖完毕。此步骤建议科学上网或者使用国内镜像,减少因网络错误产生的问题,执行代码: pip install -r requirements.txt如果机器ok,不建议使用xformers,这个东西大概可以理解为通过内存缓解显存不足的压力,效果是有的。但问题就是一旦装了这个东西,环境的问题就会很多,因为他对各个依赖的版本都有严格要求。 4.此时,下载一个大模型。这类文件大多数是2-7GB大小,后缀一般为ckpt和safetensors。 然后将下载好的文件放入stable-diffusion-webui-master\models\Stable-diffusion目录下。 5.然后命令行执行 "COMMANDLINE_ARGS='--medvram --opt-split-attention --port 6007 --no-half-vae' REQS_FILE='requirements.txt' python launch.py" 或者项目下,编辑webui-user.bat文件,将COMMANDLINE_ARGS内容改为'--medvram --opt-split-attention --port 6007 --no-half-vae'并保存,然后双击执行。 此处如果报显存不足的问题,可以额外添加--lowvram参数来启动服务,但会大幅降低图片生成速度。 教程看着可能和其他人比很简略,但其实sdwebui已经算是很友善了,基本上是装了python和git就能走下去。 遇到的大多数问题也是环境问题。 再次提醒,python版本选择3.10.6。 cuda安装正确版本,这两步正确,就避免掉了大多数人的70%的问题。 资源使用夸克储存,常态下下载速度要比百度快很多,新用户使用我分享的链接可以获得1T的空间(正常下载注册没有哦) 模型与整合包下载: 「秋叶包」,复制整段内容,打开最新版「夸克APP」即可获取。 无需下载在线播放视频,畅享原画5倍速,支持电视投屏。 /!a93d31L4LB!:/ 链接:https://pan.quark.cn/s/51cda4e66f2d 好用的大模型: 「大模型」,复制整段内容,打开最新版「夸克APP」即可获取。 无需下载在线播放视频,畅享原画5倍速,支持电视投屏。 /~331d31L4Ko~:/ 链接:https://pan.quark.cn/s/21697631e478 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |