Stable Diffusion 2使用(安装软件+出图+安装插件+训练模型) |
您所在的位置:网站首页 › 画图软件怎么调整图片大小和像素大小一样 › Stable Diffusion 2使用(安装软件+出图+安装插件+训练模型) |
3软件安装:最简化运行 注意:每种安装效果都是一样的。web-ui版需要自己配置环境,comfy-ui版流程更清晰,云服务器版是在云端运行的。 1web-ui版安装软件网页打开GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI。下载git。官网下载。打开想要下载的文件夹,右键git bash here,输入代码开始下载到当前文件夹。git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git下载完成后安装python,勾选Add Python to PATH。不下载也是可以的,但是打开webui就会提醒你下载,并且也会告诉你软件是在哪找python的。安装基础模型,在huggingface上下载,stable diffusion model 1.4,1.5等版本。右键web-ui.bat点击编辑,在倒数第二行空行,加入git pull,在每次启动时候自动更新。点击web-ui.bat启动cmd框。把cmd框中最后的网站复制到浏览器打开即可运行。2comfy-ui版安装3colab云端使用web-ui版1打开网页: https://github.com/camenduru/stable-diffusion-webui-colab 选择需要的版本进行使用。 部署一个有controlnet插件的版本(简化版controlnet)需要大概8分钟左右。插件如下图。 2安装指定模型: 3导出文件: 在outputs中可以查看生成的图片。4基础功能1:文生图text2img1文生图画布大小提示词与画布大小相匹配,prompt太多有些元素就出不来,prompt太少就会重复绘画。最终出现物体的畸形或压缩,或者多出一个人物。解决方法:1竖长图添加full body(全身),短图添加upper body(上半身)。2调整画面长宽比与人物相适宜。模型训练一般用的都是512X512的图片,基础画布如果太大也不会出现更好的效果。推荐尺寸数值:384,512,640,768,896,960,1024。2prompt语法词权重,越靠前权重越高,越靠后权重越低。 (tag)=多1.1倍((tag))=1.21倍(tag:1.2)=1.2倍[tag]=少1.1倍red|blue hair=混合颜色头发[red:blue:0.5] hair=前50%次迭代用red,后用blue[red:blue:5] hair=前5次迭代用red,后用blue[red:blue] hair=red,blue交替迭代3影响程度大的prompt种类以下几个方面的关键词是对于画面内容影响最大的因素,应该优先考虑。反而是那些强调细节的prompt对于整体的影响度较低。列举出的以下类别prompt可以产生巨大的效果,如果需要复制其他人的画面,不可以轻易去除。 影响人物属性: 年龄成熟度(少年,青年,中年,老年)性别肤色哪种地区的长相动作姿势(standing,walking等)影响图片构图效果: 光影效果光源声明(不声明的话很可能没有打光)构图要求(全身,半身,头像等)背景空间影响画风: 绘画方法(素描,水彩,照片,漫画等)次元(2d,2.5d,3d,照片写实)画风(和哪个时代,哪个画师,哪个作品,哪个作画流派主义,等类似的)色彩(鲜艳的,饱和度等)4prompt和negative prompt的使用情况prompt往往对于与你想创作的重点进行强调。重点在于你想要在这里突出的重点是什么。negative prompt在有限可能性下,限制图片的特征。比如长相一般分为亚洲,欧洲,非洲。那么如果想让人物更像欧洲人,就可以在剔除词输入其他所有可能性,来更好的突出特征。类似的可能性有限的特征类型包括年龄,性别,肤色,地区长相,次元,绘画方法,色彩等。这些都可以优先添加到剔除词中。5声明顺序对出图结果的影响一般的声明顺序,按照重要程度,画面的注意力程度,由高到低排列。 动作,光效,构图。主体特征。主体是什么。细节部位。细节特征。背景空间。(背景虽然重要,但是好像无论放在哪都能一定能被渲染出来。)其他细节。经过测试,我认为一类prompt应该尽量放在一起。归类好的形容词比完全打乱的形容词,画面整齐那么一点点。 5基础功能2:图生图img2img1缩放模式参数拉伸:强制改变长宽比。裁剪:保留长宽比,对多余的部分进行裁剪。填充:分辨率比原图大,保留比例,对空白处进行填充。缩放:不会改变长宽比的缩放。2denoising全部重绘参数按照denosing比例增加噪声。按照prompt生成图片,去除噪声。所以如果prompt与原图一样,那么denosing无论多少,画面都不会改变。(其他参数,模型不变的情况下。) 3inpaint局部重绘参数加了一个蒙版mask,只有在选中区域内才会改变。 inpaint重绘参数介绍 1蒙版模糊:0代表和边缘衔接生硬。1代表和边缘衔接最柔和。 2填充物选项 填充:删除mask的内容,再根据背景填充。内容和背景更相似。原图:内容和原图内容更相似。小改。潜空间噪声:用噪声替换再生成。生成结果随机,有更多可能。可以指定增加其他物品。增加。潜空间数值清零:4手绘蒙版参数可以在蒙版上指定颜色。 6出图流程0完全复刻一张图的影响因素总共有三个方面决定了生成的内容:咒语+超参数+模型=生成的内容 prompt超参数(长,宽,sampler,CFG_scale,setp,seed,hire_fix等参数)模型和其他权重类插件(checkpoint,vae,lora,超文本网络,文本反演等)硬件(即使所有都一样,不同的硬件也会生成一些差异,暂不清楚为什么)各因素影响出图质量的占比: 咒语:10-50%(如果不声明人物属性,构图,画风的情况下,就会非常低,显示出模型原始特征)超参数:10%(图片与画布尺寸要合适)模型:40-80%(学习训练素材的特征,并运用到生成的图片中)1基本的出图流程产生构图(填写prompt+controlnet骨架图或景深关系图产生原始构图)稳定画面元素(调整prompt)寻找最优解(批量跑图迭代出最喜欢的一张)在稳定构图上制造轻微的差异化(选中最理想的图+固定seed+调整prompt)选中一张提高画质(hire fix提高画质)重绘细节(inpaint重绘大区域)再次提高画质(导出图片后+gigaplxel ai软件放大图片)手动重绘细节(ps软件:调整光影+修改细节)2按照出图流程作演示7插件:安装和调用方式注意:web-ui本身支持的可安装文件一般放在models文件夹中。从github下载的扩展的功能,会在"stable-diffusion-webui\extensions"文件夹中生成对应的文件夹,模型文件就下载到对应的文件夹中。1checkpoint模型:作用:基础模型。学习训练素材,把其特征输出到生成的图片。数据类型:权重参数(后缀pt,ckpt,safetensors)下载:网站下载模型存放地址:\stable-diffusion-webui\models\Stable-diffusion如何调用:ui界面左上角切换。如下图。网址:Models - Hugging Face。如下图,右边全是模型。 网址:Civitai。 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |