AI模型推荐(1)Anything

您所在的位置:网站首页 飘渺这个词的意思 AI模型推荐(1)Anything

AI模型推荐(1)Anything

2023-12-27 23:41| 来源: 网络整理| 查看: 265

写在前面

      这次测试的模型是Anything-v3.0立绘专用模型(以下简称anything立绘),全称为Anything v3.0立绘专用模型(半精度剪枝版),文件名为Anything-v3.0-For-Tachie-non-ema-fp16,这个模型可以直接从WebUI的模型管理中下载到。

      测评将从vae,clip跳过层,采样方法等几个重要参数出发,通过控制变量法进行模型测试,测评结果仅作参考,不代表实际结果。

测试参数测试参数

在之后测试中,除测试变量外,其余变量都为默认测试参数,正面tag从测试用图中通过tag反推提取,并经过适当修改(图片中由于篇幅原因tag未显示全)

1,vae测试vae测试

对包括不加vae在内的5种vae进行了测试,可以直观地看出,vae并不能影响画面内容,只会对画面饱和度,亮度,明度等因素产生影响,不加vae会导致画面偏灰暗,但对于anything立绘来说影响并不算大(我测试过其他几个模型,有几个灰的可怕,甚至有一个模型不加vae就无法出图,相比之下不加vae的anything立绘的灰度完全在可接受范围内),另外,kl-f8,autoencader等几个vae出图后的饱和度较高,某些情况下会出现过饱和的问题,建议视个人喜好使用,个人推荐animevae,提高亮度的同时也不会显得过饱和。

另一个测试例2,clip跳过层测试

clip跳过层是个很玄乎的东西,一般来说只用2,这次测试了同一种子下clip跳过层从1到12的出图

clip跳过层测试

可以看到,clip在1,2,5,10,12的时候,画面出现了明显变化。

clip1

当clip设为1的时候,画面出现了极大的不稳定性,三个例子中只有例1基本符合tag,其他两个例子不能说毫无关系,只能说完全失去人物特征,但三个例子出图质量相比clip2都比较高,爱好随机抽卡的可以试试。

clip2,3,4

clip2,3,4是较为符合tag的参数,其中2的符合度最高,并依次递减,因此推荐参数基本都是2。实际上clip2—9的画面都是处于均衡变化状态,只不过例2中在clip5处出现了较大的画面变化,因此才分开说。

clip5,6,7,8,9

clip5,6,7,8,9可以说和tag出入已经相当大了,在测试中人物仅保留了兽耳,黑丝,外套,白衬衫等几个tag,其他tag基本都被忽视了,不推荐使用。

clip10,11,12

在clip10处,三个例子都出现了双人的情况,而在12处,虽然双人的情况消失,但生成的图片可以说与tag基本已经没什么关系了。

总结一下,首先,clip设置只推荐2,有抽卡需求的可以尝试一下1;其次,虽然都是与tag相关性有关,但clip跳过层的逻辑明显与提示词相关性(CFG Scale)有很大不同,clip明显和tag对着干,到后期甚至出现了双人的情况;个人猜想clip对画面的改变与tag的位置有关,越靠后的tag越容易被针对,而比较靠前的tag如1girl,solo等直到clip10才会被针对。

3,迭代步数测试迭代步数测试

迭代步数测试了1—10,20,40,60,80,100的参数设置,图太多就不细讲了,这边直接上结论:1—6步处于出图状态,从第7步开始基本出图完毕,到了能看的地步,7步以后每增加步数都会对画面不合理的地方做细微调整,20步之后画面基本稳定,不会再有较大改变。

另外值得一提的是,随着步数的增加,出图所需时间也会相应增加,到100步时,我1650的显卡基本10分钟才能出1张,因此不建议步数过高,建议保持在20到40左右。

4,采样方法测试采样方法测试

对SD自带的20种采样方法进行了测试,根据出图大概可以分为一下几系:

a系:名字中带a的

a系

SDE系:名字中带SDE的

SDE系

啥都没有系:名字里看不出规律,但是出图很像的系

啥都没有系

以及两个较特殊的:

Euler a:

Euler a

Euler a虽然名字也带a,出图也很像a系,但是和a系还是存在一定差别,因此单独分一类。

DPM fast:

DPM fast

DPM fast是个很特殊的采样方法,我一开始以为他出图质量堪忧,但对比迭代步数表后发现,他的出图效果很像没有迭代完成时的效果,于是我把迭代步数从20拉到了80,果不其然,80步迭代后的DPM fast出图质量得到改善,并且是偏a系的,但即使这样,依然不推荐DPM fast,谁让他采样迭代步数这么高,浪费时间。

5,提示词相关性测试提示词相关性测试

在提示词相关性测试中,选择了1—10,12,14,16,18,20,23,26,30几个参数进行测试。

CFG Scale1—3

相关度1时,anything立绘会产出一种极为魔幻的画风,可以说和他的原本的风格截然不同,我个人很喜欢这种画风,但是他人体结构等很不稳定,得靠自己脑补;相关度从2开始逐渐稳定下来,经过3,4的两次迭代,直到10都不会有什么明显的变化。

CFG Scale4—10

但其实微小的变化还是有的,直接对比4和10就会发现,相比于4,10的颜色饱和度,亮度明显高了一点,之后这一区别会被不断放大。

CFG Scale12,14,16,18,20

到了20,之前说的图像颜色问题被进一步放大,人物的动作,服饰也出现了改变,变得更加单调古板,此时的图已经难以称得上优秀了。

CFG Scale23,26,30

20以后的图像基本已经不能看了,人物发着诡异的光芒,颜色的曝光度,鲜明度被拉满,动作变成简单的站姿……简直惨不忍睹。

提示词相关性上,4—10是一个比较能接受的区间,拉高相关性并不能让图像更符合tag,只会让图像过曝过鲜明。

6,尺寸测试尺寸测试

出乎我意料的是,即使是在相同的种子下,不同的尺寸出的图也是截然不同的,我本以为会是简单地放大画面。可以直观地看到,如过想要不错的出图效果,长宽比最好保持在1:2或2:1内,且图像不宜过小。但除了128*128只画出了一双腿(ai还是很懂得嘛),128*768之后的比例没画出人形外,其他比例都画出了完整人形,甚至1024*128还画了两个,毕竟画面太长了,总不能把人给拉长了。

7,tag数量测试tag数量测试

在tag数量测试中,测试了不同数量的tag对画面的影响程度(具体tag见文末测试表),这里不做详细分析,直接给出结论,在不加权重的情况下,100字(不是100词!)以后的tag基本对画面产生不了多大影响,极有可能被忽略,可以参考测试例后三列,如果有特别想要表现出的tag,建议写在100字内,另外,通过加权重或多写相似tag也有可能解决此问题。(顺便吐槽一句,AI根本不认识阿米娅!第一列tag我只加了质量控制tag和amiya,AI显然不知道我在说什么)

另外值得一提的是,明显可以看出,在低tag情况下anything立绘出图的质量比高tag时高得多,由此可以得出两个结论:1,anything立绘的低tag适应性强,这是个很重要的特性,某些模型在低tag情况下完全出不了图。2,anything立绘tag敏感性高,这意味着anything模型能否出好图很大一部分由tag质量决定,这对不会写tag的小伙伴来说绝对是一场灾难。

最后总结,如果你不在乎出的是谁,只想要好看的妹纸,建议tag尽量少,体会抽卡的快感;如果你想要固定某个人物,又想要高质量的图,那么恰恰相反,tag写的越多越好,而且还得精通大魔导书,懂得tag权重等一系列知识,才有可能在anything立绘上出好图。

8,模型对比测试

模型对比测试

这里我用了我手上14个模型用相同的种子进行对比测试,不对模型好坏做评价,每个人有每个人的画风喜好。但还是可以看出,在相同条件下,一些模型出的图从细节,画面结构,人物动态,背景等方面确实是要优于其他模型的。anything立绘在这方面我只能说表现一般。

anything立绘cetusmeinamixorientalpunkmix9,重绘幅度测试重绘幅度测试

不多说,直接上结论,重绘幅度0.6之前都对画面造不成太大影响;重绘加tag确实能让重绘的方向与tag一致,但是也和tag质量息息相关;同一种子不同原图重绘的结果也不一样;

10,模型图例后话

anything立绘在我看来是一个相当稳定的模型,人物结构稳定,出图质量偏上,有很好的低tag适应力,但是其对tag质量要求较高,否则出的图容易平平无奇。

测试表,测试图包,以及一些不能说的链接:

链接:https://pan.baidu.com/s/1oX_EtQz7w94CGQYgM15WVA?pwd=y4px 

提取码:y4px

模型链接:

链接:https://pan.baidu.com/s/1NKsh5rc1_JtfK8UYCOq61Q?pwd=b39j 

提取码:b39j

如果有想测试的模型可以提供模型私聊哦

up微社恐所以不怎么回私信和评论

下一期模型预告:cetusmix(不知道啥时候会写出来,有可能咕咕咕)

Q&A

Q:用的配置是什么?

A:出图的参数包括种子都在测试表里,请去链接自取~~

显卡配置为NVIDIA GeForce GTX 1650(4G),垃圾显卡呜呜呜……

Q:为什么不测试面部修复/平铺分块/高清修复等其他功能?

A:统一回答,显卡带不动……

面部修复试过,感觉没什么区别;

平铺分块不知道是啥,总之没带动;

高清修复低了感觉没区别,高了带不动……

Q:为啥图包质量这么低?

A:图包包括测试图包(测试表里的图,文件名为:模型名+测试),测试废料图包(因为一些原因未能进入测试表的图,文件名为:测试),不能说的图包(文件名为:nsfw测试),这三个图包均为测试中生成,没有经过筛选,仅供学习使用,如果只是想要优秀的图包请自己跑或去p站

Q:为啥参数一模一样生成的图片不一样?

A:暂时不知道不同显卡是否会对出图内容产生影响,建议v我张显卡助我测试

Q:建议tag是什么?

A:建议tag为:质量tag(必加)+人物tag(自己决定,可用lora代替,抽卡可不写)+画面tag(最好加,大幅提升质量)+环境tag(最好加,大幅提升质量)+动作tag(有需要加);

我在测试时没加画面tag和环境tag,导致测试用图都平平无奇,在10,模型图例中加入了画面tag和环境tag,画面质量大幅度提升;

Q:为什么我测试的结果和你完全不一样?

A:本测试所得出的结论仅基于本测试用例,仅供参考,不代表实际效果;

Q:可不可以给我模型,图包,参数/怎么用AI绘画,AI绘画的软件

A:前者链接自取,后者b站自己搜教程

Q:为啥图片这么糊?

A:屏幕截图截的,想要高清图请去链接下载测试表

Q:为啥做这分析?

A:我在学习AI绘画的过程中,总会遇到:推荐模型不给参数的,给了参数没说原因的,说了原因太深奥听不懂的。所以才想尝试用自己能够理解且直观的方法去测试一款模型。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3