【Stable |
您所在的位置:网站首页 › deepfacelab训练8万还是模糊 › 【Stable |
文章目录
(零)前言(一)DeepFaceLab(DeepFake)(二)Stable-Diffusion(WEBUI)(三)AI相互配合(加上人)
(零)前言
本篇主要提到:人工智能SD+人脑 + 人工智能DFL配合,最终让仅有少量照片的人物出现在视频中。 更多Stable-Diffusion(AI绘图)内容:🔗《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 更多DeepFaceLab(换脸)内容无单独索引:🔗《可以提高DeepFaceLab(DeepFake)合成最终视频速度的方法》 (一)DeepFaceLab(DeepFake)换脸的效果非常好,它较最初的DeepFake有很大改进,生成的视频能以假乱真(还需后期处理一下噪点等)。 但DFL需要大量高质量的图片源脸(Source)(src),如果仅有少量照片,则无法涵盖多个角度光影,甚至连清晰度都不够。这时强行使用DFL学习则很难降低loss,AI再厉害也回天乏术,最终视频效果根本无法入目。 参考:来自[伊万-佩罗夫]的 Git仓库地址,论文地址。 (二)Stable-Diffusion(WEBUI)通过在一个潜在表示空间中迭代“去噪”数据来生成图像。最大的特点是非常快,用普通的显卡几秒钟可以画出结果。 同时可以通过比较少量图片来训练LoRA模型。但对于生成人物来说,远景加面部表情有些问题,有时生成很像,有时不像,有时很离谱。 参考:这是我们用到的 SD仓库,WEBUI仓库,以及 论文地址。 (三)AI相互配合(加上人)别忘了Stable-Diffusion生成图片很快,甚至训练也很快。 我们还可以通过提示词(Prompt)控制人物姿态方向表情动作。所以我们可以这么干: 用某个人物少量的照片生成TA的LoRA模型。让电脑疯狂的生成大量该模型的图片(近景,面部特写)。由你自己判断和选出很像的图片 💡 (重要)。把这些图片给DFL作为素材使用。是的,既然人工智能无法保障面部特征和细微表情,人可以自己判断。 这样一来,缺失但重要的一环就补上了。 这就是取长补短吧——真正实现了所谓人工智能:你来负责人工,计算机负责智能。🤪 玩笑归玩笑,也许有一天AI能真的知道,照片到底像不像人。 快去翻翻老照片,看看祖爷爷/祖奶奶照片够不够训练一个模型。 也许真能让他们生动的出现在视频中。 需要放图么?这里没有例图,也不需要示意图和结构图吧。 😜Happy Creating…… |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |