Fooocus中文使用教程

您所在的位置:网站首页 梯子txt Fooocus中文使用教程

Fooocus中文使用教程

2024-07-09 23:25| 来源: 网络整理| 查看: 265

Fooocus中文使用教程注意事项:如有解决不了的问题,请加QQ频道,频道号:bzdll0aihuihua,点击加入:https://pd.qq.com/s/dp51y7xwa,将命令行窗口信息截图发至群内。1、请务必使用英文文件夹名,中文文件夹名容易出错无法出图。2、请使用固态硬盘,模型较大,机械硬盘读取速度慢,会卡很久。

3、请注意,最低要求是4GB Nvidia GPU 内存 (4GB VRAM)和8GB 系统内存 (8GB RAM)。这需要使用 Microsoft 的虚拟交换技术,在大多数情况下,Windows 安装会自动启用该技术,因此您通常不需要对此执行任何操作。

4、命令行错误信息内容为:The NVIDIA driver on your system is too old。请升级最新显卡驱动,或者您的显卡不支持,请使用Nvida RTX显卡,显存最低4G。5、本程序使用的模型只支持基础算法SDXL的,不支持SD1.5。新用户请尽量下载懒人包,否则模型的自动下载需要梯子。拆分下载用户请确认模型安装位置正确,需要同名文件夹覆盖。6、个别用户开梯子导致程序无法运行,因为碰巧梯子的端口和程序端口冲突,请把梯子的端口号修改为其他,本程序端口号7806。7、有精准画面需求且会写提示词的用户建议在样式中取消勾选“Fooocus V2智能提示词”,此为提示词智能填充,会由系统内置GPT2自动扩写提示词,影响出图精准度。8、支持和其他绘画软件共享模型目录,方法:先运行一下程序,在下载模型之前迅速关掉,寻找自动生成的“config.txt”文件,"path_checkpoints"是大模型目录,"path_loras"是Lora模型目录,其余模型目录不建议修改。改错的话程序会自动刷新重新生成。可参照”config_modification_tutorial.txt“文件里的格式修改。

9、笔记本用户如果不支持切换独显模式,请勿使用外接显示器,大概率出错。

模型安装方法:

 

 

 

 

 

怎样区分基础模型和Lora模型:

 

 

 

 

 

怎样区分SDXL模型和SD1.5模型:

 

 

 

 

 

 

 

 

 

 

 

 

程序自述

从Midjourney转移到Fooocus

使用 Fooocus 和 Midjourney 一样简单(可能比 Midjourney 更容易)——但这并不意味着我们缺乏功能。以下是详细信息。

 

Midjourney

Fooocus

高质量的文本到图像,无需大量即时工程或参数调整。(未知方法)

高质量的文本到图像,无需大量即时工程或参数调整。(Fooocus 拥有基于 GPT-2 的离线提示处理引擎和大量采样改进,因此无论您的提示短到“house in garden”还是长到 1000 个单词,结果总是很漂亮)

V1 V2 V3 V4

输入图像 -> 高档或变化 -> 变化(微妙)/变化(强烈)

U1 U2 U3 U4

输入图像 -> 放大或变化 -> 放大 (1.5x) / 放大 (2x)

修复/上/下/左/右(平移)

输入图像 -> 内部重绘或外部重绘-> 重绘 / 上 / 下 / 左 / 右(Fooocus 使用自己的修复算法和修复模型,因此结果比所有其他使用标准 SDXL 修复方法/模型的软件更令人满意)

图片提示

输入图像 -> 图像提示(Fooocus 使用自己的图像提示算法,因此结果质量和提示理解比使用标准 SDXL 方法(如标准 IP-Adapters或Revisions)的所有其他软件更令人满意)

--style

高级 -> 风格

--stylize

高级 -> 高级 -> 指导

--niji

多个启动器:“run.bat”、“run_anime.bat”和“run_realistic.bat”。 Fooocus在Civitai上支持SDXL型号 (不知道的可以google搜索“Civitai”)

--quality

高级->质量

--repeat

高级 -> 图像编号

多重提示 (::)

只需使用多行提示即可

提示词权重

你可以使用“I am (happy:1.5)”。Fooocus使用A1111的重新加权算法,因此如果用户直接从Civitai复制提示,结果会比ComfyUI更好。(因为如果提示是用ComfyUI的重新加权编写的,用户就不太可能复制提示文本,因为他们更喜欢拖动文件)

--no

高级 -> 否定提示

--ar

高级 -> 宽高比

我们还借鉴了 LeonardoAI 最好的部分:

LeonardoAI

Fooocus

提示词魔法

高级 -> 风格 -> Fooocus V2

高级采样器参数(如对比度/锐度/等)

高级 -> 高级 -> 采样清晰度/等等

用户友好的 ControlNet

输入图像->图像提示->高级

 

下载:

 

官方英文版地址:

https://github.com/lllyasviel/Fooocus/

 

国内中文版:夸克盘(更新最快):

https://pan.quark.cn/s/29e2d562d922

百度盘(懒人包延迟更新): https://pan.baidu.com/s/1M5bmeWGW3y3D-aLm_uTl2Q?pwd=8trk

 

 

点击这个启动程序

 

模型下载:

 

懒人包内包含所有模型,无需下载,如果缺少模型,它会自动从外网下载,请保持自己的网络可以访问外网,否则请到网盘中下载。

 

AMD显卡启动参数,请将启动器参数修改为:.\python_embeded\python.exe -m pip uninstall torch torchvision torchaudio torchtext functorch xformers -y

.\python_embeded\python.exe -m pip install torch-directml

.\python_embeded\python.exe -s Fooocus\entry_without_update.py --language zh_CN  %*

Pause

 

 

“隐藏”技巧列表

1、以下功能已经集成在软件中,用户不需要对这些进行任何操作。

 

2、基于GPT2的提示扩展作为一种动态风格“Fooocus V2”(类似于Midjourney的隐藏预处理和“原始”模式,或LeonardoAI的提示魔法)。

3、在单个k取样器内部的原生精炼器切换。其优势在于,现在精炼模型可以重用从k取样中收集到的基础模型的动量(或ODE的历史参数),以实现更连贯的取样。在Automatic1111的高分辨率修正和ComfyUI的节点系统中,基础模型和精炼器使用两个独立的k取样器,这意味着动量在很大程度上被浪费了,取样的连续性也被打断了。Fooocus使用其自己的先进k扩散取样,确保在精炼器设置中无缝、原生和连续的切换。(更新8月13日:实际上我几天前与Automatic1111讨论过这个问题,似乎“在单个k取样器内部的原生精炼器切换”已合并到webui的开发分支。太棒了!)

4、负ADM指导。因为XL基础模型的最高分辨率层没有交叉注意力,XL的最高分辨率层在CFG取样过程中正负信号无法获得足够对比度,导致结果在某些情况下看起来有点塑料感或过于光滑。幸运的是,由于XL的最高分辨率层仍然受到图像宽高比(ADM)的条件限制,我们可以修改正负面的adm来补偿最高分辨率层CFG对比度的不足。(更新8月16日,IOS应用程序Drawing Things将支持负ADM指导。太棒了!)

5、我们实现了经过仔细调优的“使用自注意力指导改善扩散模型样本质量”第5.1节的变体。权重设定得非常低,但这是Fooocus确保XL永远不会产生过于光滑或塑料外观(此处有示例)的最终保障。这几乎可以消除所有即使在负ADM指导下,XL偶尔仍会产生过于光滑结果的情况。(更新2023年8月18日,SAG的高斯核被改为各向异性核,以便更好地保持结构并减少伪影。)

6、我们稍微修改了风格模板,并增加了“电影默认”。

7、我们测试了“sd_xl_offset_example-lora_1.0.safetensors”,似乎当lora权重低于0.5时,结果总是比没有lora的XL更好。

8、采样器的参数经过仔细调整。

9、因为XL使用位置编码来生成分辨率,由几个固定分辨率生成的图像看起来比任意分辨率的图像要好一些(因为位置编码不太擅长处理训练时未见过的整数)。这表明UI中的分辨率可能为获得最佳结果而硬编码。

10、对于两个不同文本编码器的分开提示似乎没必要。基础模型和精炼器的分开提示可能会起作用,但效果是随机的,我们避免实现这一点。

11、DPM家族似乎非常适合XL,因为XL有时会生成过于光滑的纹理,但DPM家族有时会在纹理中生成过于密集的细节。他们的联合效果看起来既中性又吸引人的感觉。

12、一个为平衡多种风格以及提示扩展而精心设计的系统。

使用automatic1111的方法来规范提示的强调。这在用户直接从civitai复制提示时显著提高了结果。

13、精炼器的联合交换系统现在也以无缝方式支持img2img和放大。

14、当CFG大于10时,为SDXL调整的CFG比例和TSNR校正。

 

以下是人们常遇到的一些问题:

RuntimeError: CPUAllocator

运行时错误:CPU分配器 请参阅以下章节:系统虚拟内存

 

Model loaded, then paused, then nothing happens

模型加载后暂停,然后没有任何反应 请参阅以下章节:系统虚拟内存

 

Segmentation Fault

分段故障 请参阅以下章节:系统虚拟内存

 

Killed

进程被终止 请参阅以下章节:系统虚拟内存

 

adm 2816, then stuck

adm 2816错误,随后程序卡住 请参阅以下章节:系统虚拟内存

 

Connection errored out

连接出现错误 请参阅以下章节:系统虚拟内存

 

Error 1006

错误1006 请参阅以下章节:系统虚拟内存

 

WinError 10060

Windows错误10060 请参阅以下章节:系统虚拟内存

 

Read timed out

读取超时 请参阅以下章节:系统虚拟内存

 

No error, but the console close in a flash. Cannot find any error.

没有错误,但是控制台突然关闭。找不到任何错误。 请参阅以下章节:系统虚拟内存

 

Model loading is extremely slow (more than 1 minute)

模型加载非常慢(超过1分钟) 请参阅以下章节:系统虚拟内存

 

System Swap

系统虚拟内存 以上所有问题均由系统虚拟内存不足引起。

请确保您至少有40GB的系统虚拟内存。实际上,可能不需要这么多虚拟内存,但40GB应该足够您成功运行Fooocus。

(如果您有超过64GB的RAM,那么可能您不需要任何系统虚拟内存,但我们不能确定。)

此外,如果您的系统虚拟内存在HDD上,模型加载速度会非常慢。请尽量将系统虚拟内存放在SSD上。

如果您使用的是Linux/Mac,请按照您的提供商的指示来设置虚拟内存。这里的“提供商”指的是Ubuntu官方、CentOS官方、Mac官方等。

如果您同时使用HDD和SSD,可能需要在上面的步骤7中测试一些设置,以尽量把交换区域放在SSD上,这样模型加载的速度会更快。

重要:默认情况下,Microsoft Windows 10/11会为您自动管理系统虚拟内存,所以您不需要接触这个危险的设置。如果您的系统虚拟内存不足,请确保每个磁盘上至少有40GB的空闲空间。 Microsoft Windows 10/11会为您自动创建交换区。

另外,如果您从一些非官方的中国或俄罗斯提供商那里获得Microsoft Windows 10/11,他们可能修改了系统虚拟内存的默认设置,以宣传某些“增强版Windows 10/11”(但实际上他们只是使情况变得更糟而没有改进)。在这种情况下,您可能需要手动检查您的系统虚拟内存设置是否与上面的截图一致。

最后,请注意,您需要重启计算机以激活系统虚拟内存的任何更改。

 

MetadataIncompleteBuffer

请参阅以下章节:模型损坏

 

PytorchStreamReader failed

请参阅以下章节:模型损坏

 

Model corrupted

如果您看到模型损坏的提示,那么您的模型已经损坏。如果您的互联网连接良好,Fooocus会为您重新下载损坏的模型。否则,您也可以手动下载模型。每次请求下载模型时,您都可以在控制台中找到模型的url和它们在本地的位置。

 

UserWarning: The operator 'aten::std_mean.correction' is not currently supported on the DML

这是一个您可以忽略的警告。

 

Torch not compiled with CUDA enabled

您没有遵循官方安装指南。

请不要相信互联网上的错误教程,请只信任官方安装指南。

 

subprocess-exited-with-error

请使用python 3.10

此外,您没有遵循官方安装指南。

请不要相信互联网上的错误教程,请只信任官方安装指南。

 

SSL: CERTIFICATE_VERIFY_FAILED

您是否住在中国?如果是,请考虑关闭VPN,并/或尝试手动下载模型。

如果您在世界其他地方遇到这个错误,那么您可能需要查看这个搜索。由于原因可能不同,我们无法提供非常具体的修复指南。

 

CUDA kernel errors might be asynchronously reported at some other API call

这个问题两个月前已经解决。请确保您使用的是最新版本的Fooocus(尝试全新安装)。

如果仍然不起作用,请尝试升级您的Nvidia驱动程序。

如果仍然不起作用,请打开一个完整日志的问题,我们会看一下。

 

Found no NVIDIA driver on your system

请升级您的Nvidia驱动程序。

如果您使用的是AMD,请遵循官方安装指南。

 

NVIDIA driver too old

请升级您的Nvidia驱动程序。

 

I am using Mac, the speed is very slow.

一些Mac用户可能需要--enable-smart-memory来加速模型加载。

此外,目前对Mac的支持非常实验性,我们鼓励用户也尝试Diffusionbee或Drawingthings:它们只为Mac开发。

 

I am using Nvidia with 8GB VRAM, I get CUDA Out Of Memory

这是一个BUG。请尽快告知我们。请提出问题。

 

I am using Nvidia with 6GB VRAM, I get CUDA Out Of Memory

这是一个BUG。请尽快告知我们。请提出问题。

 

I am using Nvidia with 4GB VRAM with Float16 support, like RTX 3050, I get CUDA Out Of Memory

这是一个BUG。请尽快告知我们。请提出问题。

 

I am using Nvidia with 4GB VRAM without Float16 support, like GTX 960, I get CUDA Out Of Memory

支持没有fp16支持的4GB VRAM GPU非常困难,您可能无法使用SDXL。然而,您仍然可以提出问题并告知我们。您可以尝试在Automatic1111或其他适合您设备的软件中尝试SD1.5。

 

I am using AMD GPU on Windows, I get CUDA Out Of Memory

目前对Windows的AMD支持非常实验性。如果您看到这个,那么您可能无法在Windows上的这个设备上使用Fooocus。

然而,如果您能够在任何其他软件上的同一设备上运行SDXL,请立即告知我们,我们将尽快支持它。如果没有其他软件能够使您的设备在Windows上运行SDXL,那么我们也没有太多的帮助。

此外,因为它将使用ROCM,Linux上的AMD支持略好于Windows。如果您愿意更改操作系统为Linux,也可以尝试它。

 

I am using AMD GPU on Linux, I get CUDA Out Of Memory

Linux上对AMD的支持优于Windows,但仍然非常实验性。然而,如果您能够在任何其他软件上的同一设备上运行SDXL,请立即告知我们,我们将尽快支持它。如果没有其他软件能够使您的设备在Windows上运行SDXL,那么我们也没有太多的帮助。

 

I tried flags like --lowvram or --gpu-only or --bf16 or so on, and things are not getting any better?

如果您被一些错误的教程误导,请删除这些标志。在大多数情况下,这些标志只会使情况变得更糟并引入更多问题。

 

Fooocus suddenly becomes very slow and I have not changed anything

Fooocus突然变得非常慢,而我什么都没有改变 您是否不小心同时运行了两个Fooocus?

 



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3