在逐渐增加的尺寸和批处理大小下运行 txt2img、img2img、highres-fix 直到 OOM,并将数据输出到图表。
这些脚本允许在生成步骤中动态控制 CFG。在正确的设置下,即使在 img2img 中低降噪的情况下,也可以获得高 CFG 的细节而不损坏生成的图像。
查看不同的图层,观察 U-Net 特征图。通过为每个 unet 块提供不同的提示生成图像:https://note.com/kohya_ss/n/n93b7c01b0547
DAAM 代表 Diffusion Attentive Attribution Maps。输入注意文本(必须是包含在提示中的字符串)并运行。将生成具有每个注意力热图的重叠图像以及原始图像。
根据输入提示生成提交输入图像的突出显示部分。与 tokenizer 扩展一起使用。有关更多信息,请参见自述文件。
预训练模型,确定美学/非美学,有 5 种不同的风格识别模式和 Waifu 确认。还有一个带有批处理的选项卡。
使用 CLIP+MLP 美学得分预测器基于 Chad Scorer 计算生成图像的美学分数。