AI绘画 – Stable Diffusion 笔记 (精简重点版)

如遇到不是很明白的点,详看完整版笔记,有测试图片参考更好理解:

AI绘画 - Stable Diffusion 笔记 (整合版)-简枫博客

图片处理核心思想

尽量将图片分块处理

在出图时,可能会出现整体不错,但个别细节不理想或不喜欢,那么就可以使用局部重绘功能,将一张图片进行一步步处理,在重绘时也可以结合 ControlNet 插件进行更精细的控制。

局部重绘参数

蒙版模糊度:该参数越大,蒙版生效的区域越小。相当于作画区域

蒙版区域内容处理:一般使用原图或潜在噪声,原图模式作画时会比较接近原来的图片,而潜在噪声则相反

绘制区域:

  • 全图会更好的参考原图,更好的融入进原图

  • 仅蒙版模式:会将蒙版区域进行放大进行重绘,最后缩小到原图蒙版位置

二者区别:全图模式相对比较自然,而仅蒙版模式细节更多

仅蒙版的参考半径:

  • 如果蒙版区域较小,需要局部修改就可以适当调大参考半径
  • 如果蒙版区域足够大,需要重绘足够的细节则需要适当调小参考半径

局部重绘涂鸦蒙版模式:主要用于将蒙版区域内的颜色进行替换

Controlnet参数

控制权重:顾名思义,越大越影响构图

引导介入时机、引导终止时机:引导介入时机比较影响构图,而终止时间则不怎么影响

按字面理解,看以下理论(目前是这个想法)

引导介入时机相当于是告诉你要画什么的时间,
当数值调大后,相当于画到一半才告诉你要画月亮,这个时候再去改为月亮就会在已有的画上强行修改(比如就是画面中出现了2个月亮),而引导终止时机影响不大的原因是,已经告诉过需要什么,已经有概念,所以基本上不会再偏离。

XYZ脚本(数据测试脚本)

会批量生成不同参数的图片,并且整合在一张图中,在需要批量调整参数时测试很好用

基本所有参数都可控制,但当多个 Controlnet 介入,只会对第一个 Controlnet 生效

值的数字写法(一种是范围写法,一种是特定写法):

  • 0-1(+0.2) ,生成某个参数为0的图片,每生成1张+0.2,直至到1,如果不加括号则默认每次+0.1
  • 1-0(-0.2),与上面相同,只不过是负数
  • 0,0.3,0.9 , 生成某个参数分别为 0 0.3 0.9 的图片

ControlNet模型作用

线稿模型:

Canny模型(硬边缘)与Lineart模型(线稿)

两个模型作用一致,都是将图片转换为线稿,用于控制图片总体的线条,比如人物的动作不变、装饰的形状不变

但是Lineart模型会更假精细,在作图时更接近原图

MLSD直线检测模型

这个模型也是生成线稿图,但是他只检测直线,一般用于场景设计

颜色模型(Color):

color模型:将图片转换为色块像素图,用于控制图片的整体色彩。

注意:颜色模型控制的是图片的色彩

分块模型(Segmentation):

用不同的颜色色块将图片中的物品、人物等进行标注,在参与作图后,生成的图片内容及位置几乎与原图相同。

注意:分块模型控制的是图片的内容

openpost模型(姿势检测模型):

生成图片中人物骨骼的图片,在进行生成人物时,会将该人物的动作保持原有的姿势,

可以将人物的四肢固定在某个区域,在出图错乱时(如一个人出现了2只左手),使用该模型能很好的解决

可以配合 3D OpenPost 插件进行对动作、人物比例的控制

局部重绘的上色模型(inpaint):

该模型主要用途在于给黑白图片上色,也可以对现有得色彩进行调整

光线控制模型:

lighting-based-picture-control-controlnet

地址及说明:https://civitai.com/models/80536/lighting-based-picture-control-controlnet

使用前一定要看说明,以及结合完整版笔记

© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发

    暂无评论内容