stable-diffusion-webui AI绘画工具,本文介绍图生图,以一张图片做底图优化生成。
例如:上传一张真人照片,让AI把他改绘成动漫人物;上传画作线稿,让AI自动上色;上传一张黑白照,让AI把它修复成彩色相片。
https://github.com/AUTOMATIC1111/stable-diffusion-webui
这个功能位于「Img2img」的页签。
Resize mode:调整生成图片分辨率的模式,有原始分辨率、矩形、精确缩放等选项
Sampling method:采样方法,主要有Euler、Euler a、DPM++、DPM Fast等。
Sampling steps:采样步数,一般设为20-100,步数越多质量越高但速度更慢。
Refiner:选择是否使用重采样模型提升质量。
Resize to:直接设定生成图片的分辨率大小
Resize by:按比例缩放生成图片的分辨率。
CFG Scale:控制生成图片质量和速度的折中参数,范围7-12。
Denoising strength:去噪强度,默认为0.75,数值越高去噪强度越大。
Seed:随机种子数,确保每次相同条件可以复现结果。
Script:选择定制脚本,实现不同效果。
Interrogate Deepboooru
上传图片后,用Danbooru图库数据判别图片并自动填入提示词。需要注意Deepbooru训练的图像数量有限,它顶多只能用来认图片的场景和人物tag,无法准确标出最新的动漫角色。
Interrogate CLIP
类似Deepbooru用途,不过较适合判别真人照片内容。
Refiner 选项框内包含两个选项,一个是模型的选择框 “checkpoint”,另一个是决定何时开始使用 refiner 模型 “switch at”。当 “switch at”设定为0.5时即表示前一半的步骤使用 base 模型迭代,最后一半的步骤使用 refiner 模型迭代。设定为1则表示关闭此功能。
很有意思的是,refiner 的模型选项框内可以选择不止refiner 模型,还可以选择其他的普通模型(SDXL 和 SD1.5 都可以),因此就衍生出一种新的玩法,比如前面几步我使用真实模型,后面几步则使用动漫模型推理,生成更具特色的图片。
https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase#inpainting
当用户想要改进生成的图像中的某些部分时,可以使用修复功能来指定并编辑图像中的任何部分。
这个功能允许用户多次将输出图像反馈到img2img中,使用相同的提示生成更多图像。
用于提高低分辨率、小尺寸图像的大小和质量,通过使用算法如Lanczos和Real ESRGAN/ESRGAN来放大多个图像,并将这些图像叠加生成单一放大图像。
图像的外延绘制功能,即在图像的边缘添加新的内容。
更基础的外延绘制方法。
用于从文件中读取提示,并用于图像生成
这个功能允许用户通过组合输入的字符串(提示)来生成图像。通常,关键词是用逗号分隔的,但在Prompt matrix中,它们是用竖线(‘|’)分隔的。例如,输入提示“繁忙的现代城市街道 | 插画 | 电影式灯光”,系统将生成结合了“繁忙的现代城市街道”、“插画”和“电影式灯光”的图像。这个功能可以输出多种组合的图像,让用户看到不同元素组合的效果。
加载视频,,并照常配置 controlnet 的其余部分,但不加载图片
Controlnet 将从视频中获取图片并创建视频。
https://www.reddit.com/media?url=https%3A%2F%2Fpreview.redd.it%2Fio1uce6d6zka1.gif%3Fformat%3Dmp4%26s%3Deae8ab720eeaa71a0197a3999ae53d7d88057317
这个功能提供了两种选择项“X Type”和“Y Type”,用户可以选择不同的变量,如“Seed”(种子)、“Steps”(步骤)、“CFG Scale”(CFG比例,越高的值使图像更接近提示)、“Prompt S/R”(结束提示)和“Sampler”(采样器)。用户可以通过这些选项来生成不同风格和特征的图像。例如,选择不同的画家风格和采样器类型,可以看到每位画家风格的差异以及不同采样器带来的效果。
https://civitai.com/models/34185/test002