Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

照片超清修复

Answer

以下是关于照片超清修复的相关内容:

使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型进行照片超清修复,需将该模型放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中,StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中,VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。

以神仙姐姐的照片为例进行测试,其原始分辨率为 512x768,放大后较模糊。先使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但重绘幅度开到 0.4 会使人物变化较大且失去真实感。用“后期处理”的放大方法,缩放 3 倍后眼神更锐利,但头发仍模糊。最后用 StableSR 放大时,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

Tusiart 简易上手教程中提到高清修复是在原本图像分辨率基础上让其更精细,高清修复采样次数与前面采样次数理解相同,重绘幅度相当于图生图的重绘。

在 Stable Diffusion 中,AI 出图默认分辨率为 512x512,用于商业不够。提高最终出图分辨率可使用高清修复功能,如将初始分辨率设为 800x420,选择放大倍率为 2,理论上放大倍率越高图片越清晰,但实际效果与电脑配置和显卡显存有关。先以 800x420 画图并获取种子值,然后填入随机数种子固定图片,放大时可选择算法,如二次元绘图用 R-ESRGAN 4x+Anime6B,写实类风格用 R-ESRGAN 4x+。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

Tusiart简易上手教程

1.高清修复:在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。我理解是和原来的图像分辨率设置形成了两次绘图的流程,第一次绘图出内容,第二次绘图添加画面精细。2.修复方式:这个我没懂,每次学别人的操作,还不知道影响在哪,等我学会了我会回来改这里的哈哈哈。读者老爷们可以催更。3.高清修复采样次数:和前面采样次数一样理解就好。4.重绘幅度:相当于图生图的重绘。在原有的内容上,如果重绘幅度不是0,那么就会在变得高清的同时有一部分内容上的变动,不过用户看不到中间过程。1.ADetailer:面部修复插件,治愈脸部崩坏的超强小工具,高阶技能,后面再学。

【SD】如何画出商用级别的高清大图

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-04 21:00原文网址:https://mp.weixin.qq.com/s/zy0MyjCUxCF1C-WC6cUdBg在Stable Diffusion中,AI出图的默认分辨率为512x512,这也是大多数模型训练的尺寸。这个分辨率出的图运用到商业上显然是不够的,我们通常的做法是提高分辨率,增加提高精细度的关键词等等。但是,直接拉高分辨率的做法不仅会让我们的出图效率变低,也会使构图出现问题。这张图是在1600x840的分辨率下绘制的,不仅出图时间很长,而且在一个画面中出现了两个人物,所以,初始的分辨率不易过高。那么,我们用什么方法来提高最终的出图分辨率呢?一、高清修复在文生图功能中,有一个内置的高清修复(Hires-Fix)功能,可以看到当我们将初始分辨率设置为800x420时,选择放大倍率为2,高清修复可以将我们的分辨率放大至1600x840。理论上放大倍率越高,图片就会越清晰,这里的倍数最高可以到4倍,但是到底能不能画出来,就和你的电脑配置、显卡显存息息相关了。我们先用800x420画一张图,在生成图的下方可以看到这张图片的种子值。然后将数字填入随机数种子里,这样就能固定这张图片。接下来我们选择高清修复,放大两倍,放大算法选择R-ESRGAN 4x+Anime6B。这个算法通常是二次元绘图用的,如果是写实类的风格,可以选择R-ESRGAN 4x+。

Others are asking
高清视频修复ai工具
以下为一些高清视频修复的 AI 工具: 1. 星流一站式 AI 设计工具: 高级模式下,基础模型允许使用更多的微调大模型,图片参考允许使用更多的图像控制功能。星流基础大模型下,增加了 tile 分块与 softedge 线稿。 高清分辨率修复:利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。 放大算法影响图像放大后的图像质量,重绘幅度与初步生成的图像的相似度,其他参数默认即可。 采样器和采样步数会影响出图质量和生成时间,随机种子和 CFG Scale 也有相应作用,脸部/手部修复利用算法对人像的脸部或者手部进行修复。 2. Pika: 发布 Pikaddition 能力,可以将用户图片物体融合到拍摄视频,不会改变原视频且保证新视频创意效果自然。 支持用户自行上传视频(视频时长需 5s 以上),支持物体、人物(卡通、真人)图像,有 15 次免费尝试机会。 使用方法:进入 Pika 官网,页面底部选择 Pikaddition,上传视频、图像,输入文字描述提示词,点击确认即可。 地址:https://pika.art/ 3. Topaz Labs: 推出 Starlight 首个用于视频修复的扩散模型,只需输入素材,AI 可自动降噪、去模糊、放大、抗锯齿,无需手动调整与参数调整,达成专业视频高清修复。 目前正在 Beta 中。 地址:https://www.topazlabs.com/ 4. Tusiart: 具有高清修复功能,在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。 有 ADetailer 面部修复插件。
2025-04-14
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,处理方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,如 GPT 4O 等技术,只需要一句话就可以实现部分修复需求。 在具体的修复方法中,例如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。如果直接上色效果不佳,可以只给场景方向的提示词,让 AI 自行决定颜色。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,并给出简单的关键词,如蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前较为复杂的工作流现在只需十几个基础节点就能实现同样甚至更好的效果。在参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时需将强度降低小于 0.5。如果发现出来的图片质量细节不够,可以选择 fp16 版本的 T5 Clip。
2025-04-10
照片修复
以下是关于照片修复的相关信息: 使用 Gemini 2.0 Flash 进行照片修复: 零门槛:即使不会 PS,只要会打字就能操作。 速度快:几秒钟出结果。 效果提升小技巧:指令要具体清晰,比如“把帽子改成红色,加个星星图案”;使用清晰的照片,模糊的图可能效果不佳;多尝试修改指令。 图像高清修复的实现技术拆解: 整个流程分为三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 2. 图像高清修复:使用 Iceclear/StableSR 等模型进行修复和 2 倍放大,搭配合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 3. 图像高清放大:用 realisticVision 底膜进行二次修复,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。 此外,GPT 4O 在解决老照片修复等问题时,以往需要搭建复杂工作流,现在只需一句话即可实现。
2025-04-10
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13