Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何保持认为面容不变生成视频

Answer

要保持人物面容不变生成视频,您可以参考以下内容:

  1. 在生成视频的过程中,当更改任何设置或提示时,种子将保持不变,这可能会导致生成的人物在种族、民族或肤色方面看起来相似。您可以在“高级设置”下更改种子编号来改变人类的种族、民族或肤色。
  2. 在 Midjourney 中,使用 --cref 参数可以确保在生成的图像中,角色的外貌特征保持一致,适应不同的场景和环境。同时,--cref 参数与角色权重(--cw)参数一起使用,--cw 100 能让角色尽可能与参考图像一致,确保面部特征、服装和发型保持不变;--cw 50 允许一些变化,比如更换角色的衣服或对外观进行轻微调整;--cw 0 则只保留基本的面部特征,但允许在其他方面进行显著变化,例如服装、发型或配饰。
  3. 在 MorphStudio 中,创建视频时,您可以在“Shot”卡中输入提示并点击蓝色星号图标生成视频,也可以上传图片或视频,并以其他方式生成视频。生成完成后,您可以点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。对于生成的视频,您可以以各种方式重新生成视频,比如重新提示、重试、风格转换等。还可以添加或编辑镜头,当需要添加更多镜头时,点击屏幕左上角的按钮,在时间轴上添加一个镜头。当单击快照卡右上角的“…”图标时,您可以编辑卡的名称、添加说明,或者保存和删除快照。
Content generated by AI large model, please carefully verify (powered by aily)

References

生成视频(测试版)常见问题解答

Our video model may need to crop your image to fit the required image size the model is expecting.This is done from the center,so you may lose part of the image around the edges.To crop an image yourself,you can use Adobe applications like[Adobe Express](https://www.adobe.com/express/).我们的视频模型可能需要裁剪您的图像,以适应模型所需的图像大小。这是从中心完成的,因此您可能会丢失边缘周围的部分图像。要自己裁剪图像,您可以使用[Adob e Express](https://www.adobe.com/express/)等Adob e应用程序。[heading3]What is a seed?什么是种子?[content]A seed is a number that helps start the process.It controls the randomness of what the AI creates.If you use the same seed,prompt,and control settings,you can regenerate a similar asset.种子是帮助启动该过程的数字。它控制AI创建的内容的随机性。如果使用相同的seed、prompt和control设置,则可以重新生成类似的资源。If the properties such as prompt,uploaded image,and controls are changed,the same seed is used.If the properties remain the same,a new seed is generated.如果更改了prompt、uploaded image和controls等属性,则使用相同的种子。如果属性保持不变,则会生成新的种子。[heading3]Why do I keep getting similar looking people in my[content]When you change any setting or prompt,the seed will remain the same.This will often give you humans that appear to have a similar appearance in terms of race,ethnicity,or skin tone.Changing the seed number under Advanced Settings could change the racial,ethnic,or skin tone of the humans.当您更改任何设置或提示时,种子将保持不变。这通常会为您提供在种族、民族或肤色方面看起来相似的人类。在“高级设置”下更改种子编号可能会改变人类的种族、民族或肤色。

Midjourney 基础知识 · Cref 角色参考

使用--cref参数非常简单。以下是将其集成到您的提示中:·生成或选择一个您想用作参考的角色图像。理想情况下[再次强调],这张图像应该来自MidJourney生成的输出,以确保最佳的一致性。·从MidJourney复制图像的URL,或将图像拖放到提示区域中。重要的是要在图像上选择“人物图标”,如上方所示,或者直接复制我下方到用户端。·或者在您的Discord里提示中添加--cref参数以及图像的URL。描述提示:A lady in the city,delicate,photo--cref https://s.mj.run/MvPU6bPMzI4通过这种方式,也会确保在生成的图像中,角色的外貌特征保持一致,适应不同的场景和环境。---[heading1]角色权重--cw参数[content]--cref参数与角色权重(--cw)参数一起使用。--cw参数允许你控制MidJourney在生成图像时,参考角色外观的相似度。·--cw 100:这个值让角色尽可能与参考图像一致,确保面部特征、服装和发型保持不变。·--cw 50:这允许一些变化,比如更换角色的衣服或对外观进行轻微调整。·--cw 0:这个设置只保留基本的面部特征,但允许在其他方面进行显著变化,例如服装、发型或配饰。描述提示:A lady on the beach,delicate,photo--cw 100/50/0我这里偷懒了,测试图片三排,每排四个图像例子能更好的来对比,可自行测试。

MorphStudio使用指南(网页UI版本)

在"Shot"卡中,您可以输入提示并点击蓝色星号图标生成视频。您也可以上传图片或视频,并以其他方式生成视频,更多详情请参见“高级功能”章节。[heading2]2、等待时间:[content]根据提示以及视频长度和分辨率等因素,各代的等待时间可能从20-30秒到几分钟不等。随时生成更多的视频,因为你等待现有的完成[heading2]3、展开视图/卡片信息:[content]生成完成后,您可以点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。[heading2]4、重新生成视频[content]对于生成的视频,您可以以各种方式重新生成视频。点击生成的视频,会弹出三个图标:重新提示、重新生成和样式转换重新提示:您可以编辑本视频输入的提示,同时保持使用的所有模型和参数相同。[heading2]5、重试[content]保留原有的提示和设置,重新生成视频。现在,reprompt和retry提供类似的功能,我们将很快添加种子,这样你就可以根据你的年龄做微妙或强烈的变化。[heading2]6、风格转换[content]保留原始视频的构图和动画,同时使用我们的预设来更改视频的风格。到目前为止,现实,动画2D,动画3D,幻想,像素风格可用,我们将很快增加更多的预设。[heading2]7、添加/编辑镜头[heading3]·添加一个新镜头:[content]当你需要添加更多的镜头时,你可以点击屏幕左上角的按钮,在时间轴上添加一个镜头。新生成的抽牌将作为导出抽牌前的最后一张抽牌,您可以随意与其他抽牌切换抽牌的位置。[heading3]编辑快照:[content]当您单击快照卡右上角的“…”图标时,您可以编辑卡的名称、添加说明,或者保存和删除快照。

Others are asking
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
生成提示词的提示词
以下是关于生成提示词的相关内容: 生成提示词的思路和方法: 可以根据效果好的图片中的高频提示词去反推效果,结合不同字体效果的描述,打包到一组提示词中。提示词给到 AI 后,AI 会根据给定文字的文义,判断适合的情绪风格,然后给出适合情绪的字体和风格描述、情感氛围等,加上一些质量/品质词,形成输出提示词结构。为了让 AI 更能描述清晰风格,可以先给定多种参照举例。 具体操作步骤: 打开 AI 工具的对话框,将相关提示词完整复制粘贴到对话框。推荐使用 ChatGPT 4o。 当 AI 回复后,发送您想要设计的文字。可以仅发送想要的文字,也可以发送图片(适合有多模态的 AI)让 AI 识别和反推。 将 AI 回复的提示词部分的内容复制到即梦 AI。 对生成提示词的一些观点: 提示词生成提示词并非必要,不一定能生成最好的 Prompt 框架,修改过程可能耗时且不一定能修改好,不如花钱找人写。 一句话生成完整符合需求的 Prompt 非常困难,只能大概给出框架和构思,需要更低成本地调整需求和修改 Prompt。 不同生图工具生成提示词的特点: 即使是简短的描述,生成的提示词也非常细节、专业。 会解析需求,找出核心要点和潜在的诠释点,并给出不同的提示词方案。 提示词构建更多在于增强,而不是发散,生成的内容更符合期望。 同时生成中、英双版本,国内外工具通用无压力。 14 款 AI 生图工具实测对比: 本次实测用到的工具包括国内版的即梦 3.0(https://jimeng.jianying.com/aitool/home)、WHEE(https://www.whee.com)、豆包(https://www.doubao.com/chat)、可灵(https://app.klingai.com/cn/texttoimage/new)、通义万相(https://tongyi.aliyun.com/wanxiang/creation)、星流(https://www.xingliu.art)、LibiblibAI(https://www.liblib.art),以及国外版的相关工具。
2025-04-20
有没有能根据描述,生成对应的word模板的ai
目前有一些可以根据描述生成特定内容的 AI 应用和方法。例如: 在法律领域,您可以提供【案情描述】,按照给定的法律意见书模板生成法律意见书。例如针对商业贿赂等刑事案件,模拟不同辩护策略下的量刑结果,对比并推荐最佳辩护策略,或者为商业合同纠纷案件设计诉讼策略等。 在 AI 视频生成方面,有结构化的提示词模板,包括镜头语言(景别、运动、节奏等)、主体强化(动态描述、反常组合等)、细节层次(近景、中景、远景等)、背景氛围(超现实天气、空间异常等),以及增强电影感的技巧(加入时间变化、强调物理规则、设计视觉焦点转移等)。 一泽 Eze 提出的样例驱动的渐进式引导法,可利用 AI 高效设计提示词生成预期内容。先评估样例,与 AI 对话让其理解需求,提炼初始模板,通过多轮反馈直至达到预期,再用例测试看 AI 是否真正理解。 但需要注意的是,不同的场景和需求可能需要对提示词和模板进行针对性的调整和优化,以获得更符合期望的 word 模板。
2025-04-18
如何自动生成文案
以下是几种自动生成文案的方法: 1. 基于其它博主开源的视频生成工作流进行优化: 功能:通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径:通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频;发布 coze 智能体到飞书多维表格;在多维表格中使用字段捷径,引用该智能体;在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 生成有趣的《图文短句》: 实现原理: 先看工作流:包括第一个大模型生成标题、通过“代码节点”从多个标题中获取其中一个(可略过)、通过选出的标题生成简介、通过简介生成和标题生成文案、将文案进行归纳总结、将归纳总结后的文案描述传递给图像流。 再看图像流:包括提示词优化、典型的文生图。 最终的 Bot 制作以及预览和调试。 3. 腾讯运营使用 ChatGPT 生成文案: 步骤:通过 ChatGPT 生成文案,将这些文案复制到支持 AI 文字转视频的工具内,从而实现短视频的自动生成。市面上一些手机剪辑软件也支持文字转视频,系统匹配的素材不符合要求时可以手动替换。例如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类 AI 视频制作工具让普罗大众生产视频变得更轻松上手。
2025-04-15
如何通过输入一些观点,生成精彩的口播文案
以下是通过输入观点生成精彩口播文案的方法: 1. 基于其它博主开源的视频生成工作流进行功能优化,实现视频全自动创建。 效果展示:可查看。 功能:通过表单输入主题观点,提交后自动创建文案短视频,并将创建完成的视频链接推送至飞书消息。 涉及工具:Coze平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径: 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 发布 coze 智能体到飞书多维表格。 在多维表格中使用字段捷径,引用该智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 智能体发布到飞书多维表格: 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 选择发布渠道,重点是飞书多维表格,填写上架信息(为快速审核,选择仅自己可用),等待审核通过后即可在多维表格中使用。 3. 多维表格的字段捷径使用: 创建飞书多维表格,添加相关字段,配置后使用字段捷径功能,使用自己创建的 Coze 智能体。 表单分享,实现填写表单自动创建文案短视频的效果。 4. 自动化推送:点击多维表格右上角的“自动化”,创建所需的自动化流程。 另外,伊登的最新 Deepseek+coze 实现新闻播报自动化工作流如下: 第一步是内容获取,只需输入新闻链接,系统自动提取核心内容。开始节点入参包括新闻链接和视频合成插件 api_key,添加网页图片链接提取插件,获取网页里的图片,以 1ai.net 的资讯为例,添加图片链接提取节点,提取新闻主图,调整图片格式,利用链接读取节点提取文字内容,使用大模型节点重写新闻成为口播稿子,可使用 Deepseek R1 模型生成有吸引力的口播内容,若想加上自己的特征,可在提示词里添加个性化台词。
2025-04-15
小红书图文批量生成
以下是关于小红书图文批量生成的详细内容: 流量密码!小红书万赞英语视频用扣子一键批量生产,这是一个保姆级教程,小白都能看得懂。 原理分析: 决定搞之后,思考生成这种视频的底层逻辑,进行逆推。这种视频由多张带文字图片和音频合成,带文字图片由文字和图片生成,文字和图片都可由 AI 生成,音频由文字生成,文字来源于图片,也就是说,关键是把图片和文字搞出来。 逻辑理清后,先找好看的模版,未找到好看的视频模版,最后看到一个卡片模版,先把图片搞出来,才有资格继续思考如何把图片变成视频,搞不出来的话,大不了不发视频,先发图片,反正图片在小红书也很火。 拆模版: 要抄这种图片,搞过扣子的第一反应可能是用画板节点 1:1 去撸一个,但扣子的画板节点很难用,Pass 掉。用 PS 不行,太死板不灵活,html 网页代码可以,非常灵活。经过 2 个多小时和 AI 的 battle,用 html 代码把图片搞出来了。这里不讲代码怎么写,直接抄就行。要抄,首先要学会拆,不管用什么方式批量生成这样的图片,都必须搞清楚里面有哪些是可以变化的参数,也就是【变量】,如主题、主题英文、阶段、单词数、图片、正文、翻译、普通单词、重点单词等。 想方法: 大概知道批量生成这样的图片需要搞清楚哪些参数,图片用 html 代码搞出来了。但问题是视频怎么搞,这种视频由多张不同的【带文字的图片】生成,比如读到哪句,哪句就高亮起来,图片也可以随着读到的句子变更。最后,视频就是用这样的图片一张张拼起来的。
2025-04-14
ai如何什么生成表格
AI 生成表格通常可以通过以下技术实现: 1. 利用变分自编码器(VAEs)和序列到序列模型(Seq2Seq)等技术生成表格文件、表格公式,并清理、创建、转换和分析表格中的文本数据,例如表格结构设计、数据分析表、表格自动化等。 2. 借助一些办公软件中的 AI 插件,如飞书中的相关插件,先通过 AI 理解图片中的内容并填充到表格列中,然后利用自带插件总结生成相关指令。 此外,在多模态数据生成中,结构化数据生成包括表格生成,多模态合成数据从大类来看有非结构化数据(图片、视频、语音等)和结构化数据(表格等)两大类。非结构化数据生成包括文本生成、图像生成、音频和语音生成、视频生成、3D 生成、合成数据生成等。
2025-04-14
ai将颠覆很多模式,那有什么是未来十年二十年不变的部分?
以下是关于您所提出问题的相关分析: 在未来十年二十年,可能存在一些相对不变的部分: 1. 创造力和想象力的重要性:在游戏创作等领域,尽管技术门槛降低,但独特的创意和想象力仍将是珍贵的。 2. 行业竞争的本质:在初创企业和现有大公司的竞争中,各自的优势和挑战依然存在,关键在于如何利用自身特点吸引用户和应对变革。 3. 科技对经济的推动作用:如 AI 这样的新技术仍将对全行业的进步产生积极影响,为经济发展提供新动力。 然而,需要注意的是,由于科技发展的不确定性,对于哪些部分绝对不变难以给出确切的定论。
2024-11-05
智能体,电商类,背景不变,只换主体什么工具可以实现呢?
以下是一些可以实现电商类智能体背景不变只换主体的工具: ICLight“重打光”:敏神的这些内容是开源的,可以在各种 UI 里使用(只要有人做插件就行),当然也可以自己做成产品并加上独门绝技,如放大、风格迁移、动态变化等。可以操控图像生成时的光照,对内容主体重新打光生成符合新背景环境光照的图片,解决了商品图合成中需要最大程度保持原有主体 ID 需求的最大问题。主要支持两个方式:首先是从原图分离主体之后通过提示词生成符合光照要求的背景,同时主体除了光照之外和原主体一致。也可以给定背景图片和前景主体,会自动生成环境光,保证背景和前景的融合。体验链接: 歸藏 https://x.com/op7418/status/1788098998064308731 Zho https://x.com/ZHOZHO672070/status/1788120077155684495 公众号:https://mp.weixin.qq.com/s/OSjfY2wPFpKWEUdQLOQ1Bw
2024-08-24
有哪些Ai可以修复老照片,人物面孔不变
以下是一些可以用于修复老照片、保持人物面孔不变的 AI 方法: 1. 选择 realisian 的写实大模型,通过提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。但由于黑白照片颜色难以判断,部分颜色可能需猜测。 2. 使用 ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果可能更好。但可能会出现颜色提示词相互污染,以及背景不能完全统一的情况。 3. 将图片发送到图生图中,打开 stableSR 脚本放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。 4. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 5. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够的情况下将图片放大到足够倍数。 6. 对于人物多、场景复杂、像素低的照片,可先在 ps 里进行角度调整和照片裁切,然后按上述步骤操作。对于场景方向,可从网上找参考照片让 AI 匹配色调,关键词如蓝天、绿树、灰石砖等。放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。最后经过脸部修复和放大得到最终效果。
2024-08-12