「AGIへの道」飛書ナレッジベースへ直行 →

SD如何人物换脸

回答

以下是关于 SD 人物换脸的详细步骤:

  1. 安装 Roop 插件:安装时间较长,需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python -m pip install insightface==0.7.3 --user”自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。
  2. 后续操作:安装完成后重新打开启动器,后台会继续下载模型,全程要保证科学上网。Roop 插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型“realisticVisionV20”,关键词描述人物。启用 Roop 插件,选择要替换的人物照片,面部修复选“GFPGAN”,右边参数数值越低人物越像但图像模糊,数值越高人物越不像但图像清晰,可根据需求设置,如 0.5。设置好后点击生成,若人脸像素偏低模糊,可将图发送到“图生图”,开较小重绘幅度,使用 controlnet 中的 tile 模型重绘。
  3. 多人物脸部替换:先正常生成图片,如两个古风人物形象。发送到图生图中调整重绘幅度。在 roop 插件中,从左往右编号,载入相应人物照片形象进行脸部替换。
  4. 获取插件:想要 Roop 插件,可添加公众号【白马与少年】,回复【SD】。

另外,还有关于 SD 中更精确蒙版的操作,如使用 GroundingDINO 模型分割:启用 GroundingDINO 时 AI 会自动下载模型,也可在云盘下载放到特定文件目录。在检测提示词中输入如“eye”,可自动检测出相应部分并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。选择要修改的蒙版上传到重绘蒙版,添加提示词生成。给人物换背景时,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选“重绘非蒙版内容”,生成后可再次放入图生图中细化,还可在 PS 中修复。

特别提醒,使用相关插件需谨慎,切勿触犯法律。

AIモデルによって生成されたコンテンツであり、慎重に確認してください(提供元: aily)

参照

【SD】无需Lora,一键换脸插件Roop

安装时间比较长,要耐心等待。安装好之后,打开SD文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的dos界面里面,将这行代码“python-m pip install insightface==0.7.3--user”粘贴进来,就会自动开始安装insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶4.2整合包(6月23号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,我们的Roop插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用ROOP插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用0.5测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。然后使用controlnet中的tile模型进行重绘。换脸完成,像不像你们自行评价吧~如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。

【SD】多人物脸部替换,一键换脸插件Roop(2)

我先正常地生成一张图片,内容是两个古风的人物形象,一男一女坐在一起,在大漠黄沙之下,互相对视。正向提示词是:best quality,official art,8k wallpaper,highly detailed,illustration,close-up,(a man and a woman sitting together:1.6),upper body,antique style,drifting snow,yellow sand fills the sky,withered tree,desert,gu,<lora:武侠V2_2.0:1>。模型使用的是majicmixRealistic,外加一个武侠lora。其余参数如下。得到这张图,仿佛两个古时的人转世来到了现在,回到曾经相识的大漠,相对而坐,往事如梭。发送到图生图中,调整重绘幅度为0.4。在roop插件中,默认是从左往右开始编号,0,1,2,3……这样依次往下。所以左边男人的编号为0,右边女人的编号为1。我们在第一个roop中载入至尊宝的照片形象。在第二个roop中载入紫霞的照片形象。脸部替换完成。这个插件最强大的地方就在于,它仅凭一张照片就能复刻出这个角色的其他角度和表情,而且能让人一眼感觉确实很像。放大看看特写。如果真的千年之后,两人再相见,他们心里会想什么呢?最后使用一下ps扩图,看看辽阔的黄沙大漠,七月飞雪。如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。鲜花总会凋谢但会再开一生所爱隐约在白云外-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)

【SD】商业换装如此简单,Segment Anything保姆级教学

但有的时候,我们需要更精确一点的蒙版,比如人物的眼睛,或者是身上的配饰等等。单靠SAM模型就很难得到想要的蒙版了,这个时候我们就需要使用到segment anything中的GroundingDINO了。启用GroundingDINO,AI会自动下载模型,此时会需要用魔法,没有魔法的同学可以去我的云盘直接下载。放到这个文件目录下“……sd-webui-aki-v4.2\extensions\sd-webui-segment-anything\models\grounding-dino”点击启用,在检测提示词中输入“eye”,AI就可以根据语义分割帮我们自动检测出眼睛的部分,并设置好蒙版。我们还可以通过预览箱体,来得到两只眼睛的编号,通过编号可以选择调整单一的眼睛。比如,我只想调整左边那只眼睛,我就只需要勾选1就可以了。和刚才一样,选择我们想要修改的蒙版,上传到重绘蒙版当中。添加提示词“闭眼”。点击生成,可以看到图片就修改好了。我们再来给人物换个背景试试,加载刚才生成的背景蒙版。大模型选择revAnimated_v122,正向提示词:简单背景、花、国画、工笔。蒙版模式选择“重绘非蒙版内容”。得到这张图片,头发的部分没有抠太好。我们将它再次放入图生图中,使用tile模型做一次整体细化,除了融合人物之外,还能给人物的衣服也添加上国风元素。生成,人物好像变得高级了一些。来到PS,使用创成式填充修复一下头发。完成啦。

他の質問
ai换脸工具
以下为您介绍一些 AI 换脸工具及相关使用方法: Face Swapper: 特点:一次可替换多张脸,支持 JPG、PNG、WEBP 格式,最大 1024px 分辨率。 应用场景:时尚、美容、电影、媒体、人力资源。 传送门: 通过创建实例进行 AI 换脸: 点击右下角的创建实例按钮,创建并启动实例(即启动一台服务器)。 点击快捷工具中顶部的 JupyterLab 打开工具,通过终端启动 facefusion。 点击顶部的“+”号选项卡,新打开一个终端窗口。 在终端窗口中输入以下命令: 查看文件列表:输入“ls”并按回车。 进入 facefusion 目录:输入“cd facefusion”并按回车。 启动 facefusion:输入“python./run.pyexecutionproviders cuda cpu”(注意:后面的参数“executionproviders cuda cpu”非常重要,如果不加 cuda,则默认不使用 GPU 能力,推理将非常慢)。 当出现提示信息时,说明启动成功。 打开 facefusion 软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口。 在 facefusion 软件界面上,上传准备好的图片、视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。 星流一站式 AI 设计工具中的换脸功能: 自动替换原图的脸部信息。 使用方法:选中图像进入扩展功能界面,自动提取面部信息;上传想要替换到图像的图片;参数方面,提示词框会自动根据图像进行填充,无需手动填写,重绘风格选择与放大图像相对应的风格,会提升换脸效果,其余参数默认即可。
2025-04-08
换脸工具
以下是关于换脸工具的相关信息: 星流一站式 AI 设计工具中的换脸功能: 什么是换脸:自动替换原图的脸部信息。 如何使用:选中图像进入扩展功能界面,自动提取面部信息;上传想要替换到图像的图片;参数方面,提示词框会自动根据图像进行填充,无需手动填写,重绘风格选择与放大图像相对应的风格会提升换脸效果,其余参数默认即可。 一些换脸应用: 1. 在线换脸,使用上传的图片。 2. 在线视频操纵软件。 3. 在照片上交换面孔,效果出众。 4. 在自拍上叠加名人的脸。 5. 实时换脸的视频通话。 6. 在线媒体中的换脸。 7. 在线图片换脸。 8. 改进的实时换脸视频通话。 9. 视频和图片的换脸解决方案。 辅助工具:换脸 Face Swapper:AI 换脸工具,一次替换多张脸,支持 JPG、PNG、WEBP 格式,最大 1024px 分辨率,应用场景包括时尚、美容、电影、媒体、人力资源。传送门:
2025-04-08
AI视频换脸
以下是一种每个人都可以用 10 分钟轻松制作 AI 换脸、AI 数字人视频的方法: 1. 整体流程介绍: 数字人视频的整体制作流程大致分为三步,包括创建视频内容(通过输入文稿内容确定数字人播出的内容)、生成数字人(通过工具以及视频内容生产数字人形象及播放语音)、AI 换脸(通过 AI 工具将数字人的脸转换成指定宣传的形象,以便以自己的品牌形式宣传)。 2. AI 换脸步骤: 点击右下角的创建实例按钮,创建并启动实例(即启动一台服务器),在容器实例列表中可看到创建的实例。 点击快捷工具中顶部的 JupyterLab 打开工具,通过终端启动 facefusion。 点击顶部的“+”号选项卡,新打开一个终端窗口,在终端区域启动一个终端选项卡。 在打开的终端窗口中,输入 3 条命令:查看文件列表(输入“ls”并按回车)、进入 facefusion 目录(输入“cd facefusion”并按回车)、启动 facefusion(输入“python./run.py executionproviders cuda cpu”),注意后面的参数“executionproviders cuda cpu”非常重要,如果不加“cuda”,默认不使用 GPU 能力,推理将非常慢。 当出现提示信息时,说明启动成功。 打开 facefusion 软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口,通过 web 浏览器来访问 facefusion 提供的 UI 界面。 在 facefusion 软件界面上,上传准备好的图片、视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。 3. 效果及成本: 执行完成后,在输出的位置会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击可导出变量后的视频到本地。 总成本方面,时间大约 10 分钟左右,制作数字人视频免费,数字人换脸约 0.8 元。数字人换脸时长方面,经实际测试 1 分 28 秒的视频,总转换时间在 200 秒。GPU 服务器此次整体运行时长所需花费 0.97 元,facefusion 软件运行其实只占服务器运行时长的一部分,所以换脸的成本应该在 0.8 元左右。 变脸前和变脸后的视频示例: 变脸前的视频: 变脸后的视频:
2025-04-01
视频AI换脸
以下是关于视频 AI 换脸的相关内容: 制作方法和步骤: 1. 执行完成相关操作后,在输出位置会出现处理后的视频,输出窗口右上角有下载按钮,可导出变量后的视频到本地。 2. 上传原始视频和换脸图片,然后点击生成,即可实现视频换脸。 3. 制作数字人视频时,可在显示区域拖动背景图的角来调整尺寸,将数字人拖动到合适位置,还可增加字幕,点击文本智能字幕识别字幕并开始识别,软件会自动智能分段形成字幕,完成后点击右上角“导出”按钮导出备用。 效果展示: 提供了变脸前和变脸后的视频示例。 成本和时间: 1. 总成本方面,制作数字人视频免费,数字人换脸约 0.8 元。 2. 时间上,整个过程大约 10 分钟左右,经实际测试 1 分 28 秒的视频,总转换时间在 200 秒。 相关工具和功能: 1. 创意工具箱中包含数字人口播配音、图片换脸、视频换脸、音频合成数字人、AI 配音等功能。 数字人口播配音:输入口播文案,选择期望生成的数字人形象及目标语言即可生成数字人口播视频。 图片换脸:上传原始图片和换脸图片,一键实现素材换脸。 音频合成数字人:上传音频文件,基于音频合成对应的数字人视频,支持 100+数字人模板。 AI 配音:多语种智能配音,支持区分男声和女声。 注意事项: 1. 图片换脸时,图片大小上限 5M,支持 JPG、PNG 格式。 2. 音频合成数字人时,音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。 3. AI 配音时,输入的配音文案需和选择音色语种保持一致。
2025-04-01
视频换脸
以下是关于视频换脸的相关信息: TecCreative 工具: 自动识别视频中的人脸,并将其替换为选择的脸部,实现在视频中快速、精确地替换人物的脸部。 操作指引:上传原始视频——上传换脸图片——点击生成 Swapface 工具(有免费额度): 图片换脸、视频换脸,直播实时换脸,需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 视频换脸可以上传视频或者 gif 图,换脸可以识别图片、视频里的多张脸进行替换。 效果预览:左边原视频,右边换脸后效果。 网址:https://swapface.org//home Viggle 工具(有免费额度): 可完成视频换脸。 功能及操作: /mix:将角色图像混合到动态视频中,上传一张字符清晰的图片和一段清晰运动的视频。 /animate:使用文本运动提示为静态角色设置动画,上传一张字符清晰的图片,描述想让角色做的动作(也可以从 https://viggle.ai/prompt 中复制动作提示词)。 /ideate:纯粹从文本创建角色视频,描述想要创造的角色和希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character:通过文本提示创建角色并将其动画化,描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize:使用文本提示符重新设计角色的样式并将其动画化,上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 网址:http://viggle.ai ,discord 免费体验:https://discord.com/invite/viggle
2025-03-31
免费AI换脸工具
以下为您介绍免费的 AI 换脸工具: 开源免费的解决方案 facefusion: 本机解决方案:需要 Python 环境及安装多个依赖软件,对编程知识有一定要求,且运行推理计算速度依赖 GPU,本地计算机若无 GPU 或显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案:可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,但会产生一定费用。以 AutoDL 为例,注册后在算力市场选择可接受价格的算力服务器,建议选取 GPU 配置更高的设备。然后通过模型镜像启动 GPU 服务器,在算法社区查找 facefusion 镜像,点击右下角创建实例按钮,启动实例,通过 JupyterLab 工具中的终端输入相关命令启动 facefusion,注意要加上“executionproviders cuda cpu”参数以使用 GPU 能力。最后打开 facefusion 软件,在软件界面上传准备好的图片、视频进行换脸处理。 星流一站式 AI 设计工具中的换脸功能:选中图像进入扩展功能界面,自动提取面部信息,上传想要替换到图像的图片,重绘风格选择与放大图像相对应的风格可提升换脸效果,其余参数默认即可。
2025-03-30
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
我想做视频二创,比如把视频背景换掉,人物上的衣服换掉,请给我推荐一下相关AI工具
以下是为您推荐的一些用于视频二创,如更换视频背景、人物衣服的相关 AI 工具: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画。Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。 GitHub:https://github.com/novitalabs/AnimateAnyone API:https://novita.ai/playgroundanimateanyone https://x.com/imxiaohu/status/1796191458052944072 2. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。 https://x.com/imxiaohu/status/1796019244678906340 3. 在进行视频二创时,若需要更精确的蒙版,比如人物的眼睛或身上的配饰等,可以使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,也可在没有魔法的情况下到云盘直接下载,放到指定文件目录下“……sdwebuiakiv4.2\\extensions\\sdwebuisegmentanything\\models\\groundingdino”。在检测提示词中输入相关内容,AI 可根据语义分割自动检测并设置好蒙版。还能通过预览箱体得到部分编号进行单一调整。比如给人物换背景时,加载生成的背景蒙版,选择合适的大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”,若有需要还可进行后续细化和 PS 修复。
2025-04-01
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
关于图片生成人物衣服的提示词
以下是关于图片生成人物衣服的一些提示词相关内容: 在使用 Segment Anything 时,启用 GroundingDINO 可自动下载模型,将其放到特定文件目录下,在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版。通过预览箱体获取编号,可选择调整单一部分。例如,只想调整左边眼睛,勾选 1 即可。还可给人物换背景,如大模型选择 revAnimated_v122,正向提示词为简单背景、花、国画、工笔,蒙版模式选择“重绘非蒙版内容”。将生成的图片放入图生图中,使用 tile 模型能给人物衣服添加国风元素。 设置模型和提示词时,例如大模型为 ghostmix_v20Bakedvae,正向提示词包含人物特征、服饰等描述,负向提示词包含 EasyNegative、badhandsv5neg 等。生成图片后可进行细节微调。 使用 cutoff 插件时,点击启用后按提示词顺序依次填入颜色提示词,中间用逗号分开,能准确显示颜色。如创建双人物构图,设置好人物形象和提示词,先在不开启插件时生成图片可能有颜色污染,开启插件并输入颜色信息后能保证颜色与提示词的关联性。
2025-03-28
我上传一个ai人物形象,有什么AI能驱动他当做数字人来口播,免费的那种
以下为您介绍一些可以免费驱动 AI 人物形象当做数字人进行口播的工具及使用方法: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加您的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 4. 剪映: 优势:作为字节跳动旗下的产品,在抖音平台上被广泛应用,海外版 CapCut 也有出色表现。其拥有六大 AI 功能,能在编辑器里完成脚本生成、语音克隆、数字人口播等环节。 下载地址:剪映 制作流程: 打开剪映,添加一个文本到文字轨道,并修改好需要朗读的文字。 点击朗读,并进行声音克隆,剪映的声音克隆现在只用念一句话就可以完成克隆。 克隆完成后,选择喜欢的数字人形象,并把自己的克隆音色换上去。 一键智能生成字幕,再自行调整文字样式并校准。 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象。 当选择一个数字人形象时,软件会马上播放出该数字人的声音。点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。 左下角会提示渲染何时完成。然后可以点击预览按钮,查看生成的数字人效果。 增加背景图片: 可以直接删除先前导入的文本内容。 为视频增加背景图片,点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传。 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐。
2025-03-27