直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

可灵ai如何保持人物一致性

回答

要保持可灵 AI 中人物的一致性,可以参考以下方法:

  1. 人物设定:
    • 明确主角、配角等人物的性格特点、外貌特征等,如主角是一位 40 岁的中年男探险家,性格特点是面对挑战从不轻言放弃,外貌特征是健壮、棕色头发、常穿探险服。
  2. MJ--cref 控制人物一致性:
    • 先根据人物设定,在 MJ 里筛选适合的人物形象,选中后右键复制图片链接。
    • 在尾缀加入【--cref 图片链接】控制人物一致性,【--cw 数值】控制权重。
    • 对于镜头较多的角色,建议炼个人物模型出来控制,不然 MJ 容易不稳定。
  3. 控制多人物场景统一:
    • 先控制一个角色再进行重绘。
    • 选一张合适的图片后,点击 Vary(Region)进行局部重绘,并把尾缀机器人的 cref 链接改成主角的 cref 链接。
  4. 通过 prompt 格式实现“角色一致性”:
    • 公式:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。
    • 发型/衣物:构造尽可能多的角色非面部视觉元素,产生观众对角色的“一致性观感”。
    • 年龄:约束角色年龄特征。
    • 环境:约束能够产生相同观感的环境空间,尤其是光环境,增加观众对于形象认识的“一致性”认知。例如:
      • 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。
      • 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。
      • 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。
      • 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

快来围观!8分钟AI视频制作《冷湖案例》

接下来讲解如何控制人物面貌统一~[heading2]1,人物设定[content]主角:主角是一位40岁的中年男探险家性格特点:面对挑战,从不轻言放弃外貌特征:健壮,棕色头发,常穿探险服朵拉:朵拉是一个太岁模型性格特点:对世界充满好奇,具有独立的个性外貌特征:一个小孩的形象,淡黄色凝胶体梅芙:梅芙是主角的搭档和妻子性格特点:梅芙充满爱心和同情心外貌特征:身材苗条,长卷发曼森:机械士兵兼助手性格特点:忠诚,尽职尽责地完成每一项任务外貌特征:黑色金属光泽[heading2]2,MJ--cref控制人物一致性[content]先根据人物设定,在MJ里筛选适合的人物形象,选中后右键复制图片链接在尾缀加入【--cref图片链接】控制人物一致性【--cw数值】控制权重*如果是镜头比较多的角色,建议炼个人物模型出来控制,不然MJ容易不稳定[heading2]3,如何控制多人物场景统一?[content]①先控制一个角色再进行重绘:②U选一张合适的图片后,点击Vary(Region)进行局部重绘,并把尾缀机器人的cref链接改成主角的cref链接:[heading1]PART 05可灵AI延续视频分享!?[content]提示词:一个黑色机器人正在尝试开门续写1:机器人开门过程艰难,门很重打不开续写2:打开一点门缝显示故障,机器人跪下起火

海螺AI-Prompt教学

形象控制小Tips我们可以通过这样的prompt格式来巧妙地实现“角色一致性”:公式:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)发型/衣物:构造尽可能多的角色非面部视觉元素,以便产生观众对角色的“一致性观感”年龄:约束角色年龄特征;环境:约束能够产生相同观感的环境空间,尤其是光环境,可以增加观众对于形象认识的“一致性”认知;下面是四个不同场景/角度/光影下角色产生一致性观感的prompt:(1)特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈;(2)特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈(3)一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈:(4)中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。[111.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/J0bwbwCFUoHoybxJyrCcPvSrnsg?allow_redirect=1)

视频模型:海螺AI

形象控制小Tips我们可以通过这样的prompt格式来巧妙地实现“角色一致性”:公式:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)发型/衣物:构造尽可能多的角色非面部视觉元素,以便产生观众对角色的“一致性观感”年龄:约束角色年龄特征;环境:约束能够产生相同观感的环境空间,尤其是光环境,可以增加观众对于形象认识的“一致性”认知;下面是四个不同场景/角度/光影下角色产生一致性观感的prompt:(1)特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈;(2)特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈(3)一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈:(4)中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。[111.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/PrjPbzaInoEru2xebIecT66bnAc?allow_redirect=1)

其他人在问
可灵api
ComfyUI GeminiAPI 相关内容如下: 用途:用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装: 1. 将此存储库克隆到 ComfyUI 的 custom_nodes 目录。 2. 安装所需依赖: 如果使用 ComfyUI 便携版。 如果使用自己的 Python 环境。 通过 ComfyUI Manager 安装: 1. 在 ComfyUI 中安装并打开 ComfyUI Manager。 2. 在 Manager 中搜索“Gemini API”。 3. 点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。 输入参数: prompt(必填):描述想要生成的图像的文本提示词。 api_key(必填):Google Gemini API 密钥(首次设置后会自动保存)。 model:模型选择。 width:生成图像的宽度(512 2048 像素)。 height:生成图像的高度(512 2048 像素)。 temperature:控制生成多样性的参数(0.0 2.0)。 seed(可选):随机种子,指定值可重现结果。 image(可选):参考图像输入,用于风格引导。 输出: image:生成的图像,可以连接到 ComfyUI 的其他节点。 API Respond:包含处理日志和 API 返回的文本信息。 使用场景: 创建独特的概念艺术。 基于文本描述生成图像。 使用参考图像创建风格一致的新图像。 基于图像的编辑操作。 API key 获取:在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,访问 https://aistudio.google.com/apikey?hl=zhcn 。 温度参数说明:温度值范围为 0.0 到 2.0,较低的温度(接近 0)生成更确定性、可预测的结果,较高的温度(接近 2)生成更多样化、创造性的结果,默认值 1.0 平衡确定性和创造性。 注意事项: API 可能有使用限制或费用,请查阅 Google 的官方文档。 图像生成质量和速度取决于 Google 的服务器状态和您的网络连接。 参考图像功能会将您的图像提供给 Google 服务,请注意隐私影响。 首次使用时需要输入 API 密钥,之后会自动存储在节点目录中的 gemini_api_key.txt 文件中。
2025-04-14
可灵AI近期有哪些重大更新
快手 AI 产品“可灵”近期的重大更新如下: 1. 今年 6 月,凭借“让老照片动起来”、“让照片中的人拥抱”等热点在互联网爆火,以高质量视频效果、低价格和良心免费额度获好评。 2. 9 月更新了 1.5 模型能力,使视频的画面表现力、提示词理解能力、画面清晰度大幅提升,位列视频生成产品第一梯队。 1.0 模型生成一次视频消耗 10 灵感值,1.5 模型消耗 35 灵感值。 免费用户每日免费享 66 灵感值,付费用户享有 1.5 模型、去水印、高清晰度视频生成、视频延长能力、大师运镜、AI 生图画质增强能力。 增加了运动笔刷控制。 1.5 模型在画面表现力、提示词理解能力上有大幅提升,改善了此前将相机运动描述当作实物生成的问题,但视频中文本内容生成仍有待改进。 3. 移动端 APP 为快影,网页版访问地址为:https://klingai.kuaishou.com/ ,使用指南:https://docs.qingque.cn/d/home/eZQDKi7uTmtUr3iXnALzw6vxpsection=h.j6c40npi1fan 。 4. 传统 txt2vid、img2vid 以外,还支持首尾帧控制、延长视频、对口型能力。txt2vid 模式下支持运镜控制,普通用户可使用水平/垂直运镜、推进/拉远、垂直/水平摇镜;另有四种大师运镜仅付费用户可用。
2025-04-08
可灵视频提示词怎么写
以下是关于可灵视频提示词的写法: 1. 上传基础视频: 点击页面下方的【Pikaddition】按钮。 拖拽或点击上传本地视频。 若自己没有视频,可在“templates”板块使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词: 若需要参考角色在视频里的相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 Pika 会提供一段默认 prompt,若无特殊想法,可直接使用。 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。 提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching... 核心逻辑:Pikadditions 的核心功能是用户上传实拍视频和角色图片,AI 将角色动态融入视频中。因此,提示词需要具体描述角色在视频中的动作、互动和场景匹配。 此外,对于 Adobe Firefly 的提示词技巧: 明确且具体描述,尽量使用更多词汇来具体描述光线、摄影、色彩、氛围和美学风格。 提示词公式:镜头类型描述+角色+动作+地点+美学风格。 镜头类型描述:相机的视角是什么?它是如何移动的?示例:“一个特写镜头,缓慢推近。” 角色描述:角色是谁?他们长什么样子?他们穿着什么?他们的情绪如何?示例:“一只体型庞大的北极熊,拥有明亮的白色毛皮,看起来若有所思。” 动作:角色在场景中做什么?示例:“北极熊正轻柔而自信地走向它之前在冰面上打开的一个洞,准备在冰面下捕猎。” 地点:角色在哪里?天气如何?地形是怎样的?示例:“地点是一片荒凉的雪地;远处灰蒙蒙的云朵缓慢移动。” 美学风格:这是什么类型的镜头?氛围是怎样的?景深如何?示例:“电影感、35mm 胶片、细节丰富、浅景深、散景效果。” 构建提示词时,建议限制主题数量,过多的主题(超过四个)可能会让 Firefly 感到困惑。
2025-03-12
可灵ai是什么
可灵 AI 是一款视频生成类的产品,其网址为 klingai.kuaishou.com,所属公司为快手。在第 34 期“Video Battle 视频挑战赛 The Moment”中,由可灵 AI 出题,主题为“The Moment”,要求以该主题进行创作,工具要求使用可灵 AI,视频需带可灵水印。参赛有诸多限制和要求,如提交时间为 12 月 31 日 21:00 前,参赛文件格式为 16:9、不长于 10 秒、30FPS 以上且不含剪辑,作业方式不限等。奖项设置包括金奖 5000 元 + 5800 灵感值、银奖 3000 元 + 2700(2200 + 500)灵感值、铜奖 2000 元 + 1000 灵感值、入围 500 元×40、人气奖 2500 元×4 以及其他意外散落的灵感值。
2025-03-09
我想学习可灵ai的提示词
以下是一些关于可灵 AI 提示词的相关资源和信息: 提示词模板相关网站: 生成新年场景的提示词示例: 戴着醒狮帽,双手抱拳,红色背景,新年喜庆。背景中有金粉,碎花,3d 爆竹显得热闹而喜庆 拿着"福"字,新年气氛,红色背景,新年喜庆。背景中有金粉,碎花,3d 爆竹显得热闹而喜庆 关于律师如何写好提示词用好 AI 的观点: 不能期待设计一个完美的提示词,然后 AI 百分百给到一个完美的符合要求的答案,中间不能有谬误,否则就是一个需要修复的“BUG”。 要给到 AI 的提示词实际上是一个关于此项问题的相对完善的“谈话方案”,真正的成果需要在对话中产生,并且在对话中限缩自己思维中的模糊地带。
2025-02-16
可灵AI视频好用吗
可灵 AI 视频具有以下特点和优势: 1. 今年 6 月爆火,凭借“让老照片动起来”等热点刷了一波好感。9 月更新 1.5 模型能力,使视频的画面表现力、提示词理解能力、画面清晰度上了一个台阶,位列视频生成产品第一梯队。 2. 现阶段免费用户每日免费享 66 灵感值,1.0 模型生成一次视频消耗 10 灵感值,1.5 模型则消耗 35 灵感值。付费用户享有 1.5 模型、去水印、高清晰度视频生成、视频延长能力、大师运镜、AI 生图画质增强能力。 3. 移动端 APP 为快影,网页版访问地址为:https://klingai.kuaishou.com/ ,使用指南:https://docs.qingque.cn/d/home/eZQDKi7uTmtUr3iXnALzw6vxpsection=h.j6c40npi1fan 。 4. 除传统 txt2vid、img2vid 外,还支持首尾帧控制、延长视频、对口型能力。txt2vid 模式下支持运镜控制,普通用户可使用水平/垂直运镜、推进/拉远、垂直/水平摇镜;另有四种大师运镜仅付费用户可用。9 月中,在 1.0 模型中增加了运动笔刷控制。 5. 1.5 模型能力在画面表现力、提示词理解能力上有大幅提升,改善了此前会将相机运动描述当作实物生成的问题,但视频中文本内容生成还做不到。 6. 在评测中,优势在于运动幅度较大,能产生惊喜效果,但在视频清晰度、语义理解、画面表现力上,1.0 比 Runway、Luma 的最新模型弱很多,1.5 进步明显,达到付费产品水平。 在 AI 视频生成领域,可灵的优势主要体现在: 1. 卓越的视频生成质量,在画面清晰度、连贯性、内容丰富性上,达到与国际顶级模型相当的水准,满足普通用户和专业创作者需求。 2. 生成速度表现出色,处理效率高于国外同类产品,能提升用户工作效率。 3. 对于国内用户,可访问性强,提供便捷、稳定的使用体验,降低使用门槛。 此外,快手于 6 月发布“可灵”视频大模型,能生成超过 120 秒 1080P 视频,模拟真实物理特性,准确建模复杂运动场景,采用类 Sora 的 DiT 结构,用 Transformer 代替卷积网络,自研 3D VAE 网络提升视频重建质量。
2025-02-01
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
星流ai人物一致性
以下是关于星流 AI 人物一致性的相关内容: 在实现角色一致性方面,有以下几种方法和示例: 1. 可以通过特定的 prompt 格式来实现,公式为:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。 2. Midjourney 推出了角色一致性功能,同步支持 MJ V6 和 Niji V6。跟之前的风格一致性sref 命名基本一致,为cref。cref 背后参数cw 的值可以从 0 设到 100,cw 100 会参考原图的脸部、头发和衣服,但相应的会非常不吃 Prompt;cw 0 时,就只会参考脸部,大概约等于一个换脸。 3. PixVerse 有“角色(Character)”新功能,能实现 AI 生成视频中的角色保持一致。用户只需单击“Character”功能,上传符合要求的图像,点击创建自定义角色,训练一个新角色,然后可使用自定义角色生成视频,可在 AI 生成视频中轻松切换场景,同时保持同一角色身份。该功能目前只支持真实人脸,暂不支持动物或其他风格照片。操作说明:在主页面点击选择“Character”,点击“Create Character”,在此界面通过点击或拖动的方式上传图片,命名您创建的 Character,最后点击“Create Cha”。提示:最好使用包含真实人脸的单人图片效果最佳,脸部大小需要超过 200×200px,面部无遮挡。Character 添加完毕后,等待 20 秒左右,在看到“Success”提示后,点击“Create”进。若未等到“Success”提示便进入创作界面,会找不到创建的 Character,此时需等待 10 30 秒,待 Character 创建完成即可。 相关网址: 1. 2. 3. Midjourney 网页版:https://alpha.midjourney.com/ 4. PixVerse:https://app.pixverse.ai/ (目前可以免费使用)
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 此功能是官方推出的重要功能,可使生成的人物与参考图像相匹配。 使用方法:在提示词后输入 `cref URL` 并附上人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可使用 `cw` 来修改参考强度,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入 `cref cw` 。 若有黑边问题,可将黑边部分框住,重绘输入关键词 `background` 去除黑边保证背景一致。 体验 MJ 网页版效果较好,网址:https://alpha.midjourney.com/
2025-03-18
comfy ui 九宫格生图保持人物一致性的原理
Comfy UI 九宫格生图保持人物一致性的原理主要基于 PuLID 技术,具体如下: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,它结合了两个不同的模型分支(Lightning T2I 分支和标准扩散模型),引入了两种损失(对比对齐损失和精确 ID 损失)。 Lightning T2I 分支是一个快速、高效的文本到图像生成模型。 标准扩散模型是常见的、生成高质量图像的模型。 对比对齐损失帮助模型学习将输入的文本和生成的图像内容对齐,使生成的图像更符合文本描述。 精确 ID 损失确保生成的图像中的特定身份特征(比如人物的脸部特征)与目标 ID 一致。 此外,在保持人物一致性方面,还有一些操作步骤: 生成图像(提示词加入分割描述,让一张图生成多张同空间小图)。 通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。 上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张)。 放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。 同时,Eva CLIP 也是相关的技术: Eva CLIP 是一种基于对比学习的视觉文本模型,将文本描述和图像内容映射到一个共享的嵌入空间。 对比学习架构:使用对比学习方法,将图像和文本嵌入到一个共享的空间,通过最大化匹配图像和文本对的相似度,同时最小化不匹配对的相似度,学习到图像和文本之间的关联。 强大的特征提取能力:编码器擅长提取图像中的细节特征,并将其转换为有意义的嵌入向量,用于下游任务。 多模态应用:能够处理图像和文本两种模态,广泛应用于多模态任务中,如生成、检索、标注等。 其应用场景包括图像生成、图像检索、图像标注等。Eva CLIP 编码器通常与深度神经网络结合使用,如卷积神经网络(CNN)用于图像特征提取,Transformer 网络用于处理文本描述。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: instant ID 脸部特征抓取得比 pulid 好,放在最后一步重绘,先 pulid,再 instantID https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e8 1d90 4373 94cf 0249d14c73c8 测试案例:
2025-03-17
comfy UI 如何保持人物一致性
要在 ComfyUI 中保持人物一致性,可以通过以下方式实现: 1. PuLID 技术: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,无需复杂调整。 它结合了 Lightning T2I 分支和标准扩散模型两个不同的模型分支,并引入了对比对齐损失和精确 ID 损失两种损失,以确保在保持原始模型效果的同时,高精度地自定义 ID。 Lightning T2I 分支是快速、高效的文本到图像生成模型,标准扩散模型是常见的生成高质量图像的模型。 PuLID 可以让您在生成图像时更精确地定制人物或物体的身份,将特定 ID(例如人脸)嵌入到预训练的文本到图像模型中,而不会破坏模型的原始能力。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: 百度网盘:https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e81d90437394cf0249d14c73c8 instant ID 脸部特征抓取得比 PuLID 好,可放在最后一步重绘,先 PuLID,再 instantID。 2. 节点设置: 节点插件 PuLID ComfyUI:https://github.com/cubiq/PuLID_ComfyUI model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。比如,ortho_v2 和 fidelity:8 等价于标准节点的 fidelity 方法,而 projection ortho 和 fidelity:16 等价于 style 方法。 此外,在 8 月 13 日的 ComfyUI 共学中也提到控制人物一致性有很多方法,课程后期会介绍。
2025-03-17
人物一致性
Midjourney 的角色一致性功能: 此功能类似于“风格参考”,但尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入`cref cw`。 若有黑边问题,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 体验 MJ 网页版效果更佳,网址:https://alpha.midjourney.com/
2025-03-13
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
我想做视频二创,比如把视频背景换掉,人物上的衣服换掉,请给我推荐一下相关AI工具
以下是为您推荐的一些用于视频二创,如更换视频背景、人物衣服的相关 AI 工具: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画。Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。 GitHub:https://github.com/novitalabs/AnimateAnyone API:https://novita.ai/playgroundanimateanyone https://x.com/imxiaohu/status/1796191458052944072 2. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。 https://x.com/imxiaohu/status/1796019244678906340 3. 在进行视频二创时,若需要更精确的蒙版,比如人物的眼睛或身上的配饰等,可以使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,也可在没有魔法的情况下到云盘直接下载,放到指定文件目录下“……sdwebuiakiv4.2\\extensions\\sdwebuisegmentanything\\models\\groundingdino”。在检测提示词中输入相关内容,AI 可根据语义分割自动检测并设置好蒙版。还能通过预览箱体得到部分编号进行单一调整。比如给人物换背景时,加载生成的背景蒙版,选择合适的大模型和正向提示词,蒙版模式选择“重绘非蒙版内容”,若有需要还可进行后续细化和 PS 修复。
2025-04-01
如何让一张卡通人物动起来
要让一张卡通人物动起来,可以参考以下几种方法: 1. 使用 AnimateX :类似 Animate Anyone,输入角色图片和参考动作序列,即可实现角色动画,尤其适配拟人化的角色。 2. 借助 Pika : 账号注册:访问完成免费注册。 素材整理: 视频:准备一段视频,可手机实拍,≥5 秒,生成时会自动截取前 5 秒,横屏/竖屏均可(建议 1080p 以上)。 图片:准备一张主体清晰无遮挡的角色图片,生成的视频中将参考此图片的角色并融入视频。 文案思路:提前构思角色动态关键词(如“奔跑/挥手/发光”),也可让模型自由发挥。 3. 运用即梦进行图生视频:只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。 此外,在制作过程中,还可以像桂大羊的教程那样,通过描绘人物的提示词、上传角色参考图、扣除角色背景以便于进行角色加背景的融合生成时进行垫图操作等方式,提高人物和场景的融合度。
2025-03-30
关于图片生成人物衣服的提示词
以下是关于图片生成人物衣服的一些提示词相关内容: 在使用 Segment Anything 时,启用 GroundingDINO 可自动下载模型,将其放到特定文件目录下,在检测提示词中输入相关内容,如“eye”,可自动检测并设置蒙版。通过预览箱体获取编号,可选择调整单一部分。例如,只想调整左边眼睛,勾选 1 即可。还可给人物换背景,如大模型选择 revAnimated_v122,正向提示词为简单背景、花、国画、工笔,蒙版模式选择“重绘非蒙版内容”。将生成的图片放入图生图中,使用 tile 模型能给人物衣服添加国风元素。 设置模型和提示词时,例如大模型为 ghostmix_v20Bakedvae,正向提示词包含人物特征、服饰等描述,负向提示词包含 EasyNegative、badhandsv5neg 等。生成图片后可进行细节微调。 使用 cutoff 插件时,点击启用后按提示词顺序依次填入颜色提示词,中间用逗号分开,能准确显示颜色。如创建双人物构图,设置好人物形象和提示词,先在不开启插件时生成图片可能有颜色污染,开启插件并输入颜色信息后能保证颜色与提示词的关联性。
2025-03-28
我上传一个ai人物形象,有什么AI能驱动他当做数字人来口播,免费的那种
以下为您介绍一些可以免费驱动 AI 人物形象当做数字人进行口播的工具及使用方法: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加您的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 4. 剪映: 优势:作为字节跳动旗下的产品,在抖音平台上被广泛应用,海外版 CapCut 也有出色表现。其拥有六大 AI 功能,能在编辑器里完成脚本生成、语音克隆、数字人口播等环节。 下载地址:剪映 制作流程: 打开剪映,添加一个文本到文字轨道,并修改好需要朗读的文字。 点击朗读,并进行声音克隆,剪映的声音克隆现在只用念一句话就可以完成克隆。 克隆完成后,选择喜欢的数字人形象,并把自己的克隆音色换上去。 一键智能生成字幕,再自行调整文字样式并校准。 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象。 当选择一个数字人形象时,软件会马上播放出该数字人的声音。点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。 左下角会提示渲染何时完成。然后可以点击预览按钮,查看生成的数字人效果。 增加背景图片: 可以直接删除先前导入的文本内容。 为视频增加背景图片,点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传。 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐。
2025-03-27