直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

sd角色一致性

回答

在 Stable Diffusion(SD)中实现角色一致性多角度头像绘制的方法如下:

  1. 准备工作:
    • 准备一张人物的多角度图片,共有 15 个不同视图,尺寸设置为 1328×800px,放大两倍后保证每张小图为 512×512px。
    • 加上网格图,通过 lineart 分割不同块面。
    • 设置 controlnet,第一张图选择 openpose_face 得到人物的 15 个面部角度,第二张图选择 lineart_standard(from white bg & black line)得到清晰的表格分区。
    • 增加 ADetailer 的脸部修复插件防止小图模式下人脸崩坏。
  2. 开始生图:
    • 大模型:majicmixRealistic_v6.safetensors
    • 正向提示词:(a character sheet of a woman from different angles with a grey background:1.4),auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography
    • 负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,(easynegative),((((ugly)))),(((duplicate))),((morbid)),((mutilated)),out of frame,extra fingers,mutated hands,((poorly drawn hands)),((poorly drawn face)),((bad art)),blurry,(((mutation))),(((deformed))),blurry,((bad anatomy)),(((bad proportions))),((extra limbs)),cloned face,(((disfigured))),gross proportions,(malformed limbs),((missing arms)),((missing legs)),((floating limbs)),((disconnected limbs)),((malformed hands)),((missing fingers)),worst quality,((disappearing arms)),((disappearing legs)),(((extra arms))),(((extra legs))),(fused fingers),(too many fingers),(((long neck))),canvas frame,((worst quality)),((low quality)),lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w
    • 参数设置:迭代步数 50,采样方法 DPM++ 2M Karras,尺寸 1328×800px。
  3. 细节放大:
    • 发送到图生图,重绘幅度设置为 0.55,使用 controlnet 的 teil 模型增加细节,控制模式选择“更倾向 controlnet”。
    • 使用 Ultimate SD upscale 脚本放大为 2 倍,采用 4x-UltraSharp 放大算法。
  4. 尝试不同风格:
    • 例如使用 AnythingV5 大模型绘制浅绿色侧马尾女孩形象,使用 revAnimated 大模型绘制粉色头发的长发公主形象。

需要注意的是,由于 AI 绘画的随机性存在,15 个角度的画面不可能完美,controlnet 的控制能让我们更大程度接近想要的效果,想要好的结果需要多刷图。如需 stable diffusion 相关资料,可关注公众号【白马与少年】发送【sd】获取链接。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】角色设计的福音!绘制一致性多角度头像

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-09-22 19:00原文网址:https://mp.weixin.qq.com/s/uUPX5w25rNwKNjdVO6J81w如何让我们在SD中绘制的角色保持一致,这是人们长久以来在探索AI绘画的领域当中一直寻求解决的问题。目前来看,实现这个目标最好的方法就是使用LoRA。但是要训练一个LoRA,我们首先要至少有一个15到20张图片的训练集。在一个固定的形象中,最重要的是面部五官,其次是体型、服装、配饰之类的。所以,我们在收集训练集的过程当中,收集形象的头部图片是很重要的。现实中的人物我们可以通过照片来进行训练,但如果是我们在AI中生成的虚构角色呢?我们就要让这个虚构角色能稳定输出多张不同角度的图片才能达到训练集的要求。今天,我们就来学习一下,如何创建一个虚构人物的多视图角色表。[heading1]#01[heading1]准备工作[content]首先,我们要准备一张人物的多角度图片。这张图一共有15个不同的视图,它的主要作用是可以使用openpose来控制形象的面部角度。尺寸设置的是1328×800px,这样的话,当我们放大两倍之后就能保证每张小图都是512×512px。【一个小知识:稳定扩散输出尺寸必须能被8整除。这个工作表的设置方式是由8像素的分割线和256×256像素的图像组成。】再加上一个网格图,通过lineart来分割不同的块面。接下来,我们来设置controlnet,第一张图选择openpose_face,得到人物的15个面部角度。第二张图选择lineart_standard(from white bg & black line),可以得到清晰的表格分区。为了让小图模式下的人脸不会崩坏,我们可以在增加一个ADetailer的脸部修复插件。

【SD】角色设计的福音!绘制一致性多角度头像

设置文生图提示词:大模型:majicmixRealistic_v6.safetensors正向提示词:(a character sheet of a woman from different angles with a grey background:1.4),auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography,负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,(easynegative),((((ugly)))),(((duplicate))),((morbid)),((mutilated)),out of frame,extra fingers,mutated hands,((poorly drawn hands)),((poorly drawn face)),((bad art)),blurry,(((mutation))),(((deformed))),blurry,((bad anatomy)),(((bad proportions))),((extra limbs)),cloned face,(((disfigured))),gross proportions,(malformed limbs),((missing arms)),((missing legs)),((floating limbs)),((disconnected limbs)),((malformed hands)),((missing fingers)),worst quality,((disappearing arms)),((disappearing legs)),(((extra arms))),(((extra legs))),(fused fingers),(too many fingers),(((long neck))),canvas frame,((worst quality)),((low quality)),lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w,设置一下参数:迭代步数:50采样方法:DPM++ 2M Karras尺寸:1328×800px出图!15个不同角度的人物图片,大概看下来基本就是同一个人,没毛病。

【SD】角色设计的福音!绘制一致性多角度头像

接下来发送到图生图,进行一次放大。重绘幅度设置为0.55,不需要太高。使用controlnet的teil模型来增加细节,控制模式选择“更倾向controlnet”。Ultimate SD upscale脚本放大为2倍,使用4x-UltraSharp放大算法。生成出图,我们来看一下最终的效果。[heading1]#04[heading1]随便试试[content]接下来,我们再来试一试二次元的形象吧。使用AnythingV5大模型,绘制一个浅绿色的侧马尾女孩的形象。再做一个手办风格的卡通角色使用revAnimated大模型,绘制一个粉色头发的长发公主的形象。怎么样,效果不错吧,你学会了吗?以上,就是关于在sd中制作多角度角色形象的方法。当然,由于AI绘画的随机性存在,15个角度的画面不可能那么完美,controlnet的控制也是让我们更大程度的去接近自己想要的效果。所以想要好的结果,多刷刷图吧~需要stable diffusion相关资料的话,可以关注我的公众号【白马与少年】,发送【sd】即可获取链接。-END-白马与少年Stable Diffusion、Blender等学习心得分享140篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

其他人在问
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
星流ai人物一致性
以下是关于星流 AI 人物一致性的相关内容: 在实现角色一致性方面,有以下几种方法和示例: 1. 可以通过特定的 prompt 格式来实现,公式为:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。 2. Midjourney 推出了角色一致性功能,同步支持 MJ V6 和 Niji V6。跟之前的风格一致性sref 命名基本一致,为cref。cref 背后参数cw 的值可以从 0 设到 100,cw 100 会参考原图的脸部、头发和衣服,但相应的会非常不吃 Prompt;cw 0 时,就只会参考脸部,大概约等于一个换脸。 3. PixVerse 有“角色(Character)”新功能,能实现 AI 生成视频中的角色保持一致。用户只需单击“Character”功能,上传符合要求的图像,点击创建自定义角色,训练一个新角色,然后可使用自定义角色生成视频,可在 AI 生成视频中轻松切换场景,同时保持同一角色身份。该功能目前只支持真实人脸,暂不支持动物或其他风格照片。操作说明:在主页面点击选择“Character”,点击“Create Character”,在此界面通过点击或拖动的方式上传图片,命名您创建的 Character,最后点击“Create Cha”。提示:最好使用包含真实人脸的单人图片效果最佳,脸部大小需要超过 200×200px,面部无遮挡。Character 添加完毕后,等待 20 秒左右,在看到“Success”提示后,点击“Create”进。若未等到“Success”提示便进入创作界面,会找不到创建的 Character,此时需等待 10 30 秒,待 Character 创建完成即可。 相关网址: 1. 2. 3. Midjourney 网页版:https://alpha.midjourney.com/ 4. PixVerse:https://app.pixverse.ai/ (目前可以免费使用)
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 此功能是官方推出的重要功能,可使生成的人物与参考图像相匹配。 使用方法:在提示词后输入 `cref URL` 并附上人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可使用 `cw` 来修改参考强度,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入 `cref cw` 。 若有黑边问题,可将黑边部分框住,重绘输入关键词 `background` 去除黑边保证背景一致。 体验 MJ 网页版效果较好,网址:https://alpha.midjourney.com/
2025-03-18
comfy ui 九宫格生图保持人物一致性的原理
Comfy UI 九宫格生图保持人物一致性的原理主要基于 PuLID 技术,具体如下: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,它结合了两个不同的模型分支(Lightning T2I 分支和标准扩散模型),引入了两种损失(对比对齐损失和精确 ID 损失)。 Lightning T2I 分支是一个快速、高效的文本到图像生成模型。 标准扩散模型是常见的、生成高质量图像的模型。 对比对齐损失帮助模型学习将输入的文本和生成的图像内容对齐,使生成的图像更符合文本描述。 精确 ID 损失确保生成的图像中的特定身份特征(比如人物的脸部特征)与目标 ID 一致。 此外,在保持人物一致性方面,还有一些操作步骤: 生成图像(提示词加入分割描述,让一张图生成多张同空间小图)。 通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。 上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张)。 放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。 同时,Eva CLIP 也是相关的技术: Eva CLIP 是一种基于对比学习的视觉文本模型,将文本描述和图像内容映射到一个共享的嵌入空间。 对比学习架构:使用对比学习方法,将图像和文本嵌入到一个共享的空间,通过最大化匹配图像和文本对的相似度,同时最小化不匹配对的相似度,学习到图像和文本之间的关联。 强大的特征提取能力:编码器擅长提取图像中的细节特征,并将其转换为有意义的嵌入向量,用于下游任务。 多模态应用:能够处理图像和文本两种模态,广泛应用于多模态任务中,如生成、检索、标注等。 其应用场景包括图像生成、图像检索、图像标注等。Eva CLIP 编码器通常与深度神经网络结合使用,如卷积神经网络(CNN)用于图像特征提取,Transformer 网络用于处理文本描述。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: instant ID 脸部特征抓取得比 pulid 好,放在最后一步重绘,先 pulid,再 instantID https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e8 1d90 4373 94cf 0249d14c73c8 测试案例:
2025-03-17
comfy UI 如何保持人物一致性
要在 ComfyUI 中保持人物一致性,可以通过以下方式实现: 1. PuLID 技术: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,无需复杂调整。 它结合了 Lightning T2I 分支和标准扩散模型两个不同的模型分支,并引入了对比对齐损失和精确 ID 损失两种损失,以确保在保持原始模型效果的同时,高精度地自定义 ID。 Lightning T2I 分支是快速、高效的文本到图像生成模型,标准扩散模型是常见的生成高质量图像的模型。 PuLID 可以让您在生成图像时更精确地定制人物或物体的身份,将特定 ID(例如人脸)嵌入到预训练的文本到图像模型中,而不会破坏模型的原始能力。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: 百度网盘:https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e81d90437394cf0249d14c73c8 instant ID 脸部特征抓取得比 PuLID 好,可放在最后一步重绘,先 PuLID,再 instantID。 2. 节点设置: 节点插件 PuLID ComfyUI:https://github.com/cubiq/PuLID_ComfyUI model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。比如,ortho_v2 和 fidelity:8 等价于标准节点的 fidelity 方法,而 projection ortho 和 fidelity:16 等价于 style 方法。 此外,在 8 月 13 日的 ComfyUI 共学中也提到控制人物一致性有很多方法,课程后期会介绍。
2025-03-17
人物一致性
Midjourney 的角色一致性功能: 此功能类似于“风格参考”,但尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入`cref cw`。 若有黑边问题,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 体验 MJ 网页版效果更佳,网址:https://alpha.midjourney.com/
2025-03-13
剧本分析(NLP):AI 读取剧本,分析情节、角色发展,甚至预测观众反应。
以下是关于剧本分析(NLP)中 AI 读取剧本并进行相关处理的一些信息: 人物剧本与角色状态: 对人物如李洛云进行“剧本推演”,每天生成 20 40 个时间段剧本,依据人物背景和增长记忆体生成。 可使用 LLM 生成英文提示词用于 Stable Diffusion 出图,图存于“手机相册”用于对话多模态中的图片回复。 选择剧本和图片生成朋友圈文案。 拟人行为: 反感度系统:通过 LLM 分析对话判断角色是否产生反感度。 延迟回复:根据状态忙闲或是否睡觉决定回复时间。 接受多轮输入,一并回复:避免每一条输入回复一句,不像真人。 响应拆分与响应延迟:将一大段响应文本拆分成多段,模拟人类打字速度(3 5 字/秒),回复时概率性使用表情包,有概率主动聊天(与亲密度正相关)。 微信朋友圈:根据每天人物剧本挑选 1 2 个发布朋友圈并配图,目前内容由 AI 生成但手工发布。 将小说做成视频的制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 2. 生成角色与场景描述:用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 3. 图像生成:用 AI 图像生成工具创建图像。 4. 视频脚本制作:将关键点和图像组合成脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)转换语音,添加背景音乐和音效。 6. 视频编辑与合成:用视频编辑软件(如 Clipfly 或 VEED.IO)合成。 7. 后期处理:剪辑、添加特效和转场提高质量。 8. 审阅与调整:观看视频并根据需要调整。 9. 输出与分享:完成编辑后输出并分享。 Inworld AI: Inworld AI 是一家专注于游戏和人工智能的初创公司,开发了 Inworld 的 AI 角色引擎,可将游戏 NPC 进行 AI 化并集成到游戏中。该引擎超越大语言模型,增加可配置的安全性、知识、记忆、叙事控制、多模态等功能,使 NPC 能够自我学习和适应,具有情绪智能。其角色引擎可创建具有独特个性和上下文意识的角色,无缝集成到实时应用中,内置优化规模和性能的功能。Character Brain(性格大脑)引擎使 AI NPC 能够学习和适应,具有情绪智能的关系导航能力、记忆和回忆能力,并能自主发起目标、执行动作并遵循动机。功能包括目标和行动、长期记忆、个性、情绪等。
2025-03-20
角色扮演与人设研究
以下是关于角色扮演与人设研究的相关内容: 在换位思考方面,比如玩假装是海盗的游戏,需要像海盗一样思考和说话,这种方法可用于训练机器人像所假装的角色一样思考和行动,有助于理解和预测角色的言行。以论文中的 SimToM 两阶段提示框架为例,包括角色扮演和推理两步。角色扮演时,模型理解故事中代理人的所知和愿望,并从其视角重构故事;推理时,基于特定视角的信息推断问题答案。 在让 AI 像人类一样思考方面,自主体感轮子本质上是在逻辑体感轮子基础上补充了角色扮演的人设认知,包括人设认知层(角色价值观、个人能力、语言风格、互动方式)和任务执行层。其中,价值观认知和互动方式认知最为重要,分别影响个人立场决策和对话时的用户体验。 在游戏中的生成式 AI 革命方面,生成式 AI 对话能让游戏角色说任何话以响应玩家行为,结合更智能的 NPC AI 模型,完全响应玩家的游戏将成为现实。角色扮演方面,使用与玩家虚拟形象匹配的生成声音可维持幻想角色的幻觉。此外,还能控制生成声音的细微差别,实现本地化,将对话翻译成任何语言并以相同声音发音。
2025-03-16
我想给deep seek设置长篇小说作家的角色设定,我应该说哪些指令
以下是为 Deep Seek 设置长篇小说作家角色设定时可以考虑的指令: 1. 明确写作风格和特点,例如指定模仿某位知名小说家的文风,如鲁迅的文风特点。 2. 描述故事的背景、主题和情节框架,比如设定故事发生在特定的历史时期或虚构的世界。 3. 规定小说的体裁和类型,如言情、科幻、悬疑等。 4. 对人物塑造提出要求,包括主要人物的性格、外貌、经历等。 5. 设定语言表达的要求,如语言的优美程度、词汇的丰富性等。 6. 明确字数范围,例如要求创作一部不少于 10 万字的长篇小说。 7. 给出情节发展的节奏和起伏要求,比如要求情节紧凑、高潮迭起。 8. 强调故事的逻辑性和连贯性,避免出现逻辑漏洞和情节跳跃。 在设置指令时,应尽量具体、清晰,避免过于宽泛和模糊的表述,例如将“写小说”优化为“创作以 AI 觉醒为背景的悬疑长篇,采用多视角叙事结构,人物形象鲜明,情节跌宕起伏,语言优美生动,字数不少于 20 万字”。同时,对于生成的内容,可以通过多轮对话进行增删改查,以达到理想的效果。
2025-03-12
我想给deep seek设置角色设定,我应该说哪些指令
以下是为 Deep Seek 设置角色设定时可以参考的一些指令: 1. 明确模型的具体任务,例如专门分析视频并从中找到特定内容。 2. 在向模型提供视频之前添加指令,如说明视频的数量、来源和对模型回答的限制,例如“这里有三个视频。每个都是来自 Deep Learning AI 的 LLM Ops 课程的一课。你的答案只基于视频。” 3. 为模型准备具体的问题,例如“请为每个视频创建一个摘要,概述其中讨论的主要内容。每个摘要限制在 100 词以内。”“在这三个视频中,哪一个视频的讲师运行并解释了 Python 代码'be_query_clients.query'?请指出在视频中可以找到这段代码的具体位置。”
2025-03-12
角色:你是一名软件开发公司的运营经理 背景:现在要准备入局AI导航网站市场,通过AI导航网站实现布局产品流量入口,来获取AI风口的流量。 任务:请你完成AI导航网站的国内外市场调研 要求:调研内容包括AI网站导航的市场、竞品、用户分析以及产品规划、团队人员需求及资源需求、有哪些风险点
以下是对您需求的调研分析: 一、市场分析 目前,AI 领域发展迅速,AI 导航网站作为获取相关信息和资源的入口,具有较大的市场潜力。随着人们对 AI 技术的关注度不断提高,对于便捷、高效的 AI 资源导航需求也在增加。 二、竞品分析 暂未获取到直接关于 AI 导航网站的竞品详细信息。 三、用户分析 用户可能包括对 AI 技术感兴趣的个人、开发者、研究人员、企业等。他们希望通过导航网站快速找到所需的 AI 工具、资源、案例等。 四、产品规划 1. 提供全面、准确的 AI 网站分类和链接,涵盖工具、研究成果、应用案例等。 2. 设立用户评价和推荐系统,帮助用户筛选优质资源。 3. 提供个性化推荐功能,根据用户的浏览历史和偏好推送相关内容。 五、团队人员需求 1. 技术人员:负责网站的开发和维护,如前端开发、后端开发等。 2. 内容编辑:收集、整理和更新 AI 网站信息。 3. 运营人员:负责推广、用户互动和数据分析。 六、资源需求 1. 服务器和带宽资源,以保证网站的稳定运行和快速响应。 2. 数据采集和更新的工具和技术。 七、风险点 1. 市场竞争激烈,可能面临已有成熟竞品的压力。 2. AI 技术发展迅速,需要及时更新网站内容,以保持竞争力。 3. 可能存在版权和法律合规方面的风险。 4. 用户获取和留存的挑战,需要提供优质的服务和用户体验。
2025-03-11
开发角色在使用AI的时候会涉及哪些AI工具,帮我分别具体列举出来
开发角色在使用 AI 时可能涉及以下工具: 1. 个性(LLM 的文本):一些开源模型如 Vicuna 和 Pygmalion 经过微调,可在特定个性到无审查的角色扮演等场景中表现出色。 2. 记忆(向量存储):像 Pinecone 这样的向量存储系统,用于存储长期记忆、背景故事等独特信息。 3. 语音(语音合成):ElevenLabs 产品可赋予声音,并控制年龄、性别和口音。 4. 外表(SD 模型作图):LoRAs 可精细控制图像风格、细节和设置。 5. 动画(视频动画):DID 和 HeyGen 等工具能使图像“说话”。 6. 平台:多数开发者在 GCP 和 AWS 上部署运行,Steamship 等解决方案也受关注。 7. UI 层:SillyTavern、Agnaistic 和 KoboldAI 等是受欢迎的前端界面选择。 在游戏开发方面: 1. Unity 提供了新 Copliot 工具,可通过与 Muse Chat 聊天快速启动创建游戏项目,协助编码,创建 3D 材质、动画等内容。 2. Unity Sentis 工具允许在 Unity 运行时为游戏或应用程序嵌入 AI 模型,增强玩法和功能,是跨平台解决方案。
2025-03-07