「AGIへの道」飛書ナレッジベースへ直行 →

将婴儿彩超图生成照片的AI提示词

回答

以下是关于将婴儿彩超图生成照片的 AI 提示词相关信息:

  • 在图生图功能中,除了文本提词框,还有图片输入口。可将照片拖入,通过反推提示词的按钮(如 CLIP 可反推出完整含义的句子,DeepBooru 可反推出关键词组)获取提示词,但可能存在瑕疵,需手动补充信息。调整宽度和高度使红框匹配图片,并注意提示词相关性和重绘幅度这两个重要参数。
  • 以生成蜘蛛侠生日海报为例,可在 Midjoureny Feed 中寻找优秀案例,复制 prompt 来跑,如使用“baby spider man”“birthday”等关键词。还可将 prompt 交给智谱清言拆解以获取更多关键词。找到满意的图后记录 seed 值保障一致性,为增加专属定制感可增加细节,如“4 岁男孩”“英文名 Andy”“西瓜(儿子的小名)”等。MJ 擅长创意和高质量图片,但细节处理随机,可通过调整“权重”和“局部重绘”解决。
AIモデルによって生成されたコンテンツであり、慎重に確認してください(提供元: aily)

参照

【SD】真人转二次元?图生图如此强大

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-02 20:00原文网址:https://mp.weixin.qq.com/s/l-O9vT9-_xzy0uvxnkjV-w相比于文生图,图生图功能除了文本提词框以外还多了一个图片框的输入口,因此,我们还可以通过图片来给与AI创作的灵感。我们随便照一张照片,直接拖入进来。然后可以看到,在文本输入框的旁边有两个反推提示词的按钮:CLIP是可以通过图片反推出完整含义的句子;DeepBooru是可以反推出关键词组。上面的那一张图,我们通过两种反推方式得到的提示词分别为:CLIP——a young boy sitting on a bench with a toy train and a lego train set on the floor next to him,Adam Rex,detailed product photo,a stock photo,lyco art。(一个小男孩坐在长凳上,旁边的地板上放着一辆玩具火车和一辆乐高火车,亚当·雷克斯,详细的产品照片,一张库存照片,莱科艺术,)DeepBooru——shoes,solo,hat,orange_background,yellow_background,smile,socks,black_hair,sitting,sneakers。(鞋子,独奏,帽子,橙色背景,黄色背景,微笑,袜子,黑发,坐着,运动鞋)可以看到两种方式生成的提示词都有些瑕疵,比如第一组里面没有描述小孩的穿着,第二组里面没有描述小孩的性别和周围的物品,所以我们需要手动来补充提示词的信息。写好提示词之后,我们再调整一下宽度和高度,让这个红框刚好匹配我们的图片即可。接下来,最重要的是这两个参数:提示词相关性和重绘幅度。

吴珂:0绘画基础用AI为儿子做了蜘蛛侠生日海报

现在AI生图的素材已经非常丰富了,你想做的题材极大概率已经有人都实践过了,在Midjoureny Feed(https://www.midjourney.com/explore?tab=likes)中寻找优秀的案例,复制prompt来跑,站在巨人的肩膀上,生产力极大提升。我用了关键词“baby spider man”“birthday”等,搜到了满意的素材,复制prompt到Midjourey来跑。同时,我还把这段prompt丢给了智谱清言来拆解,又学到了很多关键词,learning by doing。MJ出图的效果,效果还挺好的满意的素材(点击“T”一键复制prompt)智谱清言对prompt的解释[heading2]微调[content]找到满意的图之后,记录下seed值,保障一致性。然后,为了让这张图更有专属定制感,需要增加亿点点的细节,我主要处理了这些“4岁男孩”“英文名Andy”“西瓜(儿子的小名)”。这里需要特别说明的是,MJ的长处是「创意」和「高质量图片」,但是对于细节的处理就很随机,比如“西瓜”我尝试了多次,都没有成功生成。后来想到了解决方案,调整“权重”+“局部重绘”,成功了细节的调整,如果会PS和SD这里就会少走很多弯路

吴珂:0绘画基础用AI为儿子做了蜘蛛侠生日海报

现在AI生图的素材已经非常丰富了,你想做的题材极大概率已经有人都实践过了,在Midjoureny Feed(https://www.midjourney.com/explore?tab=likes)中寻找优秀的案例,复制prompt来跑,站在巨人的肩膀上,生产力极大提升。我用了关键词“baby spider man”“birthday”等,搜到了满意的素材,复制prompt到Midjourey来跑。同时,我还把这段prompt丢给了智谱清言来拆解,又学到了很多关键词,learning by doing。MJ出图的效果,效果还挺好的满意的素材(点击“T”一键复制prompt)智谱清言对prompt的解释[heading2]微调[content]找到满意的图之后,记录下seed值,保障一致性。然后,为了让这张图更有专属定制感,需要增加亿点点的细节,我主要处理了这些“4岁男孩”“英文名Andy”“西瓜(儿子的小名)”。这里需要特别说明的是,MJ的长处是「创意」和「高质量图片」,但是对于细节的处理就很随机,比如“西瓜”我尝试了多次,都没有成功生成。后来想到了解决方案,调整“权重”+“局部重绘”,成功了细节的调整,如果会PS和SD这里就会少走很多弯路

他の質問
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11