Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

mj图生图

Answer

以下是关于 MJ 图生图的相关内容:

MJ(选择最新的 6.0 model)具有图生图的功能,命令为 /describe 。选择 image 上传本地图片即可获取到上传图片的四条提示词,点击下方的标签可以直接生成对应提示词的四张图。需要注意的是,截图的对标比例未必是标准的 9:16 ,可以手动修改一下比例,以省去一些返工的情况。大家自行对比反推的词和对标的相似程度,自己再微调一下。可以看到 describe 根据对标图反推出来的效果不算特别好,但能给大家一点方向,大家可根据推出的词自行修改,也可以直接用以下提示词(括号内的部分可自行替换):Anthropomorphic(mice),fashion runway,whole body,(wearing red northeast big flower jacket),anthropomorphic,high-end design style,cool,slender figure,Milan fashion show,whole body,dynamic capture runway show,front view,facing the camera --ar 9:16 --style raw 中文:拟人(老鼠),时尚 t 台,全身,(穿着红色东北大花夹克),拟人,高端设计风格,酷炫,修长身材,米兰时装秀,全身,动态捕捉 t 台秀,正面视角,面向镜头 。

另外,MewXAI 拥有众多超火模型,支持文生图、图生图,可玩性极强。例如使用 PS 或者 Canva 将人物和场景合成到一张图,在色调不太和谐时(如果画面和谐/PS 技术足够,也可不用图生图),可将合成后的图作为垫图(--iw 2),mj 重新生图。其 prompt 为:垫图 url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,--s 400 --ar 3:4 --niji 5 --style expressive --iw 2 。

Content generated by AI large model, please carefully verify (powered by aily)

References

WTF:1w粉 - 10w粉仅仅用时 13 天,像素级拆解《动物时装秀》

接下来讲一下MJ的使用,有一些要注意的地方。MJ也有图生图的功能。命令:/describe选择image上传本地图片即可,会获取到上传图片的四条提示词。点击下方的标签可以直接生成对应提示词的四张图。此时要注意:咱们截图的对标比例未必是标准的9:16咱们可以在点,手动修改一下比例,这样可以省去一些返工的情况。(别学我,--ar我当时就是忘改了)大家自行对比反推的词和对标的相似程度,自己再微调一下。可以看到describe,根据对标图反推出来的效果不算特别好。但是可以给大家一点方向,大家根据推出的词自行修改即可,也可以直接用我下面分享的这个提示词。(我用括号括起来的地方大家可以自行替换)提示词分享:Anthropomorphic(mice),fashion runway,whole body,(wearing red northeast big flower jacket),anthropomorphic,high-end design style,cool,slender figure,Milan fashion show,whole body,dynamic capture runway show,front view,facing the camera --ar 9:16 --style raw中文:拟人(老鼠),时尚t台,全身,(穿着红色东北大花夹克),拟人,高端设计风格,酷炫,修长身材,米兰时装秀,全身,动态捕捉t台秀,正面视角,面向镜头

问:mewxai是什么?

MX绘画:MX绘画,拥有众多超火模型,上百种风格,只需一句话即可让文字变为艺术画作,让你的想象变为现实。支持文生图、图生图,可玩性极强。MX Cute:MX Cute是MewXAI团队自研的可爱风动漫大模型,融合了想象力和逻辑性,呈现出优秀的图片质感,在某些风格场景下可以媲美当下最火的NJ-V5模型。MJ绘画:MJ绘画创意度和想象力极高,无论是摄影照片、海报、logo设计、3d模型、表情包制作等,都不在话下。边缘检测:可以对草图进行上色,让您的线稿/草图一键变为现实,且有多种渲染风格可供挑选,创意无限。室内设计:上传空间图,通过分析图片的线条结构和几何形状,即可一键完成多种不同风格的室内/建筑设计。为空间设计师提供灵感,节约时间。姿态检测:通过姿态识别实现对人物动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势,实现对AI画图的完美控制。AI艺术二维码:利用人工智能,在几秒内创建令人惊叹的下一代艺术二维码,从此告别单调的黑白二维码,留下令人深刻的印象。AI艺术字:AI最新玩法,把光影文字、隐藏文字、艺术字融入你的艺术作品,美观且实用。

MJ应用篇 儿童绘本制作、人物一致性解

使用PS或者Canva将人物和场景合成到一张图,但是在色调上不太和谐:(如果这里画面和谐/ps技术足够,也可以不用图生图)将合成后的图作为垫图(--iw 2),mj重新生图如下。prompt:垫图url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,--s 400 --ar 3:4 --niji 5 --style expressive --iw 2

Others are asking
风格化mj提示词
以下是关于 Midjourney 风格化提示词的相关内容: 仿照 GPTs 里的 MJ prompt 改的提示词可用于 coze 或其他国内的 agent。MJ 对节点无要求,画插图可不切节点,不挑模型,提示词可让 agent 补全润色。例如:“一个巨大鲸鱼头部的特写,鲸鱼的眼睛显示疲惫的神情,一个小女孩站在鲸鱼的旁边抚摸鲸鱼的脸,小女孩占画面比例很小,体现鲸鱼的巨大,吉卜力工作室风格”的提示词为“A closeup of a huge whale's head with its tired eyes. A little girl in red dress stands beside the whale, gently touching its face. The girl takes up a small portion of the frame, emphasizing the whale's enormity. Created Using: soft colors, gentle lighting, wideangle lens, Ghibli Studio style ar 16:9 style raw niji 6”。 Midjourney V6 更新风格参考命令 2.0“sref”,常见问题如想要的新图像和 sref 图像差异大时,MJ 给出了三种办法: 修改提示:语义细节太多时,编写提示用可取细节替换不需要的;风格不够时,修改提示使其更符合追求的风格。 更改“sw”值:语义细节太多时,将“sw”从默认值 100 降低;风格不够时,将“sw”从默认值 100 提高。 使用小权重强调或弱化不需要的画布元素。 参数总览与举例: “No 否定提示”:在提示词末尾加上“no”可让画面中不出现某些内容,如“no plants”表示图像中不出现植物。 “Quality 生成质量”:在提示词后加上“quality”或“q”参数可更改生成图像花费时间和质量,高质量需更长处理时间和更多 GPU 分钟数。 “Seeds 种子值”:MJ 依靠噪点团起点“Seed”创建视觉噪音场生成初始图像,每个图像种子值随机生成,可指定,v4 模型中相同种子值和提示词产生相同图像结果,可用于生成连贯一致的人物形象或场景。 “Stylize 风格化”:使用 stylize 参数可让 Midjourney 生成更具艺术色彩、构图和形式的图像,低风格化值生成的图像与提示密切相关但艺术性较差,高风格化值产生的图像艺术性强但与提示关联性少,AI 自由发挥空间大。
2025-04-11
MJ和runaway用什么软件代替比较好
以下是一些可以替代 MJ(Midjourney)和 Runway 的软件: Luma 发布的 DIT 视频生成模型 Dream Machine 图生视频表现惊艳,具有电影级效果。 出图工具方面,还有 SD(Stable Diffusion)和悠船。MJ 稳定性好、协作性强且有成熟经验参考,但并非所有人都拥有;SD 有独特能力但需本地部署且上手门槛高;悠船对中文支持好、交互友好简单易上手,但管控严格,有很多敏感词不能使用。 如果您想了解更多关于这些软件的详细信息或有其他特定需求,请进一步向我提问。
2025-03-24
如何使用MJ
以下是关于如何使用 MJ(Midjourney)的详细说明: 1. 图像网格: 使用 /imagine 命令可根据提示生成低分辨率图像选项网格。 每个图像网格下方的按钮可用于创建图像的变体、升级图像或重新运行最后一个 Midjourney Bot 操作。 U1U2U3U4 按钮将图像与图像网格分开,方便下载或使用其他工具,如“缩小”“平移”。使用旧版 Midjourney 模型版本时,U 按钮会放大图像。 重做(重新滚动)按钮可重新运行作业,重新运行原始提示生成新的图像网格。 变化按钮(V1V2V3V4)可创建所选网格图像的增量变化,生成与所选图像整体风格和构图相似的新图像网格。 2. 放大图像: 制作变体:创建放大图像的变体并生成包含四个选项的新网格。 网页:在 Midjourney.com 上打开图库中的图像。 最喜欢:标记您最好的图像,以便在 Midjourney 网站上轻松找到它们。 3. 模型个性化: MJ 发布了模型个性化 Personalization 或 'p' 的早期测试版本。 每次写提示时,很多信息是“隐含的”,MJ 算法通常用社区综合偏好填补空白,而模型个性化会学习您的喜好来填补。 模型个性化的要求:目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效,可在排名页面查看评分数量或在 Discord 上输入 /info。 使用方法:只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,可分享让其他人使用应用于该图像的个性化效果,还可以使用 's 100' 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。 注意:个性化目前不是稳定功能,会随更多成对排名而变化,可能会推出算法更新,视为“不断变化的有趣功能”。 4. Midjourney V6 更新风格参考命令 2.0"sref": 2 月 1 日初次发布了首个“一致风格”测试算法,称为“风格参考”,工作方式类似于图像提示,可提供一个或多个描述想要的一致风格的图像的 URL。 使用方法:在提示后面输入 'sref' 以及一个指向图像的 URL,例如 'sref url A'。 高级设置:使用多个图像 URL 并设置风格的相对权重,例如 'sref urlA::2 urlB::3 urlC::5',通过 'sw 100' 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在 'sref' 之前。 注意:MJ 可能会在接下来的几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”的功能,与 'cref' 参数使用方式相同。
2025-03-13
去哪里使用mj
Midjourney 的使用方法如下: 模型个性化: 工作原理:模型个性化会学习您的喜好,以更符合您的口味生成图像。 要求:目前从成对排名中的投票和您喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。您可以在排名页面查看评分数量,或在 Discord 上输入/info。 使用方法:在提示后输入p,或使用提示栏中的设置按钮为所有提示启用个性化功能。启用时会在提示后添加一个“代码”,您可以分享此代码让他人使用应用于该图像的个性化效果。还可以使用s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。 注意事项:个性化目前不是稳定功能,会随您进行更多成对排名而变化,且可能会在接下来几周内推出算法更新。 在 Discord 上的使用: 与 Midjourney Bot 互动:可以在 Discord 上进行,Midjourney 服务器具有不同的界面和频道。 直接消息:与直接消息中的 Midjourney 机器人进行一对一合作,获得更安静的体验。 Midjourney 官方服务器:提供协作和计费/技术支持渠道。 频道列表:包括support 频道获取计费和技术支持,newbies 频道创建图像。 会员名单:Midjourney Bot 使用命令生成图像,版主和指南可帮助解决计费和技术问题。 V6 更新风格参考命令 2.0"sref": 初次更新 1.0 说明:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”,可提供一个或多个描述想要的一致风格的图像的 URL。 如何使用:在提示后面输入sref 及图像的 URL,例如sref url A。系统会将图像 URL 视为“风格参考”,并尝试生成与其风格或美学相匹配的内容,适用于 V6 和 Niji V6(不适用于 V5 等)。 高级设置:可使用多个图像 URL 并设置相对权重,例如sref urlA::2 urlB::3 urlC::5,通过sw 100 设置风格化的总体强度(100 是默认值,0 表示关闭,1000 表示最大值),常规图像提示必须在sref 之前。 注意事项:MJ 可能会在接下来几周内更新此功能,若提示倾向于照片逼真而想要冲突的插图风格,可能仍需在提示中添加文本说明,风格参考对图像提示没有直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能,与cref 参数使用方式相同。
2025-02-28
如何用mj有效地画三视图
要有效地用 Midjourney(MJ)画三视图,可以参考以下步骤: 1. 对于核心角色创建,如局长的三视图设计,先明确角色特点,使用 GPT4 生成相关描述。 2. 进行多次尝试和修改,根据团队成员的反馈不断调整。 3. 可以用 MJ 进行垫图生成,在保持原 IP 特点的基础上重新设计。 4. 如果 MJ 生成的效果不理想,可以结合其他工具,如用 Illustrator 手绘,再用 Stable Diffusion(SD)控图,后期利用 AI 工具生成拓展视频。 需要注意的是,MJ 虽然在美术效果和设计能力上有进步,但仍可能存在局限,需要不断尝试和改进。
2025-02-25
Mj
以下是关于 Midjourney(MJ)的相关信息: 1. 文字生成效果测试:MJ 在圣诞节前夕推出新版本 V6,聚焦于文字生成方面。使用英文文本输入,对英语提示词的识别效果变好,将需要生成的文本用双引号“text”包裹,输出的图片中便能出现所要求的文字。但带文字的图片生成仍受文本量、文字在画面中的占比、其他提示词数量和画面复杂程度等因素影响。为探究 V6 的文字生成能力开展了进一步实践测试。 2. 更新风格参考命令 2.0“sref”:2 月 1 日,MJ 发布首个“一致风格”测试算法,称为“风格参考”。工作方式类似于图像提示,在提示后面输入sref 及图像的 URL,可提供一个或多个 URL 并设置相对权重,还可通过sw 100 设置风格化总体强度。此功能适用于 V6 和 Niji V6,不适用于 V5 等。MJ 可能在接下来几周内更新此功能,风格参考对图像提示无直接影响,仅对至少包含一个文本提示的作业产生影响,计划稍后添加“一致角色”功能。 3. 角色一致性功能使用报告:MJ 推出角色一致性功能,以甜茶的图片为例进行测试。使用方式是在提示后输入`cref URL`附上人物图像的 URL,注意要在提示词后面,可使用`cw`修改参考强度,强度 100 是默认值,会使用面部、头发和衣服,强度 0 时只会关注面部。
2025-02-20
我想图生图,生成高清矢量图
以下是关于图生图生成高清矢量图的相关内容: ControlNet 参数: 预处理器:canny,模型:control_v11p_sd15_canny 预处理器:lineart_standard,模型:control_v11p_sd15_lineart 放大高清大图: 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化 Lora 生图: 点击预览模型中间的生图会自动跳转到相应页面 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形) 采样器和调度器新手小白可默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重绘幅度正常在 0.3 0.7 之间调整 高清修复: 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复 SD 放大: 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
2025-04-14
我想要通过建筑草图生成效果图,有什么工具和流程可以使用
以下是使用悠船工具将建筑草图生成效果图的流程和相关介绍: 1. 基础使用: 提示词:在右侧填写提示词,右上可下载对应图片。 参数调整:参数详解参考下方「参数详解」。注意任何点击都会重新生成图片,免费用户可能会提示超出套餐,所以别乱点。最右侧是所有生成图片的略缩图。 2. 图片调整: 变化:分为细微和强烈,细微改变幅度小,强烈改变幅度大。 高清:有“直接”和“创意”两种模式,“直接”表示啥都不变直接出高清,“创意”表示在图片基础上进行微小的优化调整。 风格变化:基于生成的图片作为上传图片(垫图)再创作。 拓展:可上下左右拓展图片。 缩放:指的是镜头,比如 2x 就是镜头拉远 2 倍。 局部重绘:选择区域要大一些,太小的无法进行修改。 3. 图像参考: 在悠船中可以利用垫图和提示词配合生成符合要求的建筑、风景、文物等。只需将图片复制到悠船的提示词框里面,并填写对应的提示词描述。
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
图生 视频
以下是关于图生视频的相关内容: 工具教程:清影 什么是图生视频:输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 两个小技巧: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 提示词要【简单清晰】:可以选择不写 prompt,直接让模型自己操控图片动起来;明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果您不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 视频演示 |首帧图|PROMPT|视频(配音版)|视频(纯享版)| ||||| |1、泳池里的小鸭子|Little yellow duck toy floating on the water in the swimming pool,closeup|| |2、洞穴文明|The primitive man raises his hand.The camera zooms out.|| |3、魔法少女|A woman reaches out to touch the glowing box.Particle effects.|| |4、离别列车上的小狗|a dog with Furry white claws the bus window with reflections on the glass,Furry white claws,closeup,ultrarealistic|| |5、古典美女|celine,classic photograph from Life magazine|| |6、废土黑雨|游戏场景在下雨,人物看起来非常担心|| 工具教程:PixVerse V2 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-04-13
手绘草图生成图片
以下是关于手绘草图生成图片的相关信息: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词,从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高,结束时间也不宜过长。 生成上色后的视频: how2draw Flux lora:分享一个好玩的 flux lora,触发词为 how2draw。 图片生成 3D 建模工具: Tripo AI:在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 Meshy:功能全面,支持文本、图片生成 3D 以及 AI 材质生成。 CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象。 Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域。 VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型。 【SD】真人转二次元: 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,X 轴为提示词相关性(130,每次增加 5),Y 轴为重绘幅度(01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,大于 11 后画面色彩和脸型可能崩坏,重绘幅度大小可控制生成图与原图的相似度。 绘图功能:如增加红色眼镜、去掉衣服图案、局部重绘(手涂蒙版)修改部分等。
2025-04-01
怎么用图生成png格式的新图
以下是用图生成 PNG 格式新图的方法: 使用 Stable Diffusion: 1. 若在网上看到好看的大佬的图,将其导入 SD。若能识别,右边会自动弹出照片的信息,包括正面关键词、负面关键词,还有其他种子、大模型等信息。 2. 复制这一大串信息,来到“文生图”页面,粘贴到关键词的文本框中。 3. 点击“生成”按钮下面的第一个小按钮,SD 会自动分配信息,在有相同大模型和 Lora 的前提下,点击生成,可能得到差不多的照片。 4. 若导入照片后右边未出现生成信息,说明照片不是直接从 SD 下载下来的 PNG 格式照片,此时可使用“标签器(Tagger)”来生成照片的关键词。 使用 OpenAI 的图像生成端点: 1. 图像生成端点允许在给定文本提示的情况下创建原始图像,生成的图像大小可为 256x256、512x512 或 1024x1024 像素,较小尺寸生成速度更快。可使用参数一次请求 1 10 张图像。描述越详细,越有可能获得想要的结果,也可在 DALL·E 预览应用程序中探索示例获取更多提示灵感。 2. 图像编辑端点允许通过上传蒙版来编辑和扩展图像。遮罩的透明区域指示应编辑图像的位置,提示应描述完整的新图像,而不仅仅是擦除区域。上传的图片和遮罩必须是小于 4MB 的正方形 PNG 图片,且尺寸相同。生成输出时不使用遮罩的非透明区域。
2025-03-27