Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

midjourny教程

Answer

以下是关于 Midjourney 的一些教程:

  1. 线稿上色:
    • 先使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background --niji 5 --style expressive”。
    • 用 PS 手动修正错误的地方。
    • 再用 ControlNet 控制,Stable Diffusion 上色。
  2. 利用一致性出海马体写真:
    • 得益于“--cref[image url]”和“--cw[0~100]”,Midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,“cref”代表 character reference(角色参考);“cw”则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。
    • 风格复制和服装的替换,应当用提示词(prompt)和“--sref[image url]”来解决。“--sref”代表 style reference,权重参数为“--sw[0~1000]”,默认值 100,越高越接近参考图像的风格。
    • 先用“/describe”指令反推海马体的提示词,再配合“--sref[海马体图像的 url]”,就可以轻松复制图像风格。在回车之前,检查提示词,不要出现和“sref”风格差异过大的 prompt;也可以增加一些之前学过的有用的 prompt。然后 Upscale 最满意的那一张。
  3. 人物一致性:
    • YouTube 大神 TAO 最新的教程,原理是把已经确定好的角色生成一个固定成一个快捷命令,每一个角度一个快捷命令,再通过 vray 重绘调用命令重回人物头部。
    • 具体步骤包括:生成图像(提示词加入分割描述,让一张图生成多张同空间小图);通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类);上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 - 5 张);放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。
Content generated by AI large model, please carefully verify (powered by aily)

References

教程:线稿上色Midjourney+Stable Diffusion

在学习AI绘画这段时间,发现AI绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用midjourney生成线稿,PS稍微做一些修正,再用controlnet控制,stable diffusion上色,多套AI组合拳,可以快速生成效果惊艳的图作者:三思先欣赏下作品[heading3]1、线稿产出[content]mj关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background --niji 5 --style expressive[heading3]2、ps手动手动重绘错误的地方[content]有些图出来没有阴影容易飘,可以自己画一个出来

莱森:利用一致性MJ 出海马体写真的教程来啦

Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。Upscale最满意的那一张。接下来解决大家最关心的「形似而神不似」的问题。其实非常简单,这个问题其实是:MJ直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距。

Midjourney 人物一致性已上线

发布此功能前的保持一致性教程YouTube大神TAO最新的教程,原理也很简单,就是把已经确定好的角色生成一个固定成一个快捷命令,每一个角度一个快捷命令,再通过vray重绘调用命令重回人物头部。1.生成图像(提示词加入分割描述,让一张图生成多张同空间小图)2.通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。3.上传图像,调用prefer option set命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4-5张)。4.放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。[1567_1710206655.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/O3Hkb2yqHoCfvaxKqV4cHQgTnph?allow_redirect=1)[heading2]作者:天天向上[heading2]作者:CYCHENYUE[heading2]作者:lavon[heading2]作者:李昀桓[content]原图效果图

Others are asking
midjourny教程
以下是关于 Midjourney 的教程: 利用一致性 MJ 出海马体写真的教程: Midjourney 能够迅速达成角色一致性的目的,得益于 cref。其中,cref 代表 character reference(角色参考),cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。若只想关注人脸,可将其调低到 0。 风格复制和服装的替换,应当用提示词(prompt)和 sref,默认值 100,越高越接近参考图像的风格。 相关学习资源: 新手学习手册&干货网站(必看):https://ciweicui.feishu.cn/docx/DPbidgdBeoNw55xKjO6c7ao3nbc?from=from_copylink MJ 官方学习手册(至少看 1 遍):https://docs.midjourney.com/ B 站·莱森 LysonOber 免费视频教程(基础操作必看):https://space.bilibili.com/630876766?spm_id_from=333.337.0.0 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)摄影范式:https://docs.qq.com/sheet/DSXRNUGJIQ0tMWkhu?tab=BB08J2 【腾讯文档】副本野菩萨 AI 课程(小红书@野菩萨)绘画范式:https://docs.qq.com/sheet/DSWlmdFJyVVZPR3VN?tab=y0u7ta 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)Niji 二次元范式:https://docs.qq.com/sheet/DSUxaRmprc0FrR25W?tab=c7lsa8 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)三维和抽象:https://docs.qq.com/sheet/DSUlaSHVXT1daaFlJ?tab=BB08J3 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)AI 产品制作与展现:https://docs.qq.com/sheet/DSW1jSFVZTER4Rnlq?tab=BB08J4 线稿上色教程: 用 Midjourney 生成线稿,PS 稍微做一些修正,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。
2024-08-17
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12