Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Midjurnery绘画如何控制风格

Answer

要控制 Midjourney 绘画的风格,可以通过以下参数和功能实现:

  1. 模型版本切换:使用 --style <4a,4b or 4c> 可在 Midjourney 模型版本 4 的不同版本间切换。
  2. 风格强度调整:--stylize <number>, or --s <number> 参数影响 Midjourney 默认美学风格应用于任务的强度。
  3. 人物一致性:通过 --cref URL 在提示词后添加人物参考图像的 URL,并使用 --cw 修改参考强度(从 0 到 100),强度为 100(--cw 100)时使用人物的脸、头发和衣服,强度为 0(--cw 0)时仅关注脸部(适用于改变服装/发型等)。还可以使用多个 URL 来融合多个图像中的信息/人物,如 --cref URL1 URL2

此外,还有一些其他基本参数会对生成结果产生影响:

  1. 宽高比:--aspect,or --ar 可改变生成图像的宽高比。
  2. 混沌值:--chaos <number 0–100> 改变结果的多样性,值越高越不寻常和意外。
  3. 负向提示:--no 用于尝试从图像中去除某些元素。
  4. 质量:--quality <.25,.5,1,or 2>, or --q <.25,.5,1,or 2> 决定渲染质量和花费时间。
  5. 种子:--seed <integer between 0–4294967295> 用于指定生成初始图像网格的随机种子数。
  6. 停止:--stop <integer between 10–100> 可在生成过程中途停止作业。

需要注意的是,模型版本 5 的默认值和范围如下:宽高比默认 1:1,混沌值默认 0,质量默认 1,种子随机,停止默认 100,风格化默认 100。宽高比大于 2:1 处于实验阶段,可能产生不可预测的结果。

Content generated by AI large model, please carefully verify (powered by aily)

References

?训练Midjourney的prompt(可举一反三)

[title]?训练Midjourney的prompt(可举一反三)先不用多做回复,请问答是否收到即可?4——————————————————————————————————————Basic ParametersAspect Ratios--aspect,or --ar Change the aspect ratio of a generation.Chaos--chaos <number 0–100> Change how varied the results will be.Higher values produce more unusual and unexpected generations.No--no Negative prompting,--no plants would try to remove plants from the image.Quality--quality <.25,.5,1,or 2>,or --q <.25,.5,1,or 2> How much rendering quality time you want to spend.The default value is 1.Higher values cost more and lower values cost less.Seed--seed <integer between 0–4294967295> The Midjourney bot uses a seed number to create a field of visual noise,like television static,as a starting point to generate the initial image grids.Seed numbers are generated randomly for each image but can be specified with the --seed or --sameseed parameter.Using the same seed number and prompt will produce similar ending images.Stop--stop <integer between 10–100> Use the --stop parameter to finish a Job partway through the process.Stopping a Job at an earlier percentage can create blurrier,less detailed results.Style--style <4a,4b or 4c> Switch between versions of the Midjourney Model Version 4Stylize--stylize <number>,or --s <number> parameter influences how strongly Midjourney's default aesthetic style is applied to Jobs.Uplight

训练Midjourney的prompt

[title]训练Midjourney的prompt--style <4a,4b or 4c> Switch between versions of the Midjourney Model Version 4Stylize--stylize <number>,or --s <number> parameter influences how strongly Midjourney's default aesthetic style is applied to Jobs.Uplight--uplight Use an alternative"light"upscaler when selecting the U buttons.The results are closer to the original grid image.The upscaled image is less detailed and smoother.Upbeta--upbeta Use an alternative beta upscaler when selecting the U buttons.The results are closer to the original grid image.The upscaled image has significantly fewer added details.Default Values(Model Version 5)Aspect Ratio Chaos Quality Seed Stop StylizeDefault Value1:1 0 1 Random 100 100Rangeany 0–100.25.5,or 1 whole numbers 0–4294967295 10–100 0–1000Aspect ratios greater than 2:1 are experimental and may produce unpredicatble results.CompatibilityModel Version & Parameter Compatability

Midjourney 人物一致性已上线

[title]Midjourney人物一致性已上线DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --srefAdvanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categoriesRemember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ⁠ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds

Others are asking
我想找一个好用的ai绘画,有什么推荐吗
以下是为您推荐的一些好用的 AI 绘画平台: 1. Midjourney:综合体验较好,尤其是其 v6 版本。 2. 可灵 AI:成熟的综合类工具。 3. 即梦 AI:成熟的综合类工具。 4. Krea:集成平台。 5. MewXAI:操作简单,功能丰富,包括 MX 绘画、MX Cute、MJ 绘画、边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等。访问地址:https://www.mewxai.cn/
2025-04-15
给我写适应于AI绘画的提示词
以下是一些适用于 AI 绘画的提示词示例及相关说明: 内容型提示词: 选择 anythingV5 这个专门用于二次元绘画的大模型,输入例如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”这样的描述,并使用翻译软件翻译成英文。 标准化提示词: 例如“,绘图,画笔”,能让画面更趋近于某个固定的标准。 其他提示词示例: 远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1 远景,中心对称构图,俯视视角,摄影风格,云雾中的山谷,山峦在云雾中若隐若现,山谷中隐约可见的河流蜿蜒流淌,云雾的流动感和山的静态形成对比,现实主义风格特征,使用长焦镜头和景深控制技术ar 3:2v 6.1 远景,对角线构图,俯视视角,水墨画风格,云雾缭绕的山谷,山峦线条流畅,云雾以墨色深浅表现,山谷中的云雾仿佛在流动,给人以动态的视觉感受,中国山水画风格特征,使用毛笔和水墨渲染技术ar 2:3v 6.1 在设置参数方面: 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但绘画速度越慢。 常用的采样方法有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++SDE Karras、DDIM 等,有的模型会有指定的算法,搭配起来更好用。 比例设置为 800:400 为宜,尺寸并非越大越好,因为模型的练图基本按照 512x512 的框架去画。若想要高清图,可同时点选高清修复来放大图像倍率,高宽比主要控制画面比例。 请注意,不同的 AI 绘画工具可能对提示词的要求和效果有所差异,您可以根据实际情况进行调整和尝试。
2025-04-12
绘画提示词
以下是一些关于绘画提示词的相关信息: 绘画提示词网站: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库,网址: MidJourney Prompt Tool:类型多样的 prompt 书写工具,点击按钮就能生成提示词修饰部分,网址: OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便您快速可视化生成自己的绘画提示词,网址: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器,网址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器,网址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney,网址: OpenArt:AI 人工智能图像生成器,网址: img2prompt:根据图片提取 Prompt,网址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用,网址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板,网址: 提示词语法: 根据自己想画的内容写出提示词,多个提示词之间使用英文半角符号。 一般而言,概念性的、大范围的、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。大致顺序如:。 不过在模型中,每个词语本身自带的权重可能有所不同,如果模型训练集中较多地出现某种关键词,我们在提示词中只输入一个词就能极大地影响画面,反之如果模型训练集中较少地出现某种关键词,我们在提示词中可能输入很多个相关词汇都对画面的影响效果有限。提示词的顺序很重要,越靠后的权重越低。 关键词最好具有特异性,措辞越不抽象越好,尽可能避免留下解释空间的措辞。 可以使用括号人工修改提示词的权重,方法如:字符。 画小二:Prompt 提示词关键词整理(双语版): 视角_:Select/Deselect All_true、LowAngle(仰视) 介质_:abstract expressionist art style(抽象表现主义艺术风格) 镜头_:superresolution microscopy(超分辨率显微镜) 灯光_:ambient lighting(环境照明) 颜色_:white(白色的) 描述_:classical realism(古典现实主义) 艺术家_:抽象主义 19401950、Henri Matisse(亨利·马蒂斯) 电影_:2001 A Space Odyssey(2001 太空漫游) 游戏_:Age of Empires(帝国时代) 其他:doodle(涂鸦)、vacuum tube bulb(真空管灯泡)、polka dot color(圆点颜色)、microsoft paint(微软画图)
2025-04-12
我应该如何开始0-1学习AI绘画?当前最好用的工具是什么?
以下是一些关于 0 1 学习 AI 绘画的建议和当前好用的工具: 您可以通过观看相关视频教程来入门,比如: “10 分钟教会你如何手把手撰写提示语,全网最细 ChatGPT 对话指南,保姆级教程!” ,视频使用到的 AI 工具包括 AI 提示语,平台链接: 。 “零基础 AI 绘画入门,Midjourney、Stable Diffusion,小白速成,一站式使用和最强入门教程” ,视频使用到的 AI 工具包括 AI 提示语,一个无需魔法上网的 AI 绘画工具,平台链接: 。 目前,Midjourney 和 Stable Diffusion 是比较受欢迎的 AI 绘画工具。
2025-04-10
入门:Ai绘画
以下是为您提供的 AI 绘画入门相关的资源和教程: 在“通往 AGI 之路介绍.pdf”中,有关于 AI 绘画入门的部分,包括产品工具与案例实战,开箱即用。 以下是一些 B 站的视频教程链接: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 还有 SD 新手从 0 入门的 AI 绘画教程,包括以下章节: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,你的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa|Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教你玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet! 您可以通过以上资源进行学习,祝您在 AI 绘画领域学有所成!
2025-04-10
AI绘画学习
以下是关于 AI 绘画学习的相关内容: 二师兄的 AI 绘画学习经历: 二师兄来自上海,房地产行业从业二十年,计算机零基础。 2024 年 2 月,在七彩虹售后群老哥的分享下,要了 SD 秋叶安装包,下载教学视频,迈出 AI 学习第一步。 3 月,啃完 SD 的所有教程,开始炼丹,但因图片数据集质量一般,lora 仅供自嗨。 4 月,与小伙伴探讨 AI 变现途径,尝试相关项目,过程中练了一些绘本风格的丹。 5 月,因工作变动,开启了长达五个月无硬件支持的 AI 学习之路,加入 Prompt battle 社群,开始 Midjourney 的学习。 AI 绘画助手: 是一位专业且贴心的 AI 绘画学习导师。 能为新手小白和进阶爱好者提供优质实用的指导。 能用通俗易懂的语言讲解复杂的神经网络、生成对抗网络等知识。 熟悉市面上流行的 AI 绘画工具,如 DALLE、MidJourney、Stable Diffusion 等,并介绍其使用步骤和独特之处。 擅长风格迁移技术、生成对抗网络在图像生成和编辑中的应用,以及获取高分辨率精美图像的方法。 拥有丰富实战案例经验,能为学习者答疑解惑并规划学习路径。 Nenly 的 Stable Diffusion 零基础入门课学习资料汇总: 4 月份发布零基础入门课,超 100 万朋友跟随学习。 编辑配套学习文档作为后备“知识库”,基本内容包括随堂素材、生成信息、内容修订。 提供安装攻略和素材下载的相关指导。 希望以上内容对您学习 AI 绘画有所帮助。
2025-04-10
风格化mj提示词
以下是关于 Midjourney 风格化提示词的相关内容: 仿照 GPTs 里的 MJ prompt 改的提示词可用于 coze 或其他国内的 agent。MJ 对节点无要求,画插图可不切节点,不挑模型,提示词可让 agent 补全润色。例如:“一个巨大鲸鱼头部的特写,鲸鱼的眼睛显示疲惫的神情,一个小女孩站在鲸鱼的旁边抚摸鲸鱼的脸,小女孩占画面比例很小,体现鲸鱼的巨大,吉卜力工作室风格”的提示词为“A closeup of a huge whale's head with its tired eyes. A little girl in red dress stands beside the whale, gently touching its face. The girl takes up a small portion of the frame, emphasizing the whale's enormity. Created Using: soft colors, gentle lighting, wideangle lens, Ghibli Studio style ar 16:9 style raw niji 6”。 Midjourney V6 更新风格参考命令 2.0“sref”,常见问题如想要的新图像和 sref 图像差异大时,MJ 给出了三种办法: 修改提示:语义细节太多时,编写提示用可取细节替换不需要的;风格不够时,修改提示使其更符合追求的风格。 更改“sw”值:语义细节太多时,将“sw”从默认值 100 降低;风格不够时,将“sw”从默认值 100 提高。 使用小权重强调或弱化不需要的画布元素。 参数总览与举例: “No 否定提示”:在提示词末尾加上“no”可让画面中不出现某些内容,如“no plants”表示图像中不出现植物。 “Quality 生成质量”:在提示词后加上“quality”或“q”参数可更改生成图像花费时间和质量,高质量需更长处理时间和更多 GPU 分钟数。 “Seeds 种子值”:MJ 依靠噪点团起点“Seed”创建视觉噪音场生成初始图像,每个图像种子值随机生成,可指定,v4 模型中相同种子值和提示词产生相同图像结果,可用于生成连贯一致的人物形象或场景。 “Stylize 风格化”:使用 stylize 参数可让 Midjourney 生成更具艺术色彩、构图和形式的图像,低风格化值生成的图像与提示密切相关但艺术性较差,高风格化值产生的图像艺术性强但与提示关联性少,AI 自由发挥空间大。
2025-04-11
有没有那种可以模仿抖音百万博主爆款文案的写作风格以及写作模板的AI
以下是一些关于模仿抖音百万博主爆款文案写作风格和模板的 AI 相关内容: 1. 画小二:Coze 工作流提供了一系列针对抖音热门视频转小红书图文的配置,包括整体结构图、各模块参数配置(如开始模块、Get_Video 模块、LinkReaderPlugin 模块、标题大模型、内容大模型、图片 Prompt 大模型、文生图 ImageToolPro 模块等)的详细说明。同时,在小红书标题和正文写作方面,具备多种技能,如采用二极管标题法创作吸引人的标题,产出口语化、简短且含适当 emoji 表情和 tag 标签的 200 字左右正文。 2. 夙愿:介绍了使用 GPT 模仿创作内容的万能思路,特别是在 Prompt 编写中的数据清洗部分。指出对标博主的文案模板化,数据清洗有人工和自动两种方法,推荐使用 GPT4 的数据分析器进行自动清洗。 3. AIIP 共学模版自媒体全域运营:包含对标笔记的详细信息,如标题、作者、详情、账号、主页、封面、视频、文案等。以“Deepseek+即梦,包装设计步骤来啦”为例,介绍了利用 Deepseek 和即梦进行设计的步骤,并表示希望对用户有帮助。
2025-04-11
文章风格提取
以下是关于文章风格提取的相关内容: 该提示词用于抽取不同风格文章的核心要素,抽取到的字段可作为 prompt,结合指定主题进行风格迁移。整体创作思路见文末 PDF。 具体使用方法为:拷贝文章风格提取提示词,输入给任意大模型,随后提供要抽取的文本。 已抽取的一些风格参考包括万维钢风格、史铁生《我与地坛》文风、李娟《我的阿勒泰》文风、许倬云《说中国》文风、鲁迅《狂人日记》文风、王小波《万寿寺》文风、飞书多维表格工作流自动化抽取等。 使用 DeepSeek V3 进行实验时,智能体地址为 https://www.coze.cn/s/VM9pUn9HdmA/ 。初级使用方法是输入公众号文章标题或内容,智能体会自动提取相关信息,默认风格是“炫彩”。高级使用方法需按照要求输入几个要素,如标题、副标题、分享封面、标签、风格等。
2025-04-11
你是否可以通过照片生成乐高风格人像
可以通过照片生成乐高风格人像。例如,可以使用相关的工具和技术,像在一些图像生成软件中,通过输入照片并设置相关的风格参数,如选择乐高风格,来实现生成。同时,在生成过程中可以像指挥设计师一样,与工具进行反复交流,对不满意的地方进行修改调整。广义上的像素艺术还包括立体像素艺术(类似乐高那种),相关的咒语关键词如“Pixel art”,生成思路可以是一家像素艺术风格的餐厅等。但需要注意的是,某些工具可能无法创建真正的纯净矢量图像的像素艺术,只是将图像“像素化”的像素艺术。
2025-04-11
扣子如何改变回复的语言风格
要改变回复的语言风格,可以参考以下方法: 1. 对于风格类的 Bot,提示词中的 Fewshot 对输出风格影响较大,可先找预期相关人的风格示例并修改。 2. 在 Examples 里使用特定开头的词,如“Fword”,开头字符会显著影响输出内容。 3. 加星号的部分代表加粗,根据自注意力机制可提升提示词中的关键词效果。 4. 能力方面可使用自带的 Bing 搜索和图片识别,根据需求选择,如避免 Webpilot 以免语气变温和。 5. 可根据需求决定是否加入绘画功能。 6. 防护词可参考,但没有完美的防御提示词。 7. 回复风格可来自自己的群聊机器人的风格嫁接。 8. 最后加入一些小 Tips 进一步提升个性化效果。 在场景方面,可以问 Bot 对内容的看法,或让其帮忙分析事情以获得更接地气的表述。 另外,编写提示时: 简单任务场景: 设定人物,描述 Bot 所扮演的角色或职责、回复风格。 描述功能和工作流程,约定 Bot 在不同场景下的回答方式,强调调用工具以保证回复准确性,也可为 Bot 提供回复格式示例。 指示 Bot 在指定范围内回答。 复杂任务场景:推荐使用结构化格式编写提示,扣子支持将 Bot 的提示自动优化成结构化内容,可直接使用或修改。
2025-04-09
吉卜力风格的生成是哪个ai
以下 AI 工具可以生成吉卜力风格的图像: Midjourney:仿照 GPTs 里的 MJ prompt 改了一版提示词,可以用在 coze 或者其他国内的 agent 里。不是很挑模型,基本上都可以用。方便的地方在于如果提示词懒得写全,可以让 agent 直接帮助补全润色,黏贴就可以。例如生成一个巨大鲸鱼头部的特写,鲸鱼的眼睛显示疲惫的神情,一个小女孩站在鲸鱼的旁边抚摸鲸鱼的脸,小女孩占画面比例很小,体现鲸鱼的巨大,吉卜力工作室风格的提示词为:A closeup of a huge whale's head with its tired eyes. A little girl in red dress stands beside the whale, gently touching its face. The girl takes up a small portion of the frame, emphasizing the whale's enormity. Created Using: soft colors, gentle lighting, wideangle lens, Ghibli Studio style ar 16:9 style raw niji 6(画面需要改成了 niji) Sora:生成过左半部分为超现实主义风格,细腻刻画皮肤纹理与光影变化,右半部分为吉卜力动画风格,柔和笔触呈现幻想世界魅力的震撼图像。
2025-04-08
自动化控制电脑
以下是关于自动化控制电脑的相关信息: Google 正在开发名为“Project Jarvis”的 AI 项目,预计年底亮相。该项目旨在实现 AI 自动化操作 Chrome 浏览器中的任务,借助升级版 Gemini 2.0。“Jarvis”作为 Chrome 扩展短暂曝光,可作为上网伴侣,帮助用户完成自动化任务,通过截图分析屏幕内容,使用 Gemini 2.0 模型决定执行操作,例如预订餐厅或下单,预计将在 Gemini 2.0 发布后上线,可能在下个月。 目前没有更多关于自动化控制电脑的其他详细内容。
2025-04-10
我想学习ai视频ai生图的相关技能,并且我不想速成,我想了解其中的底层原理以便可以更好的控制生成的内容,我应该如何学习
以下是关于学习 AI 视频和生图相关技能的一些建议: 一、基础概念 1. 模型 Checkpoint:生图必需的基础模型,任何生图操作必须选定一个才能开始。 Lora:低阶自适应模型,可视为 Checkpoint 的小插件,用于精细控制面部、材质、物品等细节。 VAE:编码器,功能类似于滤镜,可调整生图的饱和度,一般选择 840000 这个。 2. 提示词 Prompt 提示词:想要 AI 生成的内容,需要花费功夫学习,可从照抄别人开始。 负向提示词 Negative Prompt:想要 AI 避免产生的内容,同样需要学习,可从照抄开始。 3. 其他概念 ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 ADetailer:面部修复插件,用于治愈脸部崩坏,是高阶技能。 二、参数设置 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,出图效果理论上更好,但耗时越长,且并非越多越好。 2. 尺寸:图片生成的尺寸大小,需适中选择,太小生成内容有限,太大 AI 可能放飞自我。 3. 生成批次和每批数量:决定重复生成图的批次和每批次同时生成的图片数量。 4. 提示词引导系数:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 5. 随机数种子:固定后可对图片进行“控制变量”操作,首次生成图时无需关注。 6. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 在学习过程中,您可以先从熟悉基础模型、提示词和常见参数设置入手,通过实践和参考他人的经验不断积累知识,逐步掌握更高级的技能和工具。
2025-03-24
基于PLC的智能仓储控制系统设计
很抱歉,目前知识库中没有关于“基于 PLC 的智能仓储控制系统设计”的相关内容。但一般来说,设计这样一个系统需要考虑以下几个方面: 1. 需求分析:明确仓储系统的功能要求、存储容量、货物类型和操作流程等。 2. PLC 选型:根据系统规模和控制要求选择合适的 PLC 型号。 3. 传感器和执行器配置:选择合适的传感器来检测货物位置、状态等信息,以及确定执行器如电机、气缸等的类型和数量。 4. 控制程序编写:使用相应的编程软件编写 PLC 控制程序,实现货物的入库、出库、存储位置管理等功能。 5. 人机界面设计:提供直观、易于操作的人机界面,方便操作人员监控和控制系统。 6. 系统调试与优化:对设计好的系统进行调试,优化控制参数,确保系统稳定可靠运行。 希望以上这些通用的思路能对您有所帮助,如果您需要更详细准确的信息,建议查阅相关的专业书籍和技术资料。
2025-03-12
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05