「AGIへの道」飛書ナレッジベースへ直行 →

如何用AI按照描述制作一张图片

回答

以下是关于如何用 AI 按照描述制作一张图片的相关内容:

一、关键词和主题描述

  1. 图片内容通常分为二维插画和三维立体两种表现形式。
  2. 描述场景、故事、元素、物体或人物细节时,要清晰明确。对于场景中的人物,应独立描述,避免长串文字,以便 AI 识别。
  3. 大场景中多个角色的细节较难通过关键词生成。

二、设计风格

  1. 设计师难以直接表达设计风格时,可参考风格类关键词或垫图/喂图,让 AI 结合主题描述生成相应风格的图片。
  2. 某些材质的关键词运用有较多门道,需针对特定风格进行“咒语测试”。

三、使用 Midjourney 生成图片

  1. 图片描述可理解为以图生图,将设计参考图上传到 Midjourney 中,通过“参考图链接+文本描述”的方式生成图像。
  2. 例如生成带有交互流程的 UI 界面图,先上传素材图,再用“参考图链接+node UI”等文字提示生成类似设计图,还可通过调整文字提示获得不同效果,如纯正面、扁平、手绘、黑白等风格。
  3. 生成不同比例的图,需在文字描述中加入特定参数,如“--aspect”或“--ar”。
  4. Midjourney 还可生成设计组件,探索多种设计风格的可能性,如扁平组件系统,关键词为“UI kit,flat design,outline,--ar 16:9”。

四、AI 生成图片的著作权

  1. 如 Stable Diffusion 模型根据文本指令生成图片,其生成的样子取决于使用者输入的提示词,非排列组合工作模式下难有相同图片。
  2. 人工智能无自由意志,使用者通过增删提示词、修改参数得出不同图片并选定,体现使用者的创作,生成的具有独创性和智力投入的图片受著作权保护。
  3. 相关法律适用包括《中华人民共和国著作权法》第三条和《中华人民共和国著作权法实施条例》第四条。案例中人工智能软件生成的图片著作权由使用者享有。
AIモデルによって生成されたコンテンツであり、慎重に確認してください(提供元: aily)

参照

进阶技巧和关键词大全总结

这个周末尝试了很多种风格的AI出图,一般图片内容我们会分为二维插画以及三维立体两种主要表现形式。为了生成自己想要的图,上面说的3个结构确实可以帮我们大致输出想要的图片:1.1.主题描述:可以描述一个场景和故事以及其组成的元素、一个物体或者人物的细节、搭配。比如一个动物园,里面有老虎、狮子、长颈鹿、大树、围栏等等或者一个小女在森林里搭帐篷,她穿着红色的裙子以及戴着白色的帽子,但是有时候AI不一定能识别每一个描述的元素,如果要描述一个场景中的人物,大家记得进行独立描述,不要用一长串文字去表达,AI会识别不到,比如一个穿着红色盔甲的男孩站在山顶,那么我们最好把他拆分以下:一个男孩、穿着红色盔甲、站在山顶,这样会更加接近我们想要的场景。但是一个大场景中有多个角色的细节就不太容易通过关键词去生成了。1.2.设计风格:设计风格其实很多设计师没有办法直接表达出来,所以我们在这个步骤会去找一些风格类的关键词参考或者是你找到一张想要的风格的图片,放进去,这种我们就称之为垫图/喂图,让AI根据我们给出的图片风格,结合我们的主题描述生成该风格的图片。还有我研究了一下玻璃、透明塑料、霓虹色彩以及一些透明、反射等材质的关键词,比如你想让一个物体表面透明,但是不要把物体里面的机械结构体现出来,可能需要加一些[设计师](https://www.uisdc.com/tag/%e8%ae%be%e8%ae%a1%e5%b8%88)风格,单纯的控制材质很难达到要求,因为系统判断你表面透明了肯定能看到里面的结构,但是有了结构的话物体就会很复杂,不高级。所以这里面关键词的道道非常多,目前也只能通过大家针对某一种风格单独去进行“咒语测试”。未加风格只描述材质

如何用Midjourney生成B端产品页面?收下这份AI关键词总结!

Midjourney中的图片描述可以理解为以图生图。把找到的设计参考图上传到Midjourney中,得到一个专属的链接,再使用「参考图链接+文本描述」的方式生成图像。使用方法例如我想得到一个带有交互流程的UI界面图,先把找好的素材图上传到Midjourney中。在Midjourney中复制参考图的链接再加上文字提示:「参考图链接+node UI」,就能得到和参考图很类似的设计图。如果想要纯正面、扁平效果的设计流程图,可以继续调整文字提示:「参考图链接+flat UI,node UI,frontal」如果想要手绘风格、黑白风格的交互设计图,在文字提示中加入:「参考图链接+node UI,drawing style,frontal,black and white,flat UI,2D,no shadow」加入参数Midjourney生成的图默认是正方形,如果想得到其他比例的图,需要在文字描述中加入特定的参数来做到这一点:「--aspect」或「--ar」比例为9:16的设计图,使用提示:「参考图链接+node UI,black and white--ar 9:16」或者16:9的图「参考图链接+node UI,--ar 16:9」组件设计Midjourney的作用不同于设计软件,利用AI能在几秒钟内得到很有创造力的图像,这些设计图能为后面的设计提供更多灵感。除了生成整张的设计图,还可以扩宽思路,利用AI输出多种风格的设计组件,探索更多设计风格的可能性。扁平组件系统关键词:「UI kit,flat design,outline,--ar 16:9」

全国首例AI生成图片著作权案例解读:探索AI作品知识产权保护之路

1.Stable Diffusion模型可以根据文本指令,利用文本中包含的语义信息与图片中包含的像素之间的对应关系,生产与文本信息匹配的图片,并不是通过搜索引擎调用已有的现成图片,也不是将软件设计者预设的各种要素进行排列组合。说明其生成的图片是什么样子完全取决于使用者输入什么样的提示词,在非排列组合的工作模式下难以出现完全相同的两张输出图片。它就类似于画笔,仅负责提供线条、色彩,而要构造出一幅什么样的图画取决于使用者自己的设计。2.人工智能并不具备自由意志。也就是说,利用人工智能时,其并不具有独自优化的能力,李某根据自己的审美个性,通过增删提示词、修改相关参数,得出了不同的图片,最后选定,完全体现出本质上是李某在利用这个工具创作,在投入自己的智力以及独创思想。就像人们使用照相机拍摄,为了排出漂亮的照片会调节参数、选取角度光线等,体现个人对作品的创作理念。案例中法官承认这样依靠使用者的输出设计生成的图片属于美术作品,具有独创性和智力投入,受到著作权的保护,达到了鼓励创作的目的。在当下技术背景与现实下,给艺术创作提供了有力的支持以及新的创作思路。利用新兴智能工具,把自己的独创性思想转化为现实作品,极大地节省了创作成本。法律适用:《中华人民共和国著作权法》第三条:本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。《中华人民共和国著作权法实施条例》第四条:著作权法和本条例中下列作品的含义:(八)美术作品,是指绘画、书法、雕塑等以线条、色彩或者其他方式构成的有审美意义的平面或者立体的造型艺术作品。(2)AI软件使用者享有生成图片的著作权案例中该人工智能软件生成的图片应由谁来享有该图片的著作权,谁是它法律意义上的作者呢?

他の質問
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
有没有能根据描述,生成对应的word模板的ai
目前有一些可以根据描述生成特定内容的 AI 应用和方法。例如: 在法律领域,您可以提供【案情描述】,按照给定的法律意见书模板生成法律意见书。例如针对商业贿赂等刑事案件,模拟不同辩护策略下的量刑结果,对比并推荐最佳辩护策略,或者为商业合同纠纷案件设计诉讼策略等。 在 AI 视频生成方面,有结构化的提示词模板,包括镜头语言(景别、运动、节奏等)、主体强化(动态描述、反常组合等)、细节层次(近景、中景、远景等)、背景氛围(超现实天气、空间异常等),以及增强电影感的技巧(加入时间变化、强调物理规则、设计视觉焦点转移等)。 一泽 Eze 提出的样例驱动的渐进式引导法,可利用 AI 高效设计提示词生成预期内容。先评估样例,与 AI 对话让其理解需求,提炼初始模板,通过多轮反馈直至达到预期,再用例测试看 AI 是否真正理解。 但需要注意的是,不同的场景和需求可能需要对提示词和模板进行针对性的调整和优化,以获得更符合期望的 word 模板。
2025-04-18
用通俗易懂的动画描述人工智能工作原理
人工智能的工作原理可以通过以下动画来描述: 在一个动画场景中,首先有一个传统工作流的部分,就像精心搭建的积木城堡,每一块积木的位置和形状都被精确设计和控制,这代表着传统工作流的可控性和高成本、慢速度。 然后是 AI 工作流的部分。想象一下,有一团混乱的色彩在飞舞,这团色彩代表着随机和不可控。但在这混乱中,有一种力量在尝试引导和塑造,就像在狂风中努力抓住风筝线一样,这就是在随机性中寻找可控性。 比如在一个生成音频与视频同步的例子中,动画展示了一个系统。首先,系统将视频输入编码成压缩的表示形式,就像把一大包东西压缩成一个小包裹。然后,扩散模型从随机噪声中不断改进音频,就像在混沌中逐渐塑造出清晰的声音。这个过程受到视觉输入和自然语言提示的引导,最终生成与提示紧密配合的同步逼真音频。最后,音频输出被解码,变成音频波形,并与视频数据完美结合。 总的来说,传统工作流在可控中寻找创新的随机,而 AI 工作流更多是在随机中寻找可控,两者各有优劣,结合起来能创造出更出色的成果。
2025-04-14
我想生成一个爆款小说描述词
以下是为您生成爆款小说描述词的一些建议: 1. 遵循“形容词+主语+环境+行为+构图+参考风格+渲染程度+后缀”的公式。例如,对人物的描述要包括情绪、发型、穿着等细节,对环境的描写要涵盖天气、地理位置等要素,还要对摄影、灯光和成像质量进行描述,并规定绘图比例。 2. 对于写小说本身,提示词相对简单。但要注意搜索相关思路,用上下文告诉模型需求中的概念含义,并将搜索结果结构化,方便模型理解。 3. 当为儿童创作简单易懂的绘画描述时,要符合逻辑且简单直白,有镜头描述,不增加额外元素。若主体为中国相关,要在描述中提及;未明确古代则默认为现代场景和人物。描述人物要涵盖多个维度,描述场景也要考虑多个方面,且要强调主体。
2025-04-08
现在我想通过一段描述生成一段视频,那么我现在用哪一个?工具是最好的呢。我想说的是现在因为在国内访问不了国外的网站,那么国内有没有哪些应用比较功能强大的是视频生成工具。
以下是一些在国内可用且功能强大的视频生成工具: 1. VIGGLE:可以直接通过文字描述让任何静态图动起来,能做各种动作,如跳舞等。其核心技术基于 JST1 模型,能理解真实世界的物理运动原理,生成的视频很真实,还能直接文字生成视频,进行各种角色混合和动作替换。核心功能包括可控制的视频生成、基于物理的动画、3D 角色和场景创建。 2. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 3. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。 4. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 5. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 6. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 此外,还有以下根据视频脚本生成短视频的工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户轻松创建和编辑高质量视频,用户提供文本描述即可生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,您可以根据自己的具体情况进行选择。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-03-23
现在我想通过一段描述生成一段视频,那么我现在用哪一个?工具是最好的呢。
以下是一些可用于根据文字描述生成视频的工具: 1. Adobe Firefly:其“生成视频”(测试版)能将书面描述转换为视频剪辑。您可以使用文本提示定义内容、情感和设置,包括摄像机角度,还能合并图像为视频生成提供视觉提示。操作步骤为:在 Adobe Firefly 网站上选择“生成视频”,在 Generate video 页面输入文本提示,也可在图像部分上传图像用于第一帧并提供方向参考,在 General settings 部分确定 aspect ratio 和 frames per second。 2. VIGGLE:其核心技术基于 JST1 模型,能理解真实世界的物理运动原理,生成的视频很真实。核心功能包括可控制的视频生成、基于物理的动画、3D 角色和场景创建。用户可通过文字描述指定角色动作和场景细节来生成视频。 3. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 4. SVD:如果熟悉 Stable Diffusion,可安装此最新插件,在图片基础上直接生成视频,是由 Stability AI 开源的 video model。 5. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 6. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 7. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 以上工具适用于不同的使用场景和需求,您可以根据自身具体情况选择。更多文生视频的网站可查看:。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-23
即梦提示词的描述结构框架是什么
即梦提示词的描述结构框架主要包括以下方面: 1. 提示词基础架构: 主体/场景 场景描述 环境描述 艺术风格/媒介 调整句式和语序,避免主体物过多/复杂、主体物分散的句式描述。 避免模糊的术语表达,尽可能准确。 使用更加流畅准确的口语化措辞,避免过度文学化的叙述。 丰富、准确和完整的描述才能生成特定艺术风格、满足需求的视频。 2. 提示词与画面联想程度的说明: 以单帧图像为例介绍提示词与画面联想的关系。 基础词示例:玻璃桌上的咖啡杯,杯子外面写着单词 LOVE。 适度联想扩充:花园里(具体的位置描述)的透明(材质描述)玻璃桌上的咖啡杯,杯子外面写着单词 LOVE,周围满是盛开的鲜花(具体的位置描述/环境描述),和煦的阳光洒满整个花园(环境描述),Claude Monet(艺术家风格),印象派风格(艺术流派风格)。 联想关键点: 具体详实的位置描述/环境描述:笼统来讲就是在进行构图,可以帮助构建画面的基本呈现效果。 艺术风格描述:进一步提升效果和氛围,统一画面风格。 此外,结构化提示词框架还包括: 1. 标识符:如 、<> 等符号(、 也是),依次标识标题、变量,控制内容层级,用于标识层次结构。 2. 属性词:如 Role、Profile、Initialization 等等,包含语义,是对模块下内容的总结和提示,用于标识语义结构。 您可以把结构化提示词框架当做提示词的八股文标准,在不了解如何开始进行提示词设计的时候,当做一个通用的标准格式来使用。结构化提示词的概念在行业内应用广泛且成熟度较高,您可以在即刻、知识星球、知乎等很多地方看到优秀的类型案例。例如以下案例: 关于结构化提示词的理论感兴趣想要进一步了解更多信息的朋友,推荐大家阅读李继刚和云中江树的详细理论原文: 结构化语法提示词示例:可以在 AGI 的下列板块看到非常多优秀的结构化 Prompt 示例。
2025-03-23
如果制作智能体
制作智能体的方法如下: Logo 设计智能体: 江树提供了提示词模板,使用方法为将品牌、行业、理念等信息替换成自己的,复制到 GPT4o 中,即可瞬间呈现高质量 Logo。 若想进一步提升设计效果,可使用江树设计的 Logo 智能体生成更精准的提示词,访问链接 https://chatgpt.com/g/g67f4bf538f9081918073af13ba5c2cfelogodesigner ,生成的提示词可直接复制到 GPT4o 中,并借助最新的 AI 绘图能力达到专业设计水准。 Coze 智能体(字段捷径)获取笔记+评论信息: 第一步,创建一个智能体,使用单 Agent 对话流模式。 第二步,编排对话流,点击创建新的对话流(记得要和智能体关联)。 第三步,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT。 第四步,使用代码节点进行数据处理,注意代码节点输出的配置格式。 第五步,测试。找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面,同样方式测试,确保对话流执行成功。 第六步,发布。点发布后只选择多维表格,然后点配置。输出类型选文本,输入类型选择字段选择器。完善上架信息,填个表格,选发布范围时可选仅自己可用以加快审核。提交上架信息后,返回配置界面显示已完成即可完成最终提交。 其他智能体: 如创建一个输入人设等信息的智能体,放上已创建的工作流。但注意工作流中若有消耗个人资源的部分,如【所有视频片段拼接】节点使用的插件 api_token 填的是个人 token,不能直接发布。可将 api_token 作为工作流最开始的输入,用户购买后输入 api_token 再发布。
2025-04-14
最好的制作ppt的大模型是哪个
目前在制作 PPT 方面,没有绝对的“最好”的大模型。例如,Claude 3.7 在将 PDF 转换为 HTML 方面效果较好,但国内用户使用不太方便,可改用 DeepSeekR1 实现。某上市公司使用某互联网大厂研发的千亿 AI 大模型产品声称能 3 分钟制作 PPT,但接入公司系统时出现“一连接就死机”的情况。同时需要注意的是,过去几个月内国内的 AI 大模型在某些方面大同小异,且大部分远未达到可商用化程度。
2025-04-13
AI 制作短视频的方法
以下是关于 AI 制作短视频的方法: 1. 确定视频风格和主题:使用 Fanbook 中的 niji6 模型及sref 指令,加上每张图片的提示词来确定视频风格的一致性。比如根据丝绸之路的古风主题确定风格和时长,然后设定故事主线和镜头。 2. 创作故事剧本和分镜头:参考分镜头的基本格式要求,按照场景、地点、镜号、画面描述、台词、音效等维度进行填充。尽可能精简人物对话,提炼重点。当缺乏画面灵感时,可以借助语言大模型,如 Kimi 来获取帮助。 3. 生成角色和场景:根据剧本中的人物性格特征和时代背景,描绘人物的提示词、上传角色参考图cref,并将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。场景提示词从剧本中的画面描述进行提取,采用文生图模式,画面风格选择提前准备好的风格图进行垫图,上传角色图、场景背景进行参考生成,提高人物和场景的融合度。 4. 让图片动起来:使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择。 此外,根据视频脚本生成短视频的 AI 工具有多种,适用于不同的应用场景和需求,包括: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-13
我想通过AI制作H5页面
以下是关于通过 AI 制作 H5 页面的相关信息: AI+高德 MCP 可以帮助您制作 H5 页面。目前,该工具已经有 1000 多人进行制作,还有几十位同学已经发出了自己的产品。 这次更新带来了三个超级实用的功能: 1. 24 种超酷的 H5 风格可供选择,如同选衣服一样简单。 2. 具备一键导航功能,无需复制粘贴地址。 3. 数据更真实,不用担心 AI 瞎编。 使用这些功能,10 分钟就能全部搞定。 在上期文章《》中,详细讲解了获取高德地图的密钥、cursor 如何设置 MCP、询问高德 MCP 生成旅游信息以及美化页面展示等内容。如果您还未阅读,可以点击查看。 另外,使用 Cursor 制作主页的步骤如下: 在搞定一个简单小游戏后,可以做个人介绍网站。假设要做一个《全 AI 自动驾驶的火星登陆飞船》项目,首先要有初步的项目介绍,然后新建一个相关文件夹并打开,在 AI 对话框中输入介绍内容,等待 AI 制作并加入修改意见。 若想让别人看到您的作品预览,可以通过网站 https://www.yourware.so/ 将项目文件夹整体上传,生成临时浏览链接,在不需要域名和服务器的情况下让外部看到作品。如果发现 cursor 卡顿,注意是否需要在终端区或者对话区确认重要操作,可将左下角的 ask every time 修改为 auto run 实现全自动化。
2025-04-13
有没有免费制作数字人的网站?
以下是一些免费制作数字人的网站及使用方法: HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。上传后效果如图所示,My Avatar处显示上传的照片。点开大图后,点击Create with AI Studio,进入数字人制作。写上视频文案并选择配音音色,也可以自行上传音频。最后点击Submit,就可以得到一段数字人视频。 DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法:点击上面的网址,点击右上角的Create vedio。选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。配音时,可以选择提供文字选择音色,或者直接上传一段音频。最后,点击Generate vedio就可以生成一段视频。打开自己生成的视频,可以下载或者直接分享给朋友。 KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法:点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。点击开始创作,选择自定义照片。配音时,可以选择提供文字选择音色,或者直接上传一段音频。打开绿幕按钮,点击背景,可以添加背景图。最后,点击生成视频。 此外,在剪映中也可以生成数字人:在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象,比如“婉婉青春”。选择数字人形象时,软件会播放声音,可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。软件会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示渲染完成,可点击预览按钮查看效果。还可以为视频增加背景图片,删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频对齐。
2025-04-11
如何使用AI制作真人表情包?
以下是使用 AI 制作真人表情包的方法: 1. 使用 Gemini 2.0 Flash: 场景:表情包在社交媒体中是不可或缺的表达工具,但制作个性化表情包对许多人来说并不容易,有的工具可以生成根据某一个主体生成不同的表情,但是生成出来的图会多多少少改变原主体。 实用性:用户只需上传一张主体图片(例如一个小女孩的照片),通过简单的自然语言指令(如“让她开心大笑”),Gemini 就会自动生成相应的表情图片。 指令:“生成 XXX + XXX 的表情” 2. 使用 ChatGPT 4o: 输入提示词并加上最初的真人图片,例如:创建图片:一个戴着深蓝色蝴蝶结领结的柴犬,表情参考我上传的图片,3D 风格,毛绒绒质感,不要太逼真,比例为 1:1。如果对生成的第一个表情不满意,可以重新输入指令进行调整,如“让它看起来得意一点”。 一次生成九宫格表情包的方法:先收集很多自己喜欢的表情包,将每组拼图为 9 个,然后将先前做好的真人原图和一张九宫格拼图一起上传到 4o 对话框,输入相应指令,如:创建图片:参考图二的动作和道具制作表情包九宫格,每个图案都替换为图一为主角,保持风格为图一的质感,整整齐齐无留白排列,颜色明亮不偏黄,文字内容仔细核对不要出错。 另外,有的地方需要上传封面图,也可以由 4o 生成,先要求它做一个比例约 3:2 的。如果有个很喜欢的表情,使用九宫格出的效果不好,也可以单个一个个去生成,但比较费时间,且可能会受出图限制等待更久。最后将所有图片下载下来,挑选出需要的表情图片。
2025-04-11
可以增强图片清晰的的ai
以下是一些可以增强图片清晰度的 AI 工具: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 此外,PMRF 也是一种全新的图像修复算法,它具有以下特点: 擅长处理去噪、超分辨率、着色、盲图像恢复等任务,生成自然逼真的图像。 不仅提高图片清晰度,还确保图片看起来像真实世界中的图像。 能够应对复杂图像退化问题,修复细节丰富的面部图像或多重损坏的图片,效果优质。 详细介绍: 在线体验: 项目地址: 这些 AI 画质增强工具都具有不同的特点和功能,可以根据您的具体需求选择合适的工具进行使用。
2025-04-18
图片提取文字
以下是关于图片提取文字的相关信息: 大模型招投标文件关键数据提取方案:输入模块设计用于处理各种格式的文档输入,包括 PDF、Word、Excel、网页等,转换成可解析的结构化文本。多种文件格式支持,对于图片,可以借助 OCR 工具进行文本提取,如开放平台工具:。网页可以使用网页爬虫工具抓取网页中的文本和表格数据。 谷歌 Gemini 多模态提示词培训课:多模态技术可以从图像中提取文本,使从表情包或文档扫描中提取文本成为可能。还能理解图像或视频中发生的事情,识别物体、场景,甚至情绪。 0 基础手搓 AI 拍立得:实现工作流包括上传输入图片、理解图片信息并提取图片中的文本内容信息、场景提示词优化/图像风格化处理、返回文本/图像结果。零代码版本选择 Coze 平台,主要步骤包括上传图片将本地图片转换为在线 OSS 存储的 URL 以便调用,以及插件封装将图片理解大模型和图片 OCR 封装为工作流插件。
2025-04-15
图片变清晰
以下是关于图片变清晰的相关内容: 使用清影大模型: 输入一张图片和相应提示词,清影大模型可将图片转变为视频画面,也可只输入图片让模型自行发挥想象生成有故事的视频。 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将其变清晰。 提示词要简单清晰,可选择不写 prompt 让模型自行操控图片动起来,也可明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。 常见的 AI 画质增强工具: Magnific:https://magnific.ai/ ClipDrop:https://clipdrop.co/imageupscaler Image Upscaler:https://imageupscaler.com/ Krea:https://www.krea.ai/ 更多工具可查看网站的图像放大工具库:https://www.waytoagi.com/category/17 用 AI 给老照片上色并变清晰: 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。然后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-04-14
怎么让图片动起来
要让图片动起来,可以参考以下几种方法: 1. 使用即梦进行图生视频:只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据视频节奏选择,比如选择慢速。 2. 使用 Camera Motion: 上传图片:点击“Add Image”上传图片。 输入提示词:在“Prompt”中输入提示词。 设置运镜方向:选择想要的运镜方向,输入运镜值。 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成想要的任意值。 其它:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 生成视频:点击“create”,生成视频。 3. 对于复杂的图片,比如多人多活动的图: 图片分模块:把长图分多个模块。 抠出背景图:智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。 绿幕处理前景图:将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 前景图动态生成视频:用 AI 视频生成工具写入提示词让图片动起来,比如即梦、海螺、混元等。不停尝试抽卡。 生成视频去掉背景:用剪映把抽卡合格的视频放在去掉内容的背景图片,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。
2025-04-12
图片文字转文档
图片文字转文档可以通过以下方式实现: coze 插件中的 OCR 插件: 插件名称:OCR 插件分类:实用工具 API 参数:Image2text,图片的 url 地址必填 用途:包括文档数字化、数据录入、图像检索、自动翻译、文字提取、自动化流程、历史文献数字化等。例如将纸质文档转换为可编辑的电子文档,自动识别表单、票据等中的信息,通过识别图像中的文字进行搜索和分类,识别文字后进行翻译,从图像中提取有用的文字信息,集成到其他系统中实现自动化处理,保护和传承文化遗产。 插件的使用技巧:暂未提及。 调用指令:暂未提及。 PailidoAI 拍立得(开源代码): 逻辑:用户上传图片后,大模型根据所选场景生成相关的文字描述或解说文本。 核心:包括图片内容识别,大模型需要准确识别图片中的物体、场景、文字等信息;高质量文本生成,根据图片生成的文字不仅需要准确,还需符合专业领域的要求,保证文字的逻辑性、清晰性与可读性。 场景应用: 产品文档生成(电商/零售):企业可以利用该功能将商品的图片(如电器、服饰、化妆品等)上传到系统后,自动生成商品的详细描述、规格和卖点总结,提高电商平台和零售商的商品上架效率,减少人工编写文案的工作量。 社交媒体内容生成(品牌营销):企业可使用图片转文本功能,帮助生成社交媒体平台的营销文案。通过上传产品展示图片或品牌活动图片,模型可自动生成具有吸引力的宣传文案,直接用于社交媒体发布,提高营销效率。 法律文件自动生成(法律行业):法律行业可以使用图片转文本技术,自动提取合同、证据材料等图片中的文本信息,生成法律文件摘要,辅助律师快速进行案件分析。
2025-04-11
如何去除图片中的文字内容
以下是去除图片中文字内容的方法: 1. 图像预处理: 图像去噪:使用去噪算法(如高斯滤波、中值滤波)去除图像中的噪声。 图像增强:通过增强算法(如直方图均衡化、对比度增强)提升图像的清晰度和对比度。 2. 图像分割:使用图像分割算法将图片中的文字和背景分离。常用的分割算法包括阈值分割、边缘检测和基于区域的分割方法。 3. 文字检测:在分割后的图像中,使用文字检测算法(如基于深度学习的文本检测模型)识别出文字区域。 4. 文字识别:对检测到的文字区域进行文字识别,将文字内容转换为计算机可处理的文本数据。常用的文字识别技术包括基于深度学习的端到端文本识别模型和传统的 OCR(Optical Character Recognition)技术。 5. 后处理:根据需求进行后处理,如去除残余的噪点、填补文字区域的空白等。 6. 机器学习模型训练(可选):如有足够的数据,可以采用机器学习技术训练模型,通过学习样本中的文字特征来自动去除图片上的文字。 7. 优化算法:对整个处理流程进行优化,提高处理速度和准确度。可以采用并行计算、硬件加速等方法提升算法的效率。 8. 移动端集成:将设计好的算法和模型集成到移动应用程序中,以实现去除图片文字的功能。可以使用移动端开发框架(如 iOS 的 Core ML、Android 的 TensorFlow Lite)来实现模型的部署和调用。 此外,像 Gemini 2.0 Flash 等工具也可以通过自然语言指令来去除图片中的文字,指令如“去掉 XXX”。DALL·E 也能实现去掉图片中的错误文字等操作。
2025-04-11