Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

制作动画

Answer

以下是关于制作动画的一些方法和经验:

  • ComfyUI Flux 与 runway 制作绘画视频:
    • 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD 等。
    • 绘制的视频:在 runway 里面,使用提示词从空白页面开始逐行创建,并把生成的图片作为尾帧。
    • 草图上色:使用 flux 的 controlNet,depth 固定,controlNet 使用的是 Union 的版本,目前不建议权重调得太高,结束时间也是。
    • 生成上色后的视频。
    • 分享好玩的 flux lora 展示绘画过程,触发词:how2draw。
  • 大雷的制作经验:
    • 在时间和金钱的双重压力下,找到适合自己的制作捷径。AI 目前是辅助工具,帮忙搞定图和片,其他部分靠人。
    • 大致工作流程:大雍负责前期的内容构思和脚本编写,大雷主要负责图片、视频生成和视频剪辑。
    • Midjourney 提示词主要围绕皮克斯、迪士尼、3D 风格来写,例如:"a small white Chiense dragon,anthropomorphic,Smile with surprise,wearing a school uniform,looking at a blurry gift box in the foreground,super close-up shot,camera focus on his face,3D render,Unreal Engine,Pixar 3D style,blurry classroom scene,bright sunshine--ar 16:9--niji 6",重点是"a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style",尺寸比例 16:9,模型选择 niji 6,其他根据需求调整。
    • 动画主要用 runway,看中它的控制笔刷(在制作时还没有更新自动识别区域的笔刷,需手动选择范围)。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI Flux与runway制作绘画视频

这个是外国大佬@Ror_Fly的创意思路,很好的利用了runway的尾帧来制作动画,我也进行了实测,记录下来,关键的点,大家也可以发掘更多的玩法。[heading3]生成图片[content]提示词告诉flux,去生成一张技术草图,CAD提示词:eg:Flux短提示词,可以在上面提示词的里面提取[heading3]绘制的视频[content]在runway里面,使用提示词,告诉是从空白页面开始,逐行创建在runway里面,把生成的图片作为尾帧。[Gen-3 Alpha 1963070634,sketch drawing of a,ComfyUI_temp_lnmie_0,M 5.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/IsBRbeFi3oPoUGxYao9cwBcQn2d?allow_redirect=1)[heading3]草图上色[content]使用flux的controlNet,depth固定controlNet使用的是Union的版本,目前这个版本,不建议权重调的太高,结束时间也是。[heading3]生成上色后的视频[content][Gen-3 Alpha Turbo 766422618,A robot cat running,ComfyUI_temp_lnmie_0,M 5.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/RQBfbBGipoz4yNxpuZOcjc0Kn6c?allow_redirect=1)[heading3]how2draw Flux lora[content]再分享一个好玩的flux lora,用来展示绘画的过程。触发词:how2draw

大雷:2 天爆肝3 分半AI动画短片的制作复盘-踩过的坑与解决方法

在时间和金钱的双重压力下,我找到了一条适合我的制作捷径。(AI就是烧钱!开发的人烧钱!用的人也烧钱!)简单说,AI帮忙搞定图和片,其他的还得靠人。AI这玩意,目前还是个辅助工具。以下是我的大致工作流程。这次的视频制作,效率是王道,其他的对我来说太烧钱烧时间。具体我是怎么操作的呢?和视频相关的所有内容、资料,都记录在飞书文档里。按照我俩在字节的摸爬滚打经验,他曾经是编导,我是分镜,搞定故事大纲和脚本是分分钟的事,花时间的在后面的生成部分。分工上,大雍负责前期的内容构思和脚本编写;我主要负责图片、视频生成和视频剪辑。我的Midjourney提示词也没什么特别技巧,主要就是围绕皮克斯、迪士尼、3D风格来写。例如:"a small white Chiense dragon,anthropomorphic,Smile with surprise,wearing a school uniform,looking at a blurry gift box in the foreground,super close-up shot,camera focus on his face,3D render,Unreal Engine,Pixar 3D style,blurry classroom scene,bright sunshine--ar 16:9--niji 6"重点就是"a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style"尺寸比例16:9,模型选择niji 6。其他的根据需求调整即可。动画主要用的是Runway,因为看中它的控制笔刷。(笔刷控制示意,在我做的时候Runway还没有更新自动识别区域的笔刷,还得靠自己手动选择范围)

大雷:2 天爆肝3 分半AI动画短片的制作复盘-踩过的坑与解决方法

在时间和金钱的双重压力下,我找到了一条适合我的制作捷径。(AI就是烧钱!开发的人烧钱!用的人也烧钱!)简单说,AI帮忙搞定图和片,其他的还得靠人。AI这玩意,目前还是个辅助工具。以下是我的大致工作流程。这次的视频制作,效率是王道,其他的对我来说太烧钱烧时间。具体我是怎么操作的呢?和视频相关的所有内容、资料,都记录在飞书文档里。按照我俩在字节的摸爬滚打经验,他曾经是编导,我是分镜,搞定故事大纲和脚本是分分钟的事,花时间的在后面的生成部分。分工上,大雍负责前期的内容构思和脚本编写;我主要负责图片、视频生成和视频剪辑。我的Midjourney提示词也没什么特别技巧,主要就是围绕皮克斯、迪士尼、3D风格来写。例如:"a small white Chiense dragon,anthropomorphic,Smile with surprise,wearing a school uniform,looking at a blurry gift box in the foreground,super close-up shot,camera focus on his face,3D render,Unreal Engine,Pixar 3D style,blurry classroom scene,bright sunshine--ar 16:9--niji 6"重点就是"a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style"尺寸比例16:9,模型选择niji 6。其他的根据需求调整即可。动画主要用的是Runway,因为看中它的控制笔刷。(笔刷控制示意,在我做的时候Runway还没有更新自动识别区域的笔刷,还得靠自己手动选择范围)

Others are asking
纯AI打造的儿童绘本动画剧集《森林童话会》即将上线
很抱歉,目前没有关于纯 AI 打造的儿童绘本动画剧集《森林童话会》的更多详细信息。
2025-04-15
用通俗易懂的动画描述人工智能工作原理
人工智能的工作原理可以通过以下动画来描述: 在一个动画场景中,首先有一个传统工作流的部分,就像精心搭建的积木城堡,每一块积木的位置和形状都被精确设计和控制,这代表着传统工作流的可控性和高成本、慢速度。 然后是 AI 工作流的部分。想象一下,有一团混乱的色彩在飞舞,这团色彩代表着随机和不可控。但在这混乱中,有一种力量在尝试引导和塑造,就像在狂风中努力抓住风筝线一样,这就是在随机性中寻找可控性。 比如在一个生成音频与视频同步的例子中,动画展示了一个系统。首先,系统将视频输入编码成压缩的表示形式,就像把一大包东西压缩成一个小包裹。然后,扩散模型从随机噪声中不断改进音频,就像在混沌中逐渐塑造出清晰的声音。这个过程受到视觉输入和自然语言提示的引导,最终生成与提示紧密配合的同步逼真音频。最后,音频输出被解码,变成音频波形,并与视频数据完美结合。 总的来说,传统工作流在可控中寻找创新的随机,而 AI 工作流更多是在随机中寻找可控,两者各有优劣,结合起来能创造出更出色的成果。
2025-04-14
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
动画设计AI
以下是为您提供的有关动画设计 AI 的相关内容: 和 AI 一起做动画:作者介绍了几类工具与对应教程,制作了一个 AI 风格迁移视频,在短视频平台爆火。工具涉及 Runway Gen1、Stable Diffusion + EbSynth、Rerender、Warpfusion 等。作者为,原文发布时间 2023.07,入库时间 2023/10/18。 图片转动画|Ai 帮我 1 分钟做 32 个动画|AIGC:今天教大家用 Ai 把图片转动画的方法,用到的 Ai 工具是 ANIMATED DRAWINGS,作者为,入库时间 2023/10/26。 以下是一些相关的 AI 网站: ZMO.AI:只需单击一个按钮,即可从文本或图像生成令人惊叹的 AI 艺术、图像、动漫、逼真的照片。公司名为 ZMO,网站分类为图像设计,链接为,添加时间 2023/05/25。 稿定设计 AI:稿定 AI 是一款 AI 人工智能在线设计工具,简单易用。公司名为稿定,分类为图像设计、图像编辑、去除背景,链接为,添加时间 2023/05/25。
2025-04-11
coze怎么搭建矢量图动画
以下是搭建矢量图动画的 coze 步骤: 1. 创建工作流: 点击工作流后面的“➕”来添加一个工作流。 点击创建工作流。 给工作流起名字和描述,名字只能用字母、数字和下划线,描述清晰避免误会。 2. 初始化的工作流: 左边有各种插件和搭建 Agent 的工具,可通过点击加号或直接拖拽使用。插件一般有参数说明,之后只介绍需要使用的插件,其他可自行尝试。 初始化后会生成开始模块和结束模块,默认生成且有且只有一个,只能以开始模块启动,结束模块终结工作流。 可观看工作流的视频教程: ,注意视频中有个小 bug,使用 text2image 时最后的 prompt 参数设置错了,可自行调整。 3. 需求分析:主要需求是国内可直接使用且能批量生产,选用扣子搭建工作流。 批量生成句子:不同于手动搭建,一次性生成的句子都进行生成图片处理,建议一次不要生成太多,设置为一次生成五句。 句子提取:把生成的句子一个一个提取出来,针对每个句子画图。 图片生成:根据生成的句子,结合特有画风等描述绘图。 图片和句子结合:扣子工作流本身支持 Python 代码,但环境缺少画图、图片处理的包,可替换成搞定设计的方式处理图片,会 PS 脚本效果也不错。 4. 扣子使用链接分享: 试用链接分享:豆包使用链接未发布,扣子使用链接:https://www.coze.cn/s/iMCq73wp/ 。 效果展示:可自行查看。 5. 批量生产图片:可观看视频演示: 及效果展示。 总结:第一次用录视频方式展示,怕截图说不清楚,文字处理及批量放入 excel 文件操作可用 ai 辅助,有问题可留言。
2025-04-08
动画方面的AI
以下是关于动画方面的 AI 相关信息: AI 漫画 Anifusion: 网址:https://anifusion.ai/ ,Twitter 账号:https://x.com/anifusion_ai 功能: AI 文本生成漫画:输入描述性提示生成漫画页面或图像。 直观的布局工具:提供预设模板,可自定义漫画布局。 强大的画布编辑器:在浏览器中优化和完善生成的作品。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型实现不同风格和效果。 商业使用权:用户对创作作品拥有完整商业使用权。 使用案例: 独立漫画创作:帮助无绘画技能的艺术家实现故事创作。 快速原型设计:专业艺术家快速可视化故事概念和布局。 教育内容:为课程和演示创建视觉内容。 营销材料:制作动漫风格促销漫画或活动分镜脚本。 粉丝艺术和同人志:基于喜欢的作品创作衍生作品。 优点:非艺术家也能轻松创作漫画;基于浏览器,无需安装额外软件;快速迭代和原型设计能力;拥有创作的全部商业权利。 3 月 12 日 AI 资讯中的动画相关: 【AI 3D】 BlenderMCP:与 Claude AI 沟通,在 Blender 实现快速 3D 建模 MIDI:单幅图像到 3D 场景生成 Move AI:更新动作捕捉能力,提出 Gen 2 Spatial Motion 【AI 写作】 MMStoryAgent:AI 多模态故事生成系统 【AI 视频】 VACE:阿里推出一体化视频创作和编辑技术 VideoPainter:腾讯开源视频编辑技术 Wonder Dynamics:推出摄像机轨道(Camera Track)和清洁板(Clean Plate)功能 【其他】 OpenAI:为开发者推出一套 AI Agent 开发套件 R1Omni:阿里情感识别模型,通过视频识别情感 Luma AI:发布新的预训练范式 IMM,旨在突破算法瓶颈,提高生成预训练算法的性能 Manus:宣布与阿里通义千问团队达成战略合作 游戏中的生成式 AI 革命中的动画相关: 生成纹理:几个团队正在追求根据文本或图像提示轻松生成纹理的机会,包括 BariumAI(https://barium.ai/)、Ponzu(https://www.ponzu.gg/)和 ArmorLab(https://armorlab.org/)。 动画生成与处理:涉足从视频中捕捉动画及给现有动画应用滤镜的公司包括 Kinetix(https://www.kinetix.tech/)、DeepMotion(https://www.deepmotion.com/)、RADiCAL(https://getrad.co/)、Move Ai(https://www.move.ai/)和 Plask(https://plask.ai/)。
2025-03-21
如果制作智能体
制作智能体的方法如下: Logo 设计智能体: 江树提供了提示词模板,使用方法为将品牌、行业、理念等信息替换成自己的,复制到 GPT4o 中,即可瞬间呈现高质量 Logo。 若想进一步提升设计效果,可使用江树设计的 Logo 智能体生成更精准的提示词,访问链接 https://chatgpt.com/g/g67f4bf538f9081918073af13ba5c2cfelogodesigner ,生成的提示词可直接复制到 GPT4o 中,并借助最新的 AI 绘图能力达到专业设计水准。 Coze 智能体(字段捷径)获取笔记+评论信息: 第一步,创建一个智能体,使用单 Agent 对话流模式。 第二步,编排对话流,点击创建新的对话流(记得要和智能体关联)。 第三步,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT。 第四步,使用代码节点进行数据处理,注意代码节点输出的配置格式。 第五步,测试。找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面,同样方式测试,确保对话流执行成功。 第六步,发布。点发布后只选择多维表格,然后点配置。输出类型选文本,输入类型选择字段选择器。完善上架信息,填个表格,选发布范围时可选仅自己可用以加快审核。提交上架信息后,返回配置界面显示已完成即可完成最终提交。 其他智能体: 如创建一个输入人设等信息的智能体,放上已创建的工作流。但注意工作流中若有消耗个人资源的部分,如【所有视频片段拼接】节点使用的插件 api_token 填的是个人 token,不能直接发布。可将 api_token 作为工作流最开始的输入,用户购买后输入 api_token 再发布。
2025-04-14
最好的制作ppt的大模型是哪个
目前在制作 PPT 方面,没有绝对的“最好”的大模型。例如,Claude 3.7 在将 PDF 转换为 HTML 方面效果较好,但国内用户使用不太方便,可改用 DeepSeekR1 实现。某上市公司使用某互联网大厂研发的千亿 AI 大模型产品声称能 3 分钟制作 PPT,但接入公司系统时出现“一连接就死机”的情况。同时需要注意的是,过去几个月内国内的 AI 大模型在某些方面大同小异,且大部分远未达到可商用化程度。
2025-04-13
AI 制作短视频的方法
以下是关于 AI 制作短视频的方法: 1. 确定视频风格和主题:使用 Fanbook 中的 niji6 模型及sref 指令,加上每张图片的提示词来确定视频风格的一致性。比如根据丝绸之路的古风主题确定风格和时长,然后设定故事主线和镜头。 2. 创作故事剧本和分镜头:参考分镜头的基本格式要求,按照场景、地点、镜号、画面描述、台词、音效等维度进行填充。尽可能精简人物对话,提炼重点。当缺乏画面灵感时,可以借助语言大模型,如 Kimi 来获取帮助。 3. 生成角色和场景:根据剧本中的人物性格特征和时代背景,描绘人物的提示词、上传角色参考图cref,并将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。场景提示词从剧本中的画面描述进行提取,采用文生图模式,画面风格选择提前准备好的风格图进行垫图,上传角色图、场景背景进行参考生成,提高人物和场景的融合度。 4. 让图片动起来:使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择。 此外,根据视频脚本生成短视频的 AI 工具有多种,适用于不同的应用场景和需求,包括: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-13
我想通过AI制作H5页面
以下是关于通过 AI 制作 H5 页面的相关信息: AI+高德 MCP 可以帮助您制作 H5 页面。目前,该工具已经有 1000 多人进行制作,还有几十位同学已经发出了自己的产品。 这次更新带来了三个超级实用的功能: 1. 24 种超酷的 H5 风格可供选择,如同选衣服一样简单。 2. 具备一键导航功能,无需复制粘贴地址。 3. 数据更真实,不用担心 AI 瞎编。 使用这些功能,10 分钟就能全部搞定。 在上期文章《》中,详细讲解了获取高德地图的密钥、cursor 如何设置 MCP、询问高德 MCP 生成旅游信息以及美化页面展示等内容。如果您还未阅读,可以点击查看。 另外,使用 Cursor 制作主页的步骤如下: 在搞定一个简单小游戏后,可以做个人介绍网站。假设要做一个《全 AI 自动驾驶的火星登陆飞船》项目,首先要有初步的项目介绍,然后新建一个相关文件夹并打开,在 AI 对话框中输入介绍内容,等待 AI 制作并加入修改意见。 若想让别人看到您的作品预览,可以通过网站 https://www.yourware.so/ 将项目文件夹整体上传,生成临时浏览链接,在不需要域名和服务器的情况下让外部看到作品。如果发现 cursor 卡顿,注意是否需要在终端区或者对话区确认重要操作,可将左下角的 ask every time 修改为 auto run 实现全自动化。
2025-04-13
有没有免费制作数字人的网站?
以下是一些免费制作数字人的网站及使用方法: HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。上传后效果如图所示,My Avatar处显示上传的照片。点开大图后,点击Create with AI Studio,进入数字人制作。写上视频文案并选择配音音色,也可以自行上传音频。最后点击Submit,就可以得到一段数字人视频。 DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法:点击上面的网址,点击右上角的Create vedio。选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。配音时,可以选择提供文字选择音色,或者直接上传一段音频。最后,点击Generate vedio就可以生成一段视频。打开自己生成的视频,可以下载或者直接分享给朋友。 KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法:点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。点击开始创作,选择自定义照片。配音时,可以选择提供文字选择音色,或者直接上传一段音频。打开绿幕按钮,点击背景,可以添加背景图。最后,点击生成视频。 此外,在剪映中也可以生成数字人:在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象,比如“婉婉青春”。选择数字人形象时,软件会播放声音,可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。软件会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示渲染完成,可点击预览按钮查看效果。还可以为视频增加背景图片,删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频对齐。
2025-04-11
如何使用AI制作真人表情包?
以下是使用 AI 制作真人表情包的方法: 1. 使用 Gemini 2.0 Flash: 场景:表情包在社交媒体中是不可或缺的表达工具,但制作个性化表情包对许多人来说并不容易,有的工具可以生成根据某一个主体生成不同的表情,但是生成出来的图会多多少少改变原主体。 实用性:用户只需上传一张主体图片(例如一个小女孩的照片),通过简单的自然语言指令(如“让她开心大笑”),Gemini 就会自动生成相应的表情图片。 指令:“生成 XXX + XXX 的表情” 2. 使用 ChatGPT 4o: 输入提示词并加上最初的真人图片,例如:创建图片:一个戴着深蓝色蝴蝶结领结的柴犬,表情参考我上传的图片,3D 风格,毛绒绒质感,不要太逼真,比例为 1:1。如果对生成的第一个表情不满意,可以重新输入指令进行调整,如“让它看起来得意一点”。 一次生成九宫格表情包的方法:先收集很多自己喜欢的表情包,将每组拼图为 9 个,然后将先前做好的真人原图和一张九宫格拼图一起上传到 4o 对话框,输入相应指令,如:创建图片:参考图二的动作和道具制作表情包九宫格,每个图案都替换为图一为主角,保持风格为图一的质感,整整齐齐无留白排列,颜色明亮不偏黄,文字内容仔细核对不要出错。 另外,有的地方需要上传封面图,也可以由 4o 生成,先要求它做一个比例约 3:2 的。如果有个很喜欢的表情,使用九宫格出的效果不好,也可以单个一个个去生成,但比较费时间,且可能会受出图限制等待更久。最后将所有图片下载下来,挑选出需要的表情图片。
2025-04-11