直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何用runaway做一个1min左右的AI短片

回答

以下是使用 Runway 制作 1 分钟左右 AI 短片的步骤:

  1. 访问 Runway 网页(https://runwayml.com/),在右上角点击“Sign Up”进行注册。输入邮箱与基础信息,完成邮箱验证。
  2. 新注册用户会有 125 个积分进行免费创作(约为 100 秒的基础 AI),选择“Try For Free”模式。
  3. 制作视频:
    • 选择左侧工具栏“Generate videos”(生成视频)。
    • 选择“Text/Image to Video”(文字/图片生成视频)。
    • 将图片拖入框内。
    • 选择一个动画系数。
    • 点击生成 4 秒视频。
    • 下载视频。

需要注意的是,在实际制作过程中可能会遇到一些问题,比如动画效果一般、局部物体运动控制等。可以结合其他工具如 Pika、Dalle3 等来解决,同时在剪辑和高清化方面,也有不同的选择和注意事项。比如剪辑可以使用剪映,但对于更长篇幅或追求更好效果可能需要使用 PR/FCP/达芬奇等传统剪辑软件。高清化可以使用 Topaz Video AI,但可能对电脑配置有要求。在声音处理方面,可以通过标点符号改变 11labs 的语音效果,也可以使用国内的魔音工坊等工具。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

使用Runway生成你的第一个AI视频

[heading1]注册零门槛:[content]右上角Sign Up注册输入邮箱与基础信息,完成邮箱验证,即可完成注册[heading2]选择Try For Free模式:所有新注册用户会有125个积分进行免费创作(约为100s的基础AI[content][heading1]Runway生成你的第一个视频,5分钟手把手[heading2]①选择左侧工具栏[Generate videos]“生成视频”;[heading2]②选择[Text/Image to Video]“文字/图片生成视频”[content][heading2]③将图片拖入框内[content][heading2]④选择一个动画系数[content][heading2]⑤点击生成4秒视频[content][heading2]⑥下载视频[content][heading1]成品展示[content][Gen-2 1007342664,test5png,M 3.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/ZIK5bRoUQocpQyxWSI4cqvQXnKh?allow_redirect=1)

尾鳍Vicky:AI动画短片制作全流程--《月夜行》森林篇

目前还没有很好的办法解决,我的办法就是只能用短镜头+蒙太奇的方式来切换,涉及到太复杂的画面,用取巧的方式,比如用音效、空镜或其他反应来带。但还是会遇到无法用画面讲清楚故事的问题,所以涉及到关系镜头,有两个以上物体的画面,我用的是GPT4的Dalle3,Dalle3的审美差一些,但语义理解会强一些。因为没有关系镜头,实在交代不清楚人物关系——即狼替猫挡的那一下。于是乎,在生成了一堆废片之后,终于生出了一张还说得过去的图片。(一堆废片)(最终分镜)那么问题又来了,如何进行局部运动,怎么让这块木头掉下来呢?Pika目前还没有局部方向运动笔刷,我只能去试Runway Gen-2,Runway可以控制局部物体运动,但又有问题来了,Runway的动画效果比较一般,做出来,白猫的脸变形了……我……还好Pika有视频重绘的功能,我又把Runway生成的镜头放到Pika里再跑一遍,背着脸总比变形强点,大概齐地完成了该镜头……Roll不动了确实有点……所以这个关系镜头是用Dalle3+Runway+Pika结合完成的,这个工作流确实略麻烦……但咱还是相信,未来的趋势,一定是极简的工作流+工具的强整合……第三步,剪辑+高清化最后一步主要还是人工剪辑,音效和配乐用的不是AI。但其实AI声音在某方面(比如配音)已经相对成熟了,有时间会再尝试做一些有人物对白的实验短片。高清化我主要用的是Topaz Video AI,这个需要本地电脑跑,我的老Mac有点跑不动,跑1分钟可能需要4-5h甚至更久,可以酌情求助一下周围电脑配置好的朋友。

前Sora时代我最想做的AI短片——使用Pika、Pixverse、Runway、SVD四大AI视频工具

跟视频制作类似,需要不断地抽卡(反复生成),因为11labs无法使用语速、情绪调节等控件,我们只能通过标点符号去改变语音效果,比如使用,、……。!等等标点符号,有时会叠加不同标点符号,去试它的语音效果。同一句台词,大家可以听出不同标点和抽不同卡时,声音的情绪都不太一样,所以要在AI声音里调试到合适的声音,抽声音卡的难度其实并不亚于抽视频的难度……我们常常一句台词要生成十几二十段音频,才能找到稍微能听得过去的、自然的声音。国内的可以使用出门问问的魔音工坊。魔音工坊可以使用情绪调节控件,还比较友好,但具体的评测还得等我们有机会做中文短片再试试!第五步,剪辑上篇剪辑没有多说,这次我会多说一些。目前大部分AI短片的创作者用的都是剪映,我也是,因为短片1-3分钟,用剪映其实会比传统剪辑软件更方便一些。但更长的篇幅,比如可能到5-10分钟,或者10分钟以上,要更好的效果的话,还是避免不了可能要用PR/FCP/达芬奇等等传统剪辑软件。剪映非常方便在于它有很多人性化的设计以及简单的音效库/小特效,难用的点在于剪映无法协同工作,导出工程文件,不像PR等软件可以导出XML打包工程文件,无法与各软件进行工程联通,应用起来就很难使视频内容达到更好的商业化效果。剪辑的流程是:视频粗剪——视频定剪——音效/音乐——特效——包装(如字幕)很多人在做视频的时候可能会先上来直接把音乐铺满,然后再开始剪,这样其实放弃了很多听觉上的制作空间。

其他人在问
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
gemini-2.5目前是什么水平
Gemini 2.5 是一款全能思考模型,具有以下特点和优势: 多领域达到 SOTA 水平,逻辑、代码、任务处理能力大幅提升。 支持 100 万 tokens 上下文,具备强大的阅读能力。 统一架构原生多模态支持,图文音码协同处理,并非外挂而是原生融合。 您可以通过以下链接获取更多详细信息:https://www.xiaohu.ai/c/xiaohuai/googlegemini25proexperimental
2025-04-13
怎么使用gemini
使用 Gemini 的方法如下: 1. 申请 API key:在申请您的 API key,并将其填到 api_key.ini 中。该文件位于插件根目录下,默认名字是 api_key.ini.example,初次使用需将文件后缀改为.ini。用文本编辑软件打开,在 google_api_key=后面填入您的 API key 并保存。 2. 节点选项说明: api:使用的 Api。目前只有"geminiprovision"和"googlegemini"选项。 token_limit:生成提示词的最大 token 限制。 exclude_word:需要排除的关键词。 replace_with_word:替换 exclude_word 的关键词。 3. 使用方式: 通过 API 调用(需要一定技术基础)。 在 Google AI Studio 中使用:这是一个免费的在线平台。 登录方法: 第一步:打开浏览器访问 https://aistudio.google.com/prompts/new_chat 或下载 Gemini 应用(Android 或 iOS)。 第二步:登录您的 Google 账户。 第三步:在 model 选项处选择 Gemini 2.0 Flash Experimental 模型。 操作步骤: 上传图片。 输入指令,例如“把衣服改成蓝色”或者“给狗狗加个墨镜”等清晰明确的描述。 点击运行按钮等待处理结果。若不满意可修改指令再次尝试。 此外,Gemini 还具备实时视频功能,打开完整的 Gemini Live 界面,开启视频流后,界面右下角的按钮可切换到前置摄像头,能实时分析手机摄像头捕捉到的画面并回答相关问题。但此功能会在 3 月下旬作为谷歌 One AI 高级计划的一部分,向 Gemini 高级订阅用户逐步推送。
2025-04-11
阶跃星辰、通义千问、Gemini三个视频理解模型哪个收费更便宜
以下是阶跃星辰、通义千问、Gemini 三个视频理解模型的收费情况: 阶跃星辰:输入价格为 0.005~0.015 元/千 tokens,输出价格为 0.02~0.07 元/千 tokens。 通义千问:Qwenvlplus 模型调用价格为 0.008 元/千 tokens,训练价格为 0.03 元/千 tokens。 Gemini 未提及收费信息。 综上,从已有的信息来看,通义千问的收费相对可能更便宜,但具体还需根据您的使用情况和需求来判断。
2025-04-10
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
minimax侧重在哪些方面
MiniMax 侧重在以下几个方面: 1. 语音技术: 快速克隆:仅需 10 秒音频即可克隆语音,智能情感系统精准捕捉细腻情感变化。 多维预置语音:提供 300+语音选项,支持 17 种语言(不断扩展),涵盖口音、性别、年龄、风格等。 专业音效:支持房间音效、电话滤镜,输出接近录音室级别。 2. 通用人工智能: 成立于 2021 年 12 月,是通用人工智能时代基础设施建设者和内容应用创造者。 拥有文本、语音、视觉多种模态融合的通用大模型引擎能力并打通产品全链路。 自研了整套端到端 AGI 引擎系统。 3. 团队组成:核心技术研发成员均来自全球知名高校和全球顶尖科技公司,拥有世界顶尖自然语言处理、语音、计算机视觉、计算机图形学等工业界和学术界经验,拥有多项全球领先的人工智能领域研究成果,具有上百个全球发明专利,1/3 的团队成员拥有世界顶尖技术实验室的博士学位。 相关链接: 免费试用: API 平台:
2025-03-28
MJ和runaway用什么软件代替比较好
以下是一些可以替代 MJ(Midjourney)和 Runway 的软件: Luma 发布的 DIT 视频生成模型 Dream Machine 图生视频表现惊艳,具有电影级效果。 出图工具方面,还有 SD(Stable Diffusion)和悠船。MJ 稳定性好、协作性强且有成熟经验参考,但并非所有人都拥有;SD 有独特能力但需本地部署且上手门槛高;悠船对中文支持好、交互友好简单易上手,但管控严格,有很多敏感词不能使用。 如果您想了解更多关于这些软件的详细信息或有其他特定需求,请进一步向我提问。
2025-03-24
runaway的prompt编写
以下是关于 Runway 官方镜头提示词的相关内容: Prompt Structures 提示结构: 使用这种结构,提示一个女人站在热带雨林可能是这样的。 在提示的不同部分重复或强调关键思想可提高输出一致性。例如在超高速拍摄中,相机会快速飞过场景。应将提示集中在场景中应出现的内容上,比如输入晴朗的天空,而非没有云的天空。 协助镜头画面描述的提示词: 样品说明: 1. Seamless Transitions 无缝转换 1. Camera Movement 相机移动 1. Text Title Cards 文本标题卡 1. Prompt Keywords 提示关键词 关键字有助于在输出中实现特定样式。确保关键字与整个提示符保持一致,会使其在输出中更明显。例如,包括关于皮肤纹理的关键字对于相机未紧密聚焦在面部的广角拍摄没有好处,广角镜头可能受益于环境的其他细节。在保持这种凝聚力的同时,可尝试不同的关键字。
2024-09-18
我要做动画短片 ,从剧本到成片,需要用到哪些AI软件(国内可用的)?
2025-02-25
根据提交视频素材剪辑短片的AI有哪些
以下是一些可用于根据提交视频素材剪辑短片的 AI 工具: 1. Pika 2. Pixverse 3. Runway 4. SVD 这些工具可以帮助您生成各种类型的视频,包括剧情片、科幻片、战争片、奇幻片、纪录片、风光片、美食片等。例如: 科幻片:如太空舰队交战、宇航员头盔特写等场景。 战争片:如士兵在战壕准备迎击、策划行动等场景。 奇幻片:如奇幻生物追逐、小精灵特写等场景。 纪录片:如壮丽山脉晨曦、野花特写等场景。 美食片:如厨师切割食材、蛋糕特写等场景。 此外,剪映提供了文案推荐和 AI 写旁白功能,并且目前处于限免状态。在剪映中,输入文字后点击菜单栏的“朗读”,会出现克隆音色和文本朗读两个按钮。克隆音色可以选择直接录制自己的声音或上传不错的声音片段,录制时的语气和情感会被克隆,需注意录制时长在 5 秒以上。
2025-02-12
ai微电影 最新的AI短片
以下是为您提供的一些最新的 AI 短片相关信息: 前 Sora 时代的 AI 短片,使用了 Pika、Pixverse、Runway、SVD 四大 AI 视频工具,涵盖了多种类型,如奇幻片中有一群奇幻生物在森林中追逐,精灵和矮人并肩奔跑等场景;科幻片中有太空舰队在星系间交战等画面;战争片中有士兵们在战壕中准备迎击等情景。 11Labs AI 音效深度评测的相关短片,如“一条由气泡制成的龙,完美渲染 8k”“一只透明的景观乌龟在沙滩爬行”“一个与纽约市自然融合的外星人,偏执惊悚风格,35 毫米电影”等,这些视频画面真实,脑洞大开,但存在音效缺失的问题。
2025-01-23
AI短片怎么做
制作 AI 短片可以参考以下步骤: 1. 构思故事: 故事来源可以是原创,比如自身或周围人的经历、做过的梦、想象的故事等。 也可以是改编,如经典 IP、名著、新闻、二创等。 剧本写作方面,虽然编剧有一定门槛,但短片创作相对简单,可从自身或朋友经历改编入手,或者对触动自己的短篇故事进行改编。多与他人讨论故事,有助于修改和进步。 2. 生成画面: 要知道 AI 视频需要大量抽卡才有合适画面,可尝试每家视频每张图片只抽一次卡。 例如在科幻片、战争片、奇幻片等类型中,会有不同的画面需求,如太空舰队交战、宇航员头盔特写、士兵在战壕等场景。 3. 生成视频: 可使用的工具包括 Pika(https://pika.art/)、Pixverse(https://pixverse.ai/)、Runway(https://runwayml.com/)、SVD(https://www.stablevideo.com/)等。 以不同类型的影片,如剧情片(包含科幻、战争、奇幻等类型)和纪录片(风光片、美食片),采用不同景别对这些工具进行测试。 需要注意的是,在制作过程中,可能会遇到一些问题,比如展示人物位置关系的镜头生成不够理想,还需要探索更高效的解决办法。
2024-12-27
制作一个AI短片,工作流程是什么样子的
制作一个 AI 短片的工作流程通常包括以下步骤: 1. 项目规划:确定短片的主题和目标观众,制定详细的制作计划。 2. 剧本创作:编写故事脚本,设计角色和场景以及创意。 3. 分镜头脚本:根据脚本制作分镜头脚本,确定每个镜头的画面和动作。 4. 资源准备:准备动画制作所需的素材,包括背景、角色和音效。 5. 画面图片制作:利用 AI 出图工具,比如通过 ChatGPT、MJ、SD 等工具快速生成高质量的图片。 6. 视频制作:利用 AI 工具制作动画,通过 RUNWAY、Luma、Dreamina 等平台快速生成高质量的动画。 7. 后期剪辑:添加音效、配音和字幕,进行最终的剪辑和合成。 8. 发布和推广:将完成的动画短片发布到各大平台,并进行推广和宣传。 在具体实践中,可能会有所不同。例如,有的工作流是: 1. 写剧本。 2. 做分镜。 3. AI 生图。 4. 图生视频。 5. 剪辑。 6. 声音和音乐制作。 还有的工作流增加了 AI 声音制作这一步,流程为: 1. 写剧本/分镜。 2. 生图。 3. 生视频。 4. AI 声音。 5. 剪辑。
2024-12-03
目前有哪些值得关注的AIGC短片
以下是一些值得关注的 AIGC 短片: AIGC Weekly 76 中: Luma AI 发布的 Dream Machine 视频生成模型,图生视频表现惊艳,如美少女混剪(https://x.com/KakuDrop/status/1800928377693687890)和可爱怪物动画(https://x.com/LumaLabsAI/status/1800921393321934915)。 用已有的表情包图片生成的视频也生动搞笑,如奥斯卡合影图片(https://x.com/fofrAI/status/1801198998289608925)。 作者自己跑的测试(https://x.com/op7418/status/1801138865224454480)总结了一些要点。 Luma 官方发布的视频(https://x.com/op7418/status/1801828221996122144)介绍了模型特点和擅长内容。 AIGC Weekly 95 中: 将视频拆分为各个层级的 Demo(https://x.com/dmvrg/status/1851480809477455899)。 Midjourney 的图片编辑加上 C4D 渲染的 Framer LOGO(https://x.com/andyorsow/status/1851771716852420632)。 两个同事计划午餐约会的短片(https://x.com/iamneubert/status/1851615112878076164)。 Nicolas 这段 AI 视频素材混剪(https://x.com/iamneubert/status/1851256571856052467)。 此外,浙江在线报道了 AI 春晚,如《10 万人观看的这场 AI 春晚,有何不同》(https://china.zjol.com.cn/pinglun/202402/t20240212_26647577.shtml)提到了 Way to AGI 社区组织的相关情况。
2024-11-08