以下是关于通过分镜头生成 MG 动画的相关内容:
动态叙事动画生成器
方案效果:
通过 NAG 模块,用户能够轻松创建出具有叙事性和连贯性的动画视频,同时保持人物特征的一致性。这将大大提升 AnimateDiff 框架的创作能力和应用范围,为用户提供更加丰富和多样化的动画创作体验。
系统处理流程:
1. Prompt 解析器(Prompt Parser):处理解析 Prompt,提取关键信息,如主要人物、场景、活动以及时间线索。
2. 分镜生成器(Storyboard Generator):根据提取的信息生成分镜脚本,每个季节一个分镜,每个分镜包含具体的背景、人物动作和情感状态。例如春天公园里女性坐在画板前,夏天海滩上女性吃冰淇淋等。
3. 视频渲染引擎(Video Rendering Engine):将分镜脚本转换为视频帧,并渲染成连贯的视频动画。使用 AnimateDiff 框架生成每一帧的图像,确保人物动作的连贯性和场景的平滑过渡,并对每个季节的场景应用不同的色调和光影效果。
模块设计:
1. Prompt 解析器(Prompt Parser):
模块目的:准确解析用户的描述性 Prompt,提取关键信息。
模块功能:包括自然语言处理、实体和关系抽取、场景和动作映射。
技术实现:利用预训练的 NLP 模型,应用依存解析和实体识别技术,使用知识图谱和语义理解来确定实体之间的关系。
2. 分镜生成器(Storyboard Generator):
模块目的:根据解析出的信息生成详细的分镜脚本,为视频生成提供蓝图。
模块功能:分镜脚本创建、时序和逻辑校验、风格和情感适配。
技术实现:使用脚本编写规则和模式识别技术,通过有限状态机或 Petri 网来管理和调整分镜的时序,集成风格迁移和情感分析工具。
3. 视频渲染引擎(Video Rendering Engine)
尾鳍 Vicky:AI 动画短片制作全流程《月夜行》森林篇
分镜头写作:
假如已有简单的故事梗概,1 分钟的视频大概需要 25 30 个镜头,需要写出 30 个镜头的分镜头脚本,并将其翻译成英文,放到 Dalle3 或者 Midjourney 中去进行文生图的工作。文生图的逻辑是要写清楚画面内容。
模板包括景别、风格、角色、环境、比例等。例如:Closeup macro shot,A white flower blooms,the sun shines on the white flower,in the forest,Makoto Shinkai style,Japanese anime style ar 235:100 。以下是最开始写的分镜内容(超级简化版本)作为参考,如 1. 主观,海边电闪雷鸣;2. 特写,树干被折断等。
2024-09-08