「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
视频脚本文案创作
以下是关于用 AI 把小说做成视频的相关内容: 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 以下是一个 AI 生成的视频脚本示例《赛博山海》: 场景一:主角与白泽相遇(20 35 秒) 镜头 5(20 25 秒):主角走近白泽,两者首次目光接触。旁白:“当古老传说与现代科技相遇...” 镜头 6(25 30 秒):白泽展示其智慧,向主角显现古老符号和图腾。 镜头 7(30 35 秒):主角对白泽的神秘力量感到惊讶和兴奋。 场景二:探索与遇见貔貅(35 50 秒) 镜头 8(35 40 秒):主角和白泽一同走在街道上,探索城市的另一角落。 镜头 9(40 45 秒):貔貅出现,展现其威猛。旁白:“在这个世界,更多的奇迹等待着被发现。” 镜头 10(45 50 秒):主角、白泽与貔貅的友好互动。 场景三:进入神秘空间(50 70 秒) 镜头 11(50 55 秒):主角被引导至一个隐藏的世界,神秘光芒四射。 镜头 12(55 60 秒):更多《山海经》中的神兽逐渐显现。 镜头 13(60 65 秒):主角在神兽们的指引下,发现一个古老秘密。 镜头 14(65 70 秒):神秘符号和图腾浮现,主角展现深思状。 结尾(70 100 秒) 在视频工作流中,前期策划和后期制作是核心。前期利用 ChatGPT 生成文案,后期利用 AI 工具进行自动化视频制作。例如,把想写的选题告诉 ChatGPT,它能生成完整的视频脚本,包括具体场景和转场画面。在筛选 BGM 方面,告诉 ChatGPT 视频的情绪,它能在海量背景音乐中为您筛选从而节省时间。目前,倒入文案一键自动化生成视频可能还未达到直接使用的程度,很多素材仍需人工替换。这类 AI 工具组合更适合在短视频账号建立初期,用于快速低成本测试某一垂直领域短视频关键词热门情况。
2025-01-01
AI如何赋能财经自媒体
以下是关于 AI 赋能财经自媒体的一些内容: 摩根大通用 AI 创建金融模型,通过处理大量数据集、检测模式并整合多个变量,完善经济和货币预测,使中央银行和政府受益,为政策选择提供信息,改善利率、流动性管理和宏观审慎措施的决策。 有关于人类和 AI 协作效率的探讨,使用 AI 的被测试者比未使用者平均多完成 12.2%的任务,完成速度提高 25.1%,结果质量提高 40%。 邬嘉文提到 Claude 3 Opus 可以直接输出用户研究报告,业内首次在开放文本中实现频次统计,手工核验过,频次量级和数量排序正确,频次绝对值相对人工统计有 30%误差,原有 GPT4+SBERT 统计方式已被 Claude 3 超越。
2025-01-01
意识是什么 怎么产生的
意识是一种复杂且神秘的现象。从根本上说,它在大脑中产生,虽然科学家尚未完全研究出其核心机制,但目前认为: 大脑通过数亿万计的神经元连接产生意识,让我们有了记忆的感觉,无数的想法在这个生物的神经网络里时刻涌现。 意识体现在觉察、反思、自主能力上,是帮助个体主动反思做决策的轮子,本质是对上下文的推理补全。 大脑主要用于创造想法,而非储存,我们的大脑无法记住所有看过的细节,在神经元连接中产生意识,让我们用合适的神经通路连接想法,并通过主观的自我“意识”解释出来。
2025-01-01
什么是系统提示词
系统提示词是指在大模型输出的内容中,包含整个应用的原信息、整体功能信息、产品设定以及 AI 应用的逻辑等内容。从提示词的视角看大模型的输出,可以将其分为三个部分:系统提示词、用户给到 AI 的内容(称为“用户提示”)、AI 给出的结果(称为“助手提示词”),这三段内容之间是连续的。通过攻击手段,如简单的指令,基于文字接龙的形式,可以拿到前面的系统提示词。 此外,提示词是一段用于指挥 AI 生成所需内容的指令,每个单独的提示词叫 tag(关键词)。支持英语等语言,语法规则包括用英文半角符号逗号分隔 tag 等。提示词所做的工作是缩小模型出图的解空间,即缩小生成内容时在模型数据里的检索范围。提示词中可以填写自然语言、单词标签、Emoji、颜文字等内容。自然语言可用描述物体的句子,单词标签用逗号隔开的常见单词,Emoji 语义准确度良好且对构图有影响。对于使用特定数据的模型,西式颜文字可在一定程度上控制出图的表情。
2025-01-01
系统提示词
以下是为您整合的关于系统提示词的相关内容: 1. 宝玉日报 11 月 6 日: 书籍推荐:《智人之上》——尤瓦尔·赫拉利从石器时代到 AI 时代的信息简史。 主题探讨:人类被仇恨、恐惧、贪婪等情绪主导,AI 或将加剧人类的工具化和焦虑。 关键问题:如何在 AI 时代保持人性?面对信息过载如何远离焦虑? 完整访谈链接: Claude 3.5 Sonnet New 新版功能优化: 系统提示词改进:对复杂问题提供详尽回答,简单问题简洁作答,保持精准和简明。 格式要求:使用 Markdown,建议结果以 Bullet Points 展示。 提示词技巧:简化提示词以提高准确性,逐步请求进一步格式调整,模拟思维链互动。 Claude 系统提示词参考: 2. 大雨:coze 工作流节点大全 大模型节点:利用大语言模型生成文本内容。可选择所用大语言模型,设置生成内容的随机度(Temperature)并编写提示词。支持在提示词中使用{{variable}}引用输入参数。系统提示词和用户提示词大部分情况下差异不大,可把完整逻辑放系统提示词里,变量相关内容放用户提示词里。提示词也可通过 coze 来写。变量用{{}}包裹,变量名正确会显示成蓝色。若无特别原因,可直接采用系统自动生成内容,输出变量默认一个。 代码节点:通过 IDE 编写 Python 或 JavaScript 脚本,处理输入参数并返回输出值。代码节点支持 JavaScript 和 Python 运行时。可在节点内的代码区域单击“在 IDE 中编辑”,通过 IDE 编辑和调试代码。尽量使用 JavaScript,尽量让 AI 写,不熟悉时易增加不必要麻烦。 选择器节点:每增加一个条件,右边会多出一个点,点中拖到对应的下一级节点。这是一个 ifelse 节点,用于设计工作流内的分支流程。输入参数时,节点会判断是否符合“如果”区域条件,符合则执行“如果”对应的工作流分支,否则执行“否则”对应的工作流分支。 3. 15 个月之后,再写童谣(附带 8 个模型的测试) 分步实现: 儿歌创作:效果展示。 卡片制作:提示词、效果展示。 提示词编写、测试: 提示词。 效果展示:小汽车玩具、茶杯、灯笼。 总结:15 个月时间变化翻天覆地,很多大模型能力有不同程度提升,国外模型变化更大。OpenAI 稳定画饼,ChatGPT 视频对话效果惊艳。约定明年再写儿歌、童谣。
2025-01-01
关于AI大模型的发展介绍
AI 大模型的发展具有重要意义和深远影响: 1. 与传统语音技能的差异:语音技能的 NLU 是通过规则、分词策略等训练而成,运作逻辑可观测,具有 ifelse 式逻辑性;而大模型凭借海量数据在向量空间中学习知识关联性,运作逻辑难以观测,脱离了 ifelse 层面。 2. 带来的变革量级:汪华老师认为此次 AI 变革 100%能达到与移动互联网同级,50%可能发展至与蒸汽机出现同量级,能否到达 AGI 阶段尚不明确。 3. 背景和趋势:随着大模型技术成熟和规模增大,为 AI Agent 提供强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。 4. 整体架构: 基础层:为大模型提供硬件支撑和数据支持,如 A100、数据服务器等。 数据层:包括企业根据自身特性维护的静态知识库和动态三方数据集。 模型层:有 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。
2024-12-31
图生视频
以下是关于图生视频的相关内容: 什么是图生视频: 输入一张图片和相应的提示词,清影大模型会将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。 2. 提示词要“简单清晰”。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确您想动起来的“主体”,并以“主体”+“主题运动”+“背景”+“背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确“主体”的描述。 相关示例: 在 PixVerse V3 中图生视频生成视频的比例取决于上传图片的比例,提示词遵循相关规则。为您展示几个示例帮助拓展创意,如:“The camera wraps around to the left and the girl turns,with a blur of fast moving people in the background and the girl relatively still.”(镜头向左旋转,女孩转身,背景中快速移动的人模糊不清,而女孩相对静止。)、“The monkey wear sunglasses and have a cigar while pointing forward with a confident gesture.”(猴子戴上墨镜,叼着雪茄,以自信的姿态指向前方。) 风格化: Style 为您提供了 4 种风格,且支持文生和图生的风格选择和转换。为保证最佳效果,不推荐风格化与其他功能混用。 其他相关信息: 在离谱村的共创故事中,图片是用 Midjourney 生产,图生视频每张图片转视频都进行了大量的尝试,各种工具轮番上场,如 pika,runway,Pixverse。中间还找了 ZHO 做技术指导,相关视频已公测。配音部分都是用 Audiobox 捏出来的,为了离谱熊声线的一致性,用了 GPTsovits 对离谱熊的声音做了专属的训练。
2024-12-31
如何学习AI应用使用
以下是关于如何学习 AI 应用使用的一些建议: 1. 学习外语方面: 语言学习应用: Duolingo:使用 AI 个性化学习体验,根据进度和错误调整练习内容,通过游戏化方式提供词汇、语法、听力和口语练习。下载应用,选择语言,按课程指引学习。 Babbel:结合 AI 技术提供个性化课程和练习,重点在于实际交流所需技能。注册账户,选择课程,按学习计划学习。 Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合练习和反馈。注册并选择语言,使用多种练习模式学习。 AI 对话助手: ChatGPT:可模拟对话练习,提高语言交流能力。在聊天界面选择目标语言,与 AI 对话练习,询问语法、词汇等问题,模拟交流场景。 Google Assistant:支持多种语言,用于日常对话练习和词汇学习。设置目标语言,通过语音或文本输入互动,练习日常用语。 2. 编程方面: Python 基础: 基本语法:了解变量命名、缩进等规则。 数据类型:熟悉字符串、整数、浮点数、列表、元组、字典等。 控制流:学习使用条件语句、循环语句控制程序执行流程。 函数: 定义和调用函数,理解参数和返回值。 了解作用域和命名空间,包括局部变量和全局变量。 模块和包: 导入模块,使用包安装和扩展程序功能。 面向对象编程(OOP): 了解类和对象的定义和实例化。 学习属性和方法的定义及调用。 理解继承和多态关系。 异常处理: 了解异常及工作原理。 学习使用 try 和 except 语句处理错误。 文件操作: 学习文件读写,处理文件路径和列举目录下文件。 3. 新手学习 AI 方面: 了解 AI 基本概念: 阅读「」,熟悉术语和基础概念,了解主要分支及联系,浏览入门文章。 开始学习之旅: 在「」找到初学者课程,推荐李宏毅老师课程,通过在线教育平台按节奏学习,有机会获证书。 选择感兴趣模块深入学习: 根据兴趣选择特定模块,如图像、音乐、视频等,掌握提示词技巧。 实践和尝试: 理论学习后实践巩固知识,尝试使用产品创作,分享实践成果。 体验 AI 产品: 与 ChatGPT、Kimi Chat、智谱、文心一言等互动,了解工作原理和交互方式,获得实际应用体验。
2024-12-31
科学家现在完全了解gpt是怎么工作的吗
目前科学家尚未完全了解 GPT 的工作原理。以下是一些关于 GPT 工作原理的相关知识: Openai 的科学家认为,GPT 产生智能是因为神经网络将知识进行了复杂的压缩,在询问问题时将其中的知识解码(解压缩)。大语言模型的数据压缩能力越强,意味着其 AGI 智能越强。遵循最小描述长度原理和奥卡姆剃刀原则,最佳解释应是对数据进行尽可能短而准确描述的模型,模型描述长度越短,泛化性越好,也就越智能。 GPT 中的知识存在方式包括:LLM 中有两类神经元,单语义神经元只对输入里某个特殊的知识点产生响应,多语义神经元则相反。在模型学习过程中,为了增加模型参数的利用效率,“单语义神经元”会被分配给重要特征,“多语义神经元”会分配给不太重要的特征,而对更加不重要的特征,模型完全不进行编码。此外,存在知识回路,某个任务的 Prompt 输入 Transformer 后,在网络中存在一些完成这个任务的关键路径,信息主要沿着这条路径向上传播,在传播过程中不断进行信息传递或知识加工,最终完成任务,这与人脑的某些信息处理回路相似。 GPT3 的训练是将模型暴露于大量文本的过程,包含 3000 亿个文本标记的数据集用于生成模型的训练示例。训练时,我们只向模型展示特征并要求它预测下一个单词,模型的预测会有错误,计算其预测中的误差并更新模型,以便下次做出更好的预测,重复数百万次。GPT3 实际上一次生成一个 token 的输出。 GPT 全称是生成式预训练转换器模型(Generative Pretrained Transformer)。生成式指的是大模型根据已有的输入为基础,不断计算生成下一个字词(token),从而逐字完成回答的过程。例如,一开始给大模型一些提示词 Prompt,大模型会结合自身“大脑中存储的知识”进行计算推理,算出下一个单词的概率最大并输出,新的输出会和过去的输入一并成为新的输入,用来计算下一个词,直到计算出下一个词是的概率最大,于是结束输出。
2024-12-31
普通人学习ai最好的途径是什么
普通人学习 AI 有以下较好的途径: 1. 万能公式法:问 AI 【一个(xxx 职业)需要具备哪些知识?】,AI 会给出知识框架,然后针对每一个小点进一步询问,能帮助深度思考。 2. 优质信息源:如「即刻」App 的“”等免费圈子,这里有前沿信息线索,很多 Twitter 上的开发者大牛也会分享,必要时可去 Twitter 和相关官网溯源。 3. 信息爆炸做减法的小 tips: 只掌握最好的产品,少关注新产品测评(除非远超 ChatGPT)。 只解决具体问题,不做泛泛了解。从问题中来,到问题中去。 只关注核心能力,不关注花式玩法,用 AI 扬其长避其短。 只关注理清需求和逻辑,不死记硬背提示词。 先关注提升认知/洞察,然后再谈技巧。 同时,还可以: 1. 了解 AI 基本概念:阅读「」熟悉术语和基础概念,包括主要分支及联系,浏览入门文章。 2. 开始学习之旅:在「」找到为初学者设计的课程,推荐李宏毅老师的课程,通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 3. 选择感兴趣模块深入学习:根据自身兴趣选择特定模块,如图像、音乐、视频等,掌握提示词技巧。 4. 实践和尝试:理论学习后通过实践巩固知识,使用各种产品创作作品,并在知识库分享。 5. 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 此外,对于超出自己理解范围的事情,最简单的方法就是试一试。学习新东西,百闻不如一练。尽可能简单地试用 AI 本身就是让普通人受益的最好方式。
2024-12-31