直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
DeepSeek可以文生图吗
DeepSeek 可以文生图。 DeepSeek 深夜发布的大一统模型 JanusPro 将图像理解和生成统一在一个模型中。全新的 Emu3 仅通过预测下一个 token 这一建模范式进行训练,可完成文本、图像、视频三种模态数据的理解和生成。Emu3 支持高质量文生图,支持灵活的分辨率和风格。 JanusPro7B 远好于 Janus,更稳定,提示词更短。JanusPro 是一个统一理解和生成多模态语言模型(MLLM),它将多模态理解和生成的视觉编码解耦。 此外,DeepSeek 开源的多模态模型 JanusPro 寓意古罗马双面神雅努斯,既能进行视觉理解,也能生成图像。与 DALLE 3 相比,JanusPro 在参数上领先,并具备图像识别、地标识别等多种能力。该模型通过更优化的训练策略、更海量的数据和更大规模的参数(70 亿)实现了更强的智能表现。
2025-02-05
什么是AI大模型?
AI 大模型是一个复杂且涉及众多技术概念的领域。以下为您详细介绍: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词及关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归)、无监督学习(学习的数据没有标签,算法自主发现规律,经典任务如聚类)、强化学习(从反馈里学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(如上下文理解、情感分析、文本分类),但不擅长文本生成。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-02-05
ppt大纲 的提示词
以下是关于 PPT 大纲提示词的相关内容: 1. 卓 sir 分享了其使用 GPT4 制作 PPT 大纲的经历。他指出自然交流体验舒适,且经过多次迭代完成了电商 PPT 大纲。还提到 WPS AI 能优化大纲、快速制作 PPT 并进行简单修改。 2. 熊猫 Jay 提供了超全的 AI 工具生成 PPT 的思路和使用指南,包括利用 AI 生成 PPT 大纲,给出了培训文档助手的核心提示词,并说明提示词可基于不同模型生成,也可参考基础提示词模版进行丰富。 3. 介绍了 Prompts 最佳实践,如 PPT 制作(电商领域)的相关示例,包括标题、作者、分类、说明等详细信息。
2025-02-05
deepseek的提问方式和指令输入规则是什么
DeepSeek 的提问方式和指令输入规则如下: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 四要素模板:如果不知道如何表达,可套用框架指令。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 性能监测体系:包括需求理解准确率(复杂需求首轮响应匹配度)、知识迁移能力(跨领域案例应用的合理性)、思维深度指数(解决方案的因果链条长度)。新一代交互范式建议采用「人机共谋」模式、启动「思维可视化」指令、实施「苏格拉底式对话」。通过将深度思考能力与场景化需求结合,可解锁 DeepSeek 的「认知增强」模式,建议通过 3 轮迭代测试(需求表达→深度追问→方案优化)建立个性化交互模式。
2025-02-05
deepseek的背景、能力范围和应用场景
DeepSeek 具有以下背景、能力范围和应用场景: 背景: DeepSeek 以小成本实现了媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶。 其创始人梁文锋强调团队文化与长远智能探索,引发全球 AI 热潮。 能力范围: 多模态理解:支持文本/代码/数学公式混合输入。 动态上下文:对话式连续记忆(约 4K tokens 上下文窗口)。 任务适应性:可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架:包括四要素模板、格式控制语法等。 进阶控制技巧:如思维链引导、知识库调用、多模态输出等。 中文场景表现优秀,数学能力不错,编程能力逊于 GPT。 采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 应用场景: 日常写作和表达。 数学和编程相关任务。 可基于特定领域如 2023 版中国药典进行知识调用。 能够进行图像理解和生成,如开源的多模态模型 JanusPro 具备图像识别、地标识别等多种能力。
2025-02-05
如何驯化ai
驯化 AI 可以从以下几个方面考虑: 1. 对于特定领域的 AI,开发具有潜在空间层次结构的堆叠模型,帮助其理解模式和关系。这可能会平行于人类教育范例发展,并可能形成针对特定任务专门设计的神经架构。 2. 创造多样化的专家 AI,在编码、数据和测试方面采用不同方法,并提供多个意见。 3. 让 AI 从在线基础转移到现实世界,让熟练的人类专家配备可穿戴设备,收集现实世界的互动供其学习。 4. 让专家 AI 接触顶级从业人员的多样化视角,避免复制危险的偏见。 5. 认识 AI 时,可将其视为黑箱,只关注其能理解和输出自然语言。例如,对于不具备理工科背景的人,不必深究其内部原理,知道其是模仿人类思维的工具即可。 6. 驱动 AI 工具时,要像传统道教的拘灵遣将一样,通过特定文字和仪轨程式引用已有资源,驱使它达成预设效果。同时,基于其“非人”的一面,要尽可能通过清晰的语言文字压缩其自由度,包括清晰告知任务、边界、目标、实现路径方法,甚至直接提供所需的正确知识。
2025-02-05
视频生成文字或者视频总结成文字的工具有哪些
以下是一些视频生成文字或者视频总结成文字的工具: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 另外,更多相关网站可以查看: 如果想用 AI 把小说做成视频,可参考以下制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 如果要创建视频内容,可参考以下步骤: 1. 准备内容:先准备一段视频中播放的内容文字。内容可以是产品介绍、课程讲解、游戏攻略等任何您希望推广,让大家了解的文字。当然,也可以利用 AI 来生成这段文字。 2. 制作视频:使用剪映 App 来对视频进行简单的处理。电脑端打开剪映 App,点击“开始创作”。进入创作页面后,选择顶部工具栏中的“文本”,并点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道。添加完成后,在界面的右侧将准备好的文字内容替换默认文本内容。这样视频内容就准备好了,这将为数字人提供语音播放的内容,以及生成与文字内容相对应的口型。
2025-02-05
agi是什么
AGI 即人工通用智能(Artificial General Intelligence),是指能够做任何人类可以做的事的人工智能。 OpenAI 在其内部会议上分享了 AGI 的五个发展等级: 1. 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平,能够解决复杂问题,如 ChatGPT,能根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 4. 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 目前,AI 分为 ANI 和 AGI,ANI(Artificial Narrow Intelligence 弱人工智能)得到巨大发展,而 AGI 还没有取得巨大进展。ANI 只可做一件事,如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等。
2025-02-05
怎么快速建立本地知识库
以下是快速建立本地知识库的方法: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载,包括非结构化、结构化和代码等。 文本分割将文档切分为指定大小的块。 存储包括将文档块嵌入转换为向量形式并存储到向量数据库。 检索通过算法找到与输入问题相似的嵌入片。 输出是将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器将用户提供的文本加载到内存中。 2. 使用 AnythingLLM 软件: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 与其他项目数据隔离。 操作步骤:首先创建工作空间,上传文档并进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后测试对话。 3. 本地文档上传: 在文本格式页签选择本地文档,单击下一步。 将文档拖拽到上传区或选择上传,支持.txt、.pdf、.docx 格式,每个文件不大于 20M,一次最多上传 10 个文件。 上传完成后选择内容分段方式,包括自动分段与清洗(系统自动处理)和自定义(手动设置分段规则和预处理规则)。 自定义分段时可设置分段标识符、分段最大长度和文本预处理规则,如替换连续空格、换行符和制表符,删除所有 URL 和电子邮箱地址。 单击下一步完成内容上传和分片。 总之,看十遍不如实操一遍,实操十遍不如分享一遍,如果您对 AI Agent 技术感兴趣,可以联系相关人员或加入免费知识星球(备注 AGI 知识库)。
2025-02-05
如何学习ai做视频
以下是学习使用 AI 做视频的步骤和相关工具推荐: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 相关工具推荐: 动画工具:用于在视频中为人脸制作动画的 DiD,用于从文本创建视频的 Runway v2。 语音克隆:ElevenLabs
2025-02-05