直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
你会使用DeepSeek来回答问题吗
DeepSeek 是一款具有独特特点和优势的深度推理模型。其核心是推理型大模型,与指令型大模型不同,不需要用户提供详细步骤指令,而是通过理解用户真实需求和场景来提供答案。它能够理解用户用“人话”表达的需求,无需用户学习特定提示词模板。在回答问题时能够进行深度思考,并非简单罗列信息。还可以模仿不同作家的文风进行写作,适用于多种文体和场景。 DeepSeek R1 不同于先前的普通模型,如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等,它与 OpenAI 现在最先进的模型 o1、o3 同属基于强化学习 RL 的推理模型。在回答用户问题前,R1 会先进行“自问自答”式的推理思考,以提升最终回答的质量。这种“自问自答”并非简单自言自语,而是模拟人类的深度思考。从用户初始问题出发,唤醒所需推理逻辑与知识,进行多步推导,为最终回答提供更完备的思考准备。DeepSeek R1 的“聪明”源于其独特的“教育方式”,在其他 AI 模型还在接受“填鸭式教育”时,它已率先进入“自学成才”新阶段。 更多提示词技巧请查看 。
2025-02-17
你是用什么模型来回答问题的?
我使用多种模型和相关知识来回答您的问题,包括但不限于以下内容: 2023 年度中文大模型基准测评报告中提到的 GPT4Turbo 和 gpt3.5turbo 等模型,并对其在准确性、相关性等方面的表现进行了评估。 智谱·AI 开源模型列表中的 WebGLM10B、WebGLM2B、MathGLM2B、MathGLM500M、MathGLM100M、MathGLM10M、MathGLMLarge 等模型,介绍了它们的特点和相关链接。 OpenAI 官方指南中提到的一些战术,如指示模型使用参考文本回答,包括提供参考文本和使用参考文本中的引文来回答等策略。 但具体回答您的问题所依据的模型和知识来源会根据问题的性质和需求而定。
2025-02-17
如何用AI制作故事板
以下是使用 AI 制作故事板的一些方法和步骤: 1. 确定主题和风格:比如丝绸之路的古风主题,并选择合适的模型和指令,如 Fanbook 中的 niji6 模型及sref 指令,确定视频尺寸为 16:9。 2. 设定故事主线和镜头:在有故事剧本及相关资料的基础上,按照场景、地点、镜号、画面描述、台词、音效等维度进行分镜头的填充。 3. 精简人物对话:尽可能精简人物的对话,提炼重点,根据台词长短合理安排画面数量。 4. 借助语言大模型获取灵感:当对某一句台词没有足够的画面灵感时,可以借助语言大模型,如 Kimi,让其帮助写好画面描述甚至加上对音效的需求。 5. 利用相关工具和应用程序: Project Odyssey 第二季中的 Playhouse 可使用人工智能为 2D 或 3D 角色制作动画,控制 3D 场景中的每个元素。 Playbook 是基于扩散的 3D 场景引擎,利用 ComfyUI 进行图像和视频生成。 Tripo AI 能在 8 秒内生成带纹理的 3D 网格模型,还开发了自动绑定、动画和风格化功能。 SAGA 是一款优秀的剧本创作和故事板应用程序,由强大的生成式人工智能模型支持。 6. 结合多种 AI 工具:在拍摄纪录片《未来的超级个体》时,结合使用 GPT4 完成内容策划和脚本撰写,使用 Dalle3 和 Midjourney 完成故事板的画面生成,使用 Perplexity AI 进行信息搜索和分析。
2025-02-17
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
类似dify的工具有哪些
以下是一些类似 Dify 的工具: ElevenLabs 发布了 Dubbing Studio 并获得 8000 万美元的 B 轮融资,Dubbing Studio 可以自动识别视频中的发言者,并能手动或自动调整每句话的语气和翻译。 Poe 的机器人创建者为 Poe 带来新用户能获得高达 50 美元的收入。 HayGen 发布了可以实时对话的数字人产品。 字节发布了 Depth Anything 深度估计模型。 此外,在开源社区中,还有像 fastgpt 等成熟的高质量 AI 编排框架。Dify 是一个开源的大模型应用开发平台,具有强大的工作流构建工具、广泛的模型集成、功能丰富的提示词 IDE 等特点,还允许定义 Agent 智能体并进行性能监控优化,提供云服务和本地部署选项。其官方手册:https://docs.dify.ai/v/zhhans 。一般来说,个人研究推荐单独使用 Dify,企业级落地项目推荐多种框架结合。
2025-02-17
怎么加入WaytoAGI社群?
加入 WaytoAGI 社群有以下两种方法: 1. 您可以在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(下图二维码仅作示意,请在找到最新二维码),然后点击加入,直接@机器人即可。 2. 您可以在 WaytoAGI.com 的网站首页,直接输入您的问题,即可得到回答。
2025-02-17
AI数字人
AI 数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为两类: 1. 真人驱动的数字人:重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货。其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过随着视觉算法进步,在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 2. 算法驱动的数字人:强调自驱动,人为干预更少,技术实现更复杂。其大致流程包含三个核心算法: ASR(语音识别):能将用户音频数据转化为文字,便于数字人理解和生成回应,以实现像人与人一样的对话交互。 AI Agent(人工智能体):充当数字人的大脑,可接入大语言模型,拥有记忆模块等使其更真实。 TTS(文字转语音):将数字人依靠 LLM 生成的文字输出转换为语音,保持语音交互一致性。 此外,还有一些与 AI 数字人相关的摊位活动,如为企业和个人提供数字劳动力,解决重复性、创意性工作难题的“AI 数字员工”体验 demo,包括抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库等;以及“AIGC 数字艺术挂画”“数字生命赋予每个人的新生”“AI 智能体应用”“Ai 心理疏导”“AIGC(图生图)趣味定制;AI 数字人定制”等。
2025-02-17
数据分析产品的智能体有哪些
以下是一些常见的数据分析产品的智能体类型: 1. 简单反应型智能体:根据当前的感知输入直接采取行动,不维护内部状态和考虑历史信息。例如温控器,根据温度传感器的输入直接控制加热器。 2. 基于模型的智能体:维护内部状态,对当前和历史感知输入进行建模,能推理未来的状态变化并据此行动。比如自动驾驶汽车,不仅感知当前环境,还维护和更新周围环境的模型。 3. 目标导向型智能体:具有明确的目标,能根据目标评估不同的行动方案并选择最优行动。像机器人导航系统,有明确目的地并规划路线以避开障碍。 4. 效用型智能体:不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣并权衡利弊。例如金融交易智能体,根据市场条件选择最优交易策略。 5. 学习型智能体:能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。比如强化学习智能体,通过与环境互动不断学习最优策略。 此外,还有一些具体的数据分析产品智能体,如颖子团队的“市场分析报告”生成智能体,它能根据输入的行业/类目关键词自动检索关联信息并生成报告,数据化呈现且附带信息来源网址便于校正,适用于企业管理层、投资者、创业者、营销人员等,可减少信息收集时间,聚焦决策判断。 在智谱 BigModel 开放平台工作流搭建中,也有相关的智能体节点,如具有自主规划任务、使用工具、记忆的 Agent 节点。
2025-02-17
生成浮世绘风格的提示词
以下是一些生成浮世绘风格的提示词: Ukiyoe:浮世绘的准确翻译。 Flat illustration:保持画面扁平风,避免视觉冲击过度。 Doraemon from Manga Doraemon:漫画《哆啦 A 梦》里的哆啦 A 梦;该句式还原热门动漫形象效果好,把 from 前后继续对应修改即可。 Surfing:冲浪。会自动关联到《神奈川冲浪里》风格。 Block print:木版画。提升纹理质感。 1700s:年代关键词,提升质感。浮世绘源自 17 世纪,实测 1700s 效果较好。 niji 6:该系列创作使用 niji 6 比 V6 出图效果好。 style raw:更贴近描述词本身。“限制 AI 自由发挥”
2025-02-17
智能体
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 智能体的定义: 智能体是自主系统,通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到目标。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以规划、子目标和分解、反思和完善、记忆、工具使用等关键组成部分。 智能体的类型: 1. 简单反应型智能体(Reactive Agents):根据当前感知输入直接采取行动,不维护内部状态,不考虑历史信息。例如温控器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能推理未来状态变化并据此行动。例如自动驾驶汽车。 3. 目标导向型智能体(Goalbased Agents):具有明确目标,能根据目标评估不同行动方案并选择最优行动。例如机器人导航系统。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动。例如金融交易智能体。 5. 学习型智能体(Learning Agents):能通过与环境交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体。 智能体功能实现: 本智能体主要通过一个工作流实现,采用单 Agent(工作流模式)。工作流全景图按照市场分析报告内容划分,分成 7 个分支处理,每个分支调研并生成报告中的一部分,以发挥并行处理的效率。工作流主要节点包括文本处理节点、必应搜索节点、LinkerReader 节点、代码节点、大模型节点和结束节点。文本处理节点将用户输入与报告主题拼装形成关键词句;必应搜索节点根据关键词句搜索相关网络内容;LinkerReader 节点获取网页详细内容;代码节点对搜索到的网页链接信息进行过滤;大模型节点生成报告内容并添加引用链接;结束节点将 7 部分内容拼接并流式输出。
2025-02-17