直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
什么是AI
AI(Artificial Intelligence,人工智能)是一门令人兴奋的科学,它旨在使计算机表现出智能行为,例如做一些人类所擅长的事情。 对于AI的理解,对于不具备理工科背景的文科生来说可能较困难,可将其当成一个黑箱,只需要知道它是某种能模仿人类思维、理解自然语言并输出自然语言的东西即可。其生态位是一种似人而非人的存在,技术再发展,这一生态位也不会改变。 从技术层面看,最初计算机由查尔斯·巴贝奇发明,用于按照明确的程序进行数字运算。现代计算机虽更先进,但仍遵循受控计算理念。若知道实现目标的每一步骤及顺序,就能编写程序让计算机做事。但有些任务,如根据照片判断人的年龄,无法明确编程,因为我们不清楚大脑完成此任务的具体步骤,这类任务正是AI所关注的。 在应用方面,GenAI(Generative AI,生成式AI)是基于深度学习技术,利用机器学习算法从已有数据中学习并生成新数据或内容的AI应用。它通过大规模数据集训练深度神经网络模型,学习规律和特征,实现对输入数据的分析、理解和生成,为游戏、娱乐和产品设计等提供解决方案,典型的GenAI包括ChatGPT、GPT4等。AIGC(AIGenerated Content)则指利用GenAI创建的内容,如图像、视频、音频、文本和三维模型,国内主要在相关法律法规框架下对其进行监管。
2025-02-06
怎么本地部署DEEPSEEK
以下是本地部署 DeepSeek 的步骤: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功后会呈现相应状态。 2. 开通 DeepSeek R1 大模型: 访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。 添加在线推理模型,添加后在扣子开发平台才能使用。添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 4. 创建工作流: 创建一个对话流,命名为 r1_with_net,注意是“创建对话流”。 开始节点,直接使用默认的。 大模型分析关键词设置:模型选择豆包通用模型lite,输入直接使用开始节点的 USER_INPUT 作为大模型的输入,系统提示词为“你是关键词提炼专家”,用户提示词为“根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索”。 bingWebSearch搜索:插件选择 BingWebSearch,参数使用上一个节点大模型分析输出的关键词作为 query 的参数,结果中 data 下的 webPages 是网页搜索结果,将在下一个节点使用。 大模型R1 参考搜索结果回答:这里需要在输入区域开启“对话历史”,模型选择韦恩 AI 专用 DeepSeek,输入包括搜索结果和选择开始节点的 USER_INPUT,开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮,系统提示词不需要输入。 结束节点设置:输出变量选择大模型R1 参考搜索结果回答的输出,回答内容里直接输出:{{output}}。 5. 测试并发布工作流:输入您的测试问题,测试完成后,直接发布工作流。
2025-02-06
豆包智能体提示词模版
以下是一些关于智能体提示词模板的相关信息: 相关网站: Majinai: 词图: Black Lily: Danbooru标签超市: 魔咒百科词典: AI词汇加速器: NovelAI魔导书: 鳖哲法典: Danbooru tag: AIBooru: 实际测试: 完成了对词模板生成效果的初步测试后,进一步评估利用生成的提示词模板。目标是检验模型对这些提示词的遵循程度以及生成输出结果的质量。 测试平台包括 GPT4o等。 经过测试,生成的提示词模板在 Claude 模型上展现出最佳输出效果,国内的豆包角色扮演模型表现也不错。 整个活儿: 设计了一套模拟江南皮革厂销售的拟人化提示词模板,并在国内的豆包角色扮演模型上使用,生成了吸引人的广告词。 将这样的提示词与语音技术结合应用于宣传,能创造出有趣有效的销售助手,吸引顾客注意。 写在最后: 感谢阅读文章,希望提供了有价值的见解和实用技巧。 按照惯例,拟人化提示词母体可通过关注微信领取。
2025-02-06
科普下PPO
PPO(Proximal Policy Optimization,近端策略优化)是 OpenAI 提出的一种强化学习优化方法。 在训练 ChatGPT 等模型时,得到 SFT 和 RM 模型后,将它们串联在一起,固定住 RM,利用 RM 的 loss 对 SFT 做梯度回传。PPO 阶段的完整 loss 包含以下几项: 1. 第一项是串联 $$\\pi_{\\phi}^\\text{RL}$$ 和 RM 做联合梯度回传。具体是从 $$\\pi_{\\phi}^\\text{RL}$$ 采样出 prompt 和 completion 样本对,让 RM 模型 $$r_\\theta$$ 做打分和给 loss,通过梯度回传优化 $$\\pi_{\\phi}^\\text{RL}$$ 的参数权重。 2. 第二项是希望新学的 $$\\pi_{\\phi}^\\text{RL}$$ 不要距离初始的 SFT 太远,用 KL 散度约束住两者的输出概率。因为 RM 网络跟 SFT 是绑定的,如果新学的 $$\\pi_{\\phi}^\\text{RL}$$ 输出分布距离 SFT 太远,RM 网络可能就不适用了。 3. 第三项是防止 $$\\pi_{\\phi}^\\text{RL}$$ 过拟合 RM 打分这个任务,添加训练 SFT 的 loss,即从 SFT 训练的数据里面采样包含 prompt 和 completion 的样本,无监督训练 $$\\pi_{\\phi}^\\text{RL}$$ 。 PPOptx 是上述三项系数都不为 0 的情况,而 PPO 是指第三项系数 $$\\gamma$$ 为 0,前两项系数不为 0 的情况。此外,RM 训练和 PPO 训练可以交替进行,即得到新的 $$\\pi_{\\phi}^{\\text{SFT}}$$ 模型后训练一个匹配的 SM 模型,然后固定 SM 模型按 $$\\text{objective}$$ 的损失函数继续训练 $$\\pi_{\\phi}^{\\text{SFT}}$$ 模型,如此交替。 在 GPT 的现状中,例如 ChatGPT 就是一个 RLHF 模型,人类在很多比较中更喜欢来自 RLHF 模型的 token(输出文字),但 RLHF 模型并非在所有情况下都比基础模型有改进,例如会损失一些熵,导致输出变化更小。
2025-02-06
AI Infra 有哪些
AI Infra 主要包括以下方面: 1. 入围的相关工具和服务: Langfuse:大模型应用的开源追踪和分析工具,提供开源可观测性和分析功能,包括在可视化界面中探索和调试复杂的日志和追踪,以及使用直观的仪表板改善成本、降低成本、减少延迟,提高响应质量。 Eden AI:将顶尖 AI API 融合为一,通过为每项 AI 任务选择正确的 AI API 来提高准确性和降低成本,通过集中管理使用限制和成本监测让用户更加放心,并不断探索市场上新兴的 AI 能力。 Langdock:在几分钟内创建、部署、测试和监控 ChatGPT 插件,将 API 连接到 Langdock,并将其作为插件部署到所有大模型应用中,然后使用内置的测试功能来确保一切按预期工作,并在插件扩展时进行监控。 LLM Spark:用于构建生产就绪大模型应用的开发平台。 2. 基础设施成本的演变:目前模型参数和 GPU 计算能力呈指数级增长,但这种趋势是否持续尚不清楚。 3. 基础设施的考虑因素: 外部与内部基础设施的选择:许多创业公司,尤其是应用公司,在成立初期无需建立自己的 AI 基础设施,可采用托管模型服务,如 OpenAI、Hugging Face(针对语言)和 Replicate(针对图像生成)等,这些服务定价基于消费量,通常比运行单独的基础设施更便宜。而一些训练新的基础模型或构建垂直集成 AI 应用程序的公司,则可能需要直接在 GPU 上运行自己的模型,管理基础设施可成为竞争优势的来源。
2025-02-06
提供几篇讲解AI 相关的基本概念、知识框架的文章
以下是为您提供的讲解 AI 相关的基本概念、知识框架的文章: 1. 新手学习 AI 方面: 建议阅读「」部分,熟悉 AI 的术语和基础概念,了解人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并获得证书。 2. 书籍推荐方面: 《认知神经学科:关于心智的生物学》(作者:Michael S.Gazzaniga;Richard B.Lvry;George R.Mangun):世界权威的认知神经科学教材,认知神经科学之父经典力作,系统了解认知神经科学的发展历史、细胞机制与认知、神经解剖与发展、研究方法、感觉知觉、物体识别、运动控制、学习与记忆、情绪、语言、大脑半球特异化、注意与意识、认知控制、社会认知和进化的观点等。 《神经科学原理》(作者:Eric R.Kandel;James H.Schwartz):让您系统神经元的细胞和分子生物学、突触传递、认知的神经基础、感觉、运动、神经信息的加工、发育及行为的出现、语言、思想、感动与学习。 《神经生物学:从神经元到脑》(作者:John G.Nicholls 等著):神经生物学领域内的一本世界级名著,涵盖了神经科学的方方面面,系统介绍了神经生物徐的基本概念、神经系统的功能及细胞和分子机制。 3. 相关文章方面: 《》:这是公众号琢磨事翻译的领英工程师的一篇文章,分享了在领英开发 AI 驱动产品的经验,重点探讨了生成式 AI 的相关内容。 《麻省理工科技评论》发布的《》:万字长文探讨了人工智能的定义和发展,详细阐述了人工智能的基本概念、技术背景及其在各个领域的应用,分析了当前的技术挑战和未来的发展方向,还讨论了人工智能对社会、经济和伦理的影响。
2025-02-06
小白怎么最快时间熟悉使用各种AI热门工具
以下是帮助小白最快熟悉使用各种 AI 热门工具的方法: 1. 对于不太熟悉 AI 常见工具的,可以先阅读。 2. 了解 Coze 工具: 可以直接向 AI 询问相关问题。 Coze 上手极其简单,更新特别快,插件比较多。 能一键生成思维导图等,还能通过工作流实现多种功能,如靠谱搜索、搜索结果出图等。感受各种插件和工作流组合的效果,可参考。 3. 对于普通人直观初接触 AI,主要有两个方面: 最低成本能直接上手试的工具是什么,自己能否试试。 现在最普遍/最好的工具是什么、能达到什么效果。 为了更便捷展示 AI 能力,可选择聊天工具、绘画工具、视频工具、音乐工具展开说明。
2025-02-06
怎么使用chat-gpt
以下是关于如何使用 ChatGPT 的相关内容: 对于产品经理: 1. 背景前提:若不是专业的 BI 工程师,对数据治理、SQL 优化思路等不太了解,可跟着 GPT 的提示及查询资料逐步进行。本次使用的是免费的 ChatGPT3.5 版本。 2. 完整使用过程: Step1:旧代码输入 首先将需要优化的旧代码输入到 ChatGPT 模型中,若直接粘贴 1900 行的旧代码会提示报错,可进行分次输入。分段输入后再联合,让 GPT 理解旧代码实现的效果以及熟悉查询表和字段,方便后续生成优化代码时可直接复制粘贴到数据库中运行。 Step2:需求及现状问题输入 在完成第一步的原 SQL 输入后,将真实的业务需求场景以及现在的问题输入给 GPT。这能帮助 GPT 更好地理解旧代码背后的真实业务需求,结合旧代码运行的问题,让 GPT 进一步给出针对性的优化建议,输出更符合需求的代码。此过程可能有好几轮的输入输出,需要不断强化 GPT 对真实需求的认知。 Step3:根据优化结果不断调试 在输入完旧代码、需求和问题之后,GPT 模型会给出新的代码。需要不断地根据 GPT 的结果进行调试和优化,直到生成满足需求的新代码。过程可能比较繁琐,包括查资料、报错、纠正 GPT、不断补充需求细节等,需要有一定的耐心。 对于英文学习: 推特博主的英语老师制作了一个 GPT 工作流,基于每个人的日常需求生成定制素材。具体使用方法: 1. 先把整段 prompt 喂给 ChatGPT(建议开一个新的对话专门用来学习英文)。 2. 然后 ChatGPT 会扮演你的美国好朋友,每当输入英文和中文表达,ChatGPT 都会返回更地道的表达,并且对其中的俚语部分加粗,更容易帮助学习和记忆。同时针对发送的话题,ChatGPT 会举一反三,结合欧美流行的内容给出更多例子,帮助更好理解和记忆。 3. 建议使用方式:开一个窗口,复制 prompt;手机端打开这条历史记录;点右上角的耳机图标,开始打电话;打电话又能练口语又能练听力;结束之后看回顾,可以帮助阅读。群友也写了一个类似的版本,并放在讯飞上做了尝试,效果不错。
2025-02-06
有哪些开源或免费的AI模型管理平台,可以配置模型,管理Agent的
以下是一些开源或免费的 AI 模型管理平台及相关模型: 1. 智谱·AI: Chat 模型: ChatGLM6Bint4:ChatGLM6B 的 Int4 版本,最低只需 6GB 显存即可部署,最低只需 7GB 显存即可启动微调(、魔搭社区、始智社区、启智社区获取。 ChatGLM6Bint8:ChatGLM6B 的 Int8 版本,上下文 token 数为 2K。可在、魔搭社区、始智社区、启智社区获取。 AgentLM7B:提出了一种 AgentTuning 的方法,开源了包含 1866 个高质量交互、6 个多样化的真实场景任务的 Agent 数据集 AgentInstruct,基于上述方法和数据集,利用 Llama2 微调而成,上下文 token 数为 4K。代码链接为。 AgentLM13B:上下文 token 数为 4K,模型权重下载链接为。 AgentLM70B:上下文 token 数为 8K,模型权重下载链接为。 下载模型:智谱 AI 提供的所有开源模型均可以在以下平台进行下载:。 2. 通义千问: 本地部署 Qwen2.51M 模型:使用以下命令启动服务,根据硬件配置进行设置。参数说明: tensorparallelsize:设置为使用的 GPU 数量。7B 模型最多支持 4 个 GPU,14B 模型最多支持 8 个 GPU。 maxmodellen:定义最大输入序列长度。如果遇到内存不足问题,请减少此值。 maxnumbatchedtokens:设置 Chunked Prefill 的块大小。较小的值可以减少激活内存使用,但可能会减慢推理速度。推荐值为 131072,以获得最佳性能。 maxnumseqs:限制并发处理的序列数量。如果遇到问题,请参考相关内容。 与模型交互:可以使用以下方法与部署的模型进行交互:选项 1.使用 Curl;选项 2.使用 Python。对于更高级的使用方式,可以探索如之类的框架。QwenAgent 使模型能够读取 PDF 文件或获得更多功能。
2025-02-06
据文本自动生成思维导图的软件
以下是一些可以根据文本自动生成思维导图的软件: 1. GPTs 结合 Gapier 这个提供免费 Action 的第三方平台,可以利用 Actions 调取其提供的 API 直接获取内容对应的思维导图。 2. GitMind:免费的跨平台 AI 思维导图软件,支持多种模式,可通过 AI 自动生成思维导图。 3. ProcessOn:国内思维导图+AIGC 的工具,能利用 AI 生成思维导图。 4. AmyMind:轻量级在线 AI 思维导图工具,无需注册登录,支持自动生成节点。 5. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路,生成文章大纲。 6. TreeMind:“AI 人工智能”思维导图工具,输入需求即可由 AI 自动完成思维导图生成。 7. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,帮助提升生产力。 此外,以下是一些可以绘制逻辑视图、功能视图、部署视图的工具: 1. Lucidchart:流行的在线绘图工具,支持多种视图创建,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用,支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种类型图表创建。 7. PlantUML:文本到 UML 转换工具,通过编写描述性文本自动生成相关视图。 8. Gliffy:基于云的绘图工具,提供创建多种架构图的功能。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图。 需要注意的是,部分内容由 AI 大模型生成,请仔细甄别。
2025-02-06