「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
有没有什么作为浮窗存在的 AI 陪伴应用?
以下是一些作为浮窗存在的 AI 陪伴应用: 1. Character.ai:是一个 AI 虚拟陪伴平台,用户可与数百个 AI 驱动的角色交流,还能创建自己的角色并赋予其各种特性。 2. Replika:一款 AI 虚拟陪伴应用,用户能设计理想伴侣,其会存储记忆并在未来对话中参考,甚至发送照片。 3. Talkie:主打情感路线,有大量 npc,游戏和休闲娱乐体验感强,与角色交流过程中会触发抽取卡牌机会。 4. JanitorAI:无限制的 AI 陪伴应用。 5. Spicychat:无限制的 AI 陪伴应用。 6. CrushOn:无限制的 AI 陪伴应用。 每个应用都有其特定的应用场景和功能,您可根据自身具体需求选择合适的产品。
2025-02-07
如何使用deep seek?
使用 DeepSeek 的步骤如下: 1. 访问网址 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 DeepSeek。 3. 认真阅读开场白之后,正式开始对话。 此外,DeepSeek 具有以下特点和相关信息: 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对开发者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为开发者提供了很多思考方向;Thinking Claude 是开发者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源。 同时,关于 DeepSeek 还有以下相关内容: 在 2025 年 2 月 6 日的分享中提到,DP 模型能进行自然语言理解与分析、编程、绘图等,使用时有优势也存在问题,使用时要有自己的思维雏形,其使用场景包括阅读、育儿、写作、随意交流等方面。 在获取 2048 游戏代码方面,DeepSeek 很方便,国内能访问,网页登录便捷,目前完全免费。
2025-02-07
有哪些AI知识库
以下是一些常见的 AI 知识库: 1. 通往 AGI 之路:这是一个由开发者、学者和有志人士参与的学习社区和开源的 AI 知识库。它提供了全面系统的 AI 学习路径,帮助用户了解从 AI 常见名词到 AI 应用等各方面知识。用户可以通过在飞书大群中与机器人对话获取对应的资料。其相关信息包括公众号、网站、内置知识库 AI 助手、B 站、小红书、X(Twitter)等渠道的内容。 2. 大圣的相关知识库:在大圣的中,以 AI 时代的知识库作为例子进行了讲解,目的是帮助非编程人士理解 AI 时代的知识库。
2025-02-07
deepseek入门到精通
以下是关于 DeepSeek 从入门到精通的相关内容: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为作者提供了很多思考方向;Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 此外,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能,包括智能对话、文本生成、代码生成、自然语言理解等,并探讨了如何使用 DeepSeek,包括推理模型与通用模型的区别、提示语设计策略以及如何从入门到精通。文章还介绍了提示语设计的核心技能、常见陷阱及应对方法,旨在帮助用户更好地掌握 AI 工具的使用,提升工作效率和创新能力。 DeepSeek R1 不同于先前的普通模型,它与 OpenAI 现在最先进的模型 o1、o3 一样,同属于基于强化学习 RL 的推理(Reasoning)模型。其标志性表现是在回答用户问题前,会先进行“自问自答”式的推理思考,凭此提升最终回答的质量。这种能力源于其背后独特的“教育方式”,在许多其他的 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已经率先进入了“自学成才”的新阶段。
2025-02-07
用deepseek建立个人知识库
以下是关于用 DeepSeek 建立个人知识库的相关知识: RAG(Retrieval Augmented Generation,检索增强生成)是利用大模型的能力搭建知识库的关键技术。在进行本地知识库搭建实操前,需先了解 RAG。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 应用包括 5 个过程: 1. 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入定制化知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。将文本转换成向量能节省空间,可理解为索引。比如有大文本,可拆分成小文本块并转换成 embeddings 向量,保存在向量储存库作为问答知识库。当用户提问时,问题先转换成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。例如,对于一篇万字长文拆分成多个文本块,提问“此文作者是谁?”,可通过比较 embeddings 向量得出关联度高的文本块。
2025-02-07
waytoAGI有深圳的群吗
WaytoAGI 有深圳的群。以下是相关信息: 11 月 30 日 WaytoAGI 线下聚会城市地址中包含深圳,地址为深圳湾创新科技中心 B 座 F3404&05。 7 月 28 日的 AI 切磋大会将在包括深圳在内的 15 个城市举行线下聚会,活动主题是“摆摊赚钱(AI 技能交换)”。
2025-02-07
提供一些deepseek提示词
以下是一些关于 DeepSeek 的提示词相关信息: 1. 效果对比:用 Coze 做了小测试,可对比查看。访问 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek,认真阅读开场白后正式开始对话。 2. 设计思路:将 Agent 封装成 Prompt 并储存在文件,实现同时使用联网和深度思考功能,优化输出质量,设计阈值系统,用 XML 进行规范设定。 3. 完整提示词:v 1.3 ,特别鸣谢李继刚和 Thinking Claude 等。 4. 使用案例: 借助 AI 分析好文章,如找出喜欢的文章投喂给 deepseek R1,从写作和读者角度分析,询问文章缺点和提升空间,对作者进行侧写等。 让 AI 对自己写的文章点评,给出详细优缺点分析和指导建议。 根据文章内容对作者心理侧写。 5. 集合·DeepSeek 提示词方法论:可查看相关文章,如南瓜博士的相关内容,以及 DeepSeek 官方提示词等。最新文章观点学术报告及业界评论可参考特定链接。R1 模型也有一些使用建议。
2025-02-07
你比deepseek聪明吗
DeepSeek 具有以下优秀特点: 1. 在语气上能够还原特定角色的语气,如帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。 2. 对历史细节非常熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,高级感十足。 此外,DeepSeek R1 属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升回答质量,这种能力源于其独特的“教育方式”,在其他模型还在接受“填鸭式教育”时,它已进入“自学成才”新阶段。 至于我是否比 DeepSeek 聪明,这很难直接比较,因为我们在不同的方面和场景中可能各有优势。
2025-02-07
TTS的最佳解决方案
以下是关于 TTS 的一些最佳解决方案: 在线 TTS 工具推荐: Eleven Labs:https://elevenlabs.io/ ,是一款功能强大且多功能的 AI 语音软件,能高保真地呈现人类语调和语调变化,并能根据上下文调整表达方式。 Speechify:https://speechify.com/ ,是一款人工智能驱动的文本转语音工具,可作为多种平台的应用使用,用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,提供了支持 100 多种语言和方言的语音转文本和文本转语音功能,还提供了自定义的语音模型。 Voicemaker:https://voicemaker.in/ ,可将文本转换为各种区域语言的语音,并允许创建自定义语音模型。 TTS 音库制作和文本前端: 录音文本收集:在一个语种的语音合成建设之初,可同步收集该语种对应的大文本。录音文本的选择一般遵循以下原则: 音素覆盖:构建基础的文本前端,确保录音文本的音素或音素组合尽可能覆盖全。 场景定制:根据通用或特定场景需求,确保相关内容有所覆盖,并与需求方紧密沟通。 文本正确性:确保录音文本拼写无误,内容正确。 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 接口请求域名:https://open.mobvoi.com/api/tts/v1 。 接口请求频率限制:5 次/秒。 可以将任意文本转化为语音,应用场景广泛,提供多种方言、发音人和风格,实时合成支持 SSML。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-07
帮我找到deepseek的培训教程,我是一个技术小白
以下是关于 DeepSeek R1 的培训教程相关内容: DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量(数千条)人工精选的思维链数据进行初步引导,建立起符合人类阅读习惯的推理表达范式。随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。 准确率奖励用于评估 AI 提供的最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间,以便人类观察模型的推理过程。 更有趣的是,DeepSeek 还有一个更加聪明的 R1zero 实验版本,这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1zero 自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。但因为没有微调,R1zero 的输出内容可读性差、语言混合,且风险不可控。所以我们见到的是经过符合人类阅读偏好的冷启动与微调过的 R1 版本,确保 AI 生成内容的稳定、安全、道德、无害。 附:DeepSeek R1 完整训练过程,因文章定位与行文节奏设计,上文仅对影响 R1 涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948 参考文献: 1. 碎瓜波斯兔子《Deepseek R1 可能找到了超越人类的办法》https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ 2. 大聪明赛博禅心《DeepSeek R1 是怎么训练的?》https://mp.weixin.qq.com/s/Wuz0H9jmZYV1jM1YtwTlA 3. 老刘说 NLP《可视化角度具象化理解 DeepSeekR1 类推理大模型的习得进程》https://mp.weixin.qq.com/s/ytKTGTgU2T7jSNrBghX1cA 4. Tianzhe Chu et al.《SFT 记忆,RL 泛化:基础模型训练后的比较研究》https://arxiv.org/html/2501.17161 5. Metaso 长思考对话《RL 和 SFT 在后训练中的区别》https://metaso.cn/s/WGdOwPC
2025-02-07