在 Coze 上做 DeepSeek 的步骤如下:
1. 搜索 www.deepseek.com,点击“开始对话”。
2. 将装有提示词的代码发给 DeepSeek。
3. 认真阅读开场白之后,正式开始对话。
此外,关于 DeepSeek 还有以下相关内容:
设计思路:
将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。
通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。
在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。
照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。
用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。
完整提示词:v 1.3
特别鸣谢:李继刚的【思考的七把武器】在前期为作者提供了很多思考方向;Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
如果官网的搜索不能用,一直崩溃,可以用火山的满血版,在相关视频的最后 10 分钟左右有手把手教程。
同时,还有以下相关的历史更新:
2024 年 7 月 18 日:
《》来自艾木老师,深入研究了 Coze 的多 Agent 模式机制,针对多 Agent 跳转不可靠的现象,分析了 Coze 提供的三种节点跳转模式,包括使用对话模型、独立模型以及自定义模型。通过对《谁是卧底》游戏的节点跳转实例进行解析,揭示了每种模式的应用场景和不足之处。
《》来自暗涌,DeepSeek 是一家低调却引人关注的大模型公司,以独特的技术创新在市上崭露头角。他们发布了价格颠覆性的源模型 DeepSeek V2,引发了中国大模型战。与其他公司不同,DeepSeek 重模型架创新,成功降低成本,受到业内关注。始人梁文锋是技术理想主义者,坚持只做研究探索,希望将中国公司带入全技术创新的浪潮中。
《》来自海外独角兽,各大公司争建设 10 万集群,投入巨大,但建涉及技术挑和运营问题。文章详细分析数据中心的力问题、并行计算方式、网络、可靠性、成本计算等方面,展示 10 万 GPU 集的算力和效率。同时,也出了数据中心设计和网络拓扑结构对于型 AI 训练集的重要性。
2025-02-07