「AGIへの道」飛書ナレッジベースへ直行 →

deepseep

回答

DeepSeek 是一家中国杭州的人工智能创业公司,在 2024 年引起了广泛关注。

DeepSeek 不是“中国式创新”的产物,其秘方具有硅谷风格。早在 2024 年 5 月 DeepSeek-V2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发小范围轰动。而 2024 年 12 月发布的 DeepSeek-V3 更是令人震撼,以较低成本和较少的硬件训练出的开源模型,多项评测成绩超越了顶级开源模型,与世界顶级闭源模型不相上下。

在硅谷,DeepSeek 受到了不少重要人士的称赞,尽管 OpenAI CEO 有疑似影射其抄袭的推文,但收获的赞誉广泛而真诚,尤其是在开源社区,开发者用脚投票。

此外,还有一个提示词“HiDeepSeek”能让 DeepSeek 的能力更上一层楼。使用方法为:

  1. 搜索 www.deepseek.com,点击“开始对话”。
  2. 将装有提示词的代码发给 Deepseek。
  3. 认真阅读开场白之后,正式开始对话。

其设计思路包括:

  1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻调试负担。
  2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。
  3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。
  4. 照猫画虎参考大模型的 temperature 设计了阈值系统,之后可能根据反馈修改。
  5. 用 XML 来进行更为规范的设定,而非 Lisp 和 Markdown。

特别鸣谢李继刚的【思考的七把武器】为前期提供思考方向,以及 Thinking Claude 和 Claude 3.5 Sonnet。

AIモデルによって生成されたコンテンツであり、慎重に確認してください(提供元: aily)

参照

DeepSeek 的秘方是硅谷味儿的

将DeepSeek比喻成“AI界的拼多多”是偏颇的,认为DeepSeek的秘方就是多快好省也是不全面的。中国的大多数AI公司都缺卡,也都因为缺卡而拼命搞架构创新,这点没什么不同。要知道,DeepSeek在硅谷受到关注和追逐不是这两周刚发生的事。早在2024年5月DeepSeek-V2发布的时候,它就以多头潜在注意力机制(MLA)架构的创新,在硅谷引发了一场小范围的轰动。V2的论文就引发了AI研究界的广泛分享和讨论。当时,一个非常有意思的现象是:X和Reddit上AI从业者在讨论DeepSeek-V2,同时,DeepSeek在国内舆论场被描摹成了“大模型价格战的发起者”,有点平行时空的感觉。这也许能说明:DeepSeek跟硅谷更有对话和交流的密码,它的秘方应该是硅谷味儿的。

一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek

用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手

DeepSeek 的秘方是硅谷味儿的

中国杭州的人工智能创业公司DeepSeek是近一段时间硅谷的AI研究者和开发者的心魔。它在2024年12月发布的大语言模型DeepSeek-V3被认为实现了诸多的不可能:550万美元和2000块英伟达H800 GPU(针对中国市场的低配版GPU)训练出的开源模型,多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等顶级开源模型,亦与GPT-4o和Claude 3.5-Sonnet这样世界顶级的闭源模型不相上下——而训练后者的成本保守估计也要数亿美元和几十万块最强劲的英伟达H100。可以想象它在人工智能界引发的震撼——尤其是在AI领域的研究人员、创业者、资金、算力和资源最扎堆的硅谷。不少硅谷AI领域的重要人士都不吝惜对DeepSeek的称赞,比如OpenAI联合创始人Andrej Kaparthy和Scale.ai的创始人Alexandr Wang。尽管OpenAI CEO Sam Altman发了一条疑似影射DeepSeek抄袭借鉴其它先进成果的推文(很快就被人回怼“是指把Google发明的Transformer架构拿过来用么?),但DeepSeek收获的赞誉确实是广泛而真诚的,尤其是在开源社区,开发者用脚投票。

他の質問
deepseep怎么结合其他ai软件形成工作流
以下是 Deepseek 结合其他 AI 软件形成工作流的相关内容: 工作流程详解: 1. 内容获取: 输入新闻链接,系统自动提取核心内容。 开始节点,入参包括新闻链接和视频合成插件 api_key 。 添加网页图片链接提取插件,承接新闻链接。 获取网页里的图片,以 1ai.net 的资讯为例。 利用大模型节点提取图片链接,只拿提取的链接集合的第一条,搞定新闻主要图片。 调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。 使用链接读取节点,提取文字内容。 在提取链接后面接上大模型节点,用 DeepseekR1 模型重写新闻成为口播稿子。 可在提示词里添加个性化台词防伪。 手动接入推理模型,DeepseekR1 基础版本限额使用。 效果展示: 提供了相关视频示例。 灵感来源: 观察到 Coze 平台上多种视频自动化玩法,介绍如何通过 DeepSeek+Coze 实现新闻播报的自动化生成工作流。 核心功能: 一键提取新闻内容。 智能生成播报文案。 AI 语音合成播报。 自动化视频制作。 全流程无人工干预。 韦恩的相关工作流: 创建名为 r1_with_net 的对话流。 开始节点直接使用默认的。 大模型分析关键词设置:模型为豆包通用模型lite,输入为开始节点的 USER_INPUT,系统提示词为“你是关键词提炼专家”,用户提示词为“根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索”。 bingWebSearch搜索:插件为 BingWebSearch,参数为上一个节点大模型分析输出的关键词,结果为 data 下的 webPages。 大模型R1 参考搜索结果回答:在输入区域开启“对话历史”,模型为韦恩 AI 专用 DeepSeek,输入包括搜索结果和开始节点的 USER_INPUT,开启 10 轮对话历史。 结束节点设置:输出变量选择大模型R1 参考搜索结果回答的输出,回答内容里直接输出:{{output}} 。 测试并发布工作流:输入测试问题,测试完成后直接发布工作流。
2025-02-23
在哪里下载PC的DeepSeep
以下是关于 PC 端 DeepSeek 下载的信息: 有两篇相关论文可供下载,在 PC 端,鼠标移到文章上面会出现下载链接,手机端操作类似。 此外,还提到了一些关于 DeepSeek 的技巧分享,如万能提示词的使用,以及官网搜索不能用时可使用火山的满血版,在视频的最后 10 分钟左右有手把手教程。
2025-02-22