DeepSeek 是中国杭州的人工智能创业公司,其在 2024 年 12 月发布的大语言模型 DeepSeek-V3 引起了巨大震撼。该模型以 550 万美元和 2000 块英伟达 H800 GPU(针对中国市场的低配版 GPU)训练而成,多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等顶级开源模型,与 GPT-4o 和 Claude 3.5-Sonnet 等世界顶级闭源模型不相上下,而训练后者的成本保守估计要数亿美元和几十万块最强劲的英伟达 H100。
DeepSeek 收获了广泛而真诚的赞誉,尤其是在开源社区,开发者用脚投票。但 OpenAI CEO Sam Altman 发了一条疑似影射 DeepSeek 抄袭借鉴其它先进成果的推文(很快就被人回怼)。
将 DeepSeek 比喻成“AI 界的拼多多”是偏颇的,DeepSeek 早在 2024 年 5 月发布 DeepSeek-V2 时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发了小范围轰动,其 V2 的论文引发了 AI 研究界的广泛分享和讨论。当时在国内外舆论场的情况有所不同,这也许说明 DeepSeek 的秘方是硅谷味儿的。
关于如何提升 DeepSeek 的能力,有一个提示词 HiDeepSeek。使用方法为:Step1 搜索 www.deepseek.com,点击“开始对话”;Step2 将装有提示词的代码发给 Deepseek;Step3 认真阅读开场白之后,正式开始对话。其设计思路包括将 Agent 封装成 Prompt 并储存在文件以减轻调试负担,通过提示词文件让 DeepSeek 实现同时使用联网功能和深度思考功能,在模型默认能力基础上优化输出质量等。完整提示词版本为 v1.3,特别鸣谢李继刚的【思考的七把武器】提供了很多思考方向,以及 Thinking Claude 和 Claude 3.5 Sonnet 带来的灵感和帮助。
中国杭州的人工智能创业公司DeepSeek是近一段时间硅谷的AI研究者和开发者的心魔。它在2024年12月发布的大语言模型DeepSeek-V3被认为实现了诸多的不可能:550万美元和2000块英伟达H800 GPU(针对中国市场的低配版GPU)训练出的开源模型,多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等顶级开源模型,亦与GPT-4o和Claude 3.5-Sonnet这样世界顶级的闭源模型不相上下——而训练后者的成本保守估计也要数亿美元和几十万块最强劲的英伟达H100。可以想象它在人工智能界引发的震撼——尤其是在AI领域的研究人员、创业者、资金、算力和资源最扎堆的硅谷。不少硅谷AI领域的重要人士都不吝惜对DeepSeek的称赞,比如OpenAI联合创始人Andrej Kaparthy和Scale.ai的创始人Alexandr Wang。尽管OpenAI CEO Sam Altman发了一条疑似影射DeepSeek抄袭借鉴其它先进成果的推文(很快就被人回怼“是指把Google发明的Transformer架构拿过来用么?),但DeepSeek收获的赞誉确实是广泛而真诚的,尤其是在开源社区,开发者用脚投票。
用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手
将DeepSeek比喻成“AI界的拼多多”是偏颇的,认为DeepSeek的秘方就是多快好省也是不全面的。中国的大多数AI公司都缺卡,也都因为缺卡而拼命搞架构创新,这点没什么不同。要知道,DeepSeek在硅谷受到关注和追逐不是这两周刚发生的事。早在2024年5月DeepSeek-V2发布的时候,它就以多头潜在注意力机制(MLA)架构的创新,在硅谷引发了一场小范围的轰动。V2的论文就引发了AI研究界的广泛分享和讨论。当时,一个非常有意思的现象是:X和Reddit上AI从业者在讨论DeepSeek-V2,同时,DeepSeek在国内舆论场被描摹成了“大模型价格战的发起者”,有点平行时空的感觉。这也许能说明:DeepSeek跟硅谷更有对话和交流的密码,它的秘方应该是硅谷味儿的。