以下是关于 DeepSeek 的相关信息:
以上信息来源包括相关网站和社交媒体的分享。
?宝玉日报「1月31日」✨✨✨✨✨✨✨✨1⃣️?DeepSeek训练成本:训练成本远高于传闻的600万美元,总计约13亿美元。定价低于实际成本,导致高额亏损。Mixture-of-Expert方法降低计算需求,但大规模内存使用可能反而增加总成本。?总结:DeepSeek展示了AI领域的持续创新,但并未如传言般“颠覆”。?[https://x.com/dotey/status/1885368473364103402](https://x.com/dotey/status/1885368473364103402)?来源:[https://www.linkedin.com/posts/gillesbackhus_i-want-to-share-a-few-condensed-things-about-activity-7291076837080723457-JSVH/](https://www.linkedin.com/posts/gillesbackhus_i-want-to-share-a-few-condensed-things-about-activity-7291076837080723457-JSVH/)2⃣️??Mistral AI面临挑战:以低成本开发顶级AI模型,但被中国DeepSeek迅速赶超。曾获法国政府、英伟达、a16z等支持,估值达20亿美元。DeepSeek的“极简算力”模式可能削弱Mistral的竞争优势。?未来:或被科技巨头收购,或需要重新定位。?[https://x.com/dotey/status/1885226709152092573](https://x.com/dotey/status/1885226709152092573)3⃣️⚡扎克伯格:AI变革在即!
将DeepSeek比喻成“AI界的拼多多”是偏颇的,认为DeepSeek的秘方就是多快好省也是不全面的。中国的大多数AI公司都缺卡,也都因为缺卡而拼命搞架构创新,这点没什么不同。要知道,DeepSeek在硅谷受到关注和追逐不是这两周刚发生的事。早在2024年5月DeepSeek-V2发布的时候,它就以多头潜在注意力机制(MLA)架构的创新,在硅谷引发了一场小范围的轰动。V2的论文就引发了AI研究界的广泛分享和讨论。当时,一个非常有意思的现象是:X和Reddit上AI从业者在讨论DeepSeek-V2,同时,DeepSeek在国内舆论场被描摹成了“大模型价格战的发起者”,有点平行时空的感觉。这也许能说明:DeepSeek跟硅谷更有对话和交流的密码,它的秘方应该是硅谷味儿的。
?宝玉日报「2月1日」✨✨✨✨✨✨✨✨1⃣️?批评Deepseek的“低成本”AI用洋垃圾比喻Deepseek,讽刺其“低成本高效率”是空洞的营销噱头。嘲讽其无法与国际大作相比,提出“崇洋媚外”只会让人丢脸。?[https://x.com/dotey/status/1885557681223852208](https://x.com/dotey/status/1885557681223852208)2⃣️?谷歌提供自愿离职选项谷歌为美国平台与设备部门员工提供“自愿离职”选项,欲让员工更专注使命。若自愿离职人数不够,谷歌可能会考虑裁员,部分员工已联合发起请愿。?[https://x.com/dotey/status/1885544437498974338](https://x.com/dotey/status/1885544437498974338)?来源:[https://www.theverge.com/news/603432/google-voluntary-exit-platforms-devices-team](https://www.theverge.com/news/603432/google-voluntary-exit-platforms-devices-team)3⃣️?o3-mini-high每周限制50次Plus用户每周只能使用50次o3-mini-high,每天150次o3-mini。Pro用户无限次使用o3-mini-high,且额度分开计算。?[https://x.com/dotey/status/1885521209703411871](https://x.com/dotey/status/1885521209703411871)4⃣️?OpenAI AMA重点:未来展望与新功能