以下是关于您准备用无影云电脑部署公司专属 AI 并使用 deepseek 满血版大模型的一些建议:
关于AI模型部署与相关知识的讲解本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。免费额度说明:指出在freely.aliyun.com可领取500元免费额度,但有使用限制,不能部署满血版和较大的增流模型。平台服务差异:介绍了DLC、DSW和EAS等模型部署平台服务的差别。模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。Deepseek R1模型的制作及相关模型比较R1模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。R1模型的蒸馏与微调:用Deepseek RE Zero蒸馏出带思考的数据,基于Deepseek V3微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成R1。R1与其他模型的差别:R1是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。模型的相互帮助:Deepseek R1反过来蒸馏数据微调V3,形成互相帮助的局面,使两个模型都更强。
1、注册并登录火山引擎,点击立即体验进入控制台。https://zjsms.com/iP5QRuGW/(火山引擎是字节跳动旗下的云服务平台,在AI领域最为大众所熟知的应该是“豆包大模型”,这里就是源头)2、创建一个接入点点击在线推理--创建推理接入点3、为接入点命名为DeepSeek-R1然后可能会提示:“该模型未开通,开通后可创建推理接入点”。如果有提示,就点击“立即开通”,开通一下就可以了。如果无提示则直接到:第5步,点击确认接入。4、点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的)5、确认以下无误后,点击“确认接入”按钮。6、自动返回创建页面。发现多出一行接入点名是“DeepSeek-R1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的ID,复制他放到你的微信里,发给自己保存一下。7、保存后再点击【API调用】按钮,进入后点击【选择API Key并复制】8、如果你已经有API key了,就直接查看并复制。如果没有,则点击【创建API key】9、把这个复制好之后,也放到你自己微信里,保存好。到这一步,我们已经完成拿到了模型的密钥。接着,我们去把他配置到网页聊天里使用。
这就要先提到API大户OpenRouter新发布的功能:BYOK(Bring Your Own API Keys)简单来说是个第三方Key集成功能,将xAI、OpenAI、Mistral等数十个平台的Key集中在一起。跟其他的集成项目最大的不同是可以同时使用其他平台和OpenRouter的额度。以gemini-2.0-flash为例,相当于可以同时使用OpenRouter和AI Studio的免费额度。目前支持白“赚”的平台:AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI模型太多也不是好事,虽然有快捷键,但编程过程中还是需要人脑判断用哪个模型,我理想的配置应该是:推理模型:o1、gemini-2.0-flash-thinking代码模型:claude-3.5-sonet(还是太能打了)、gpt-4o-mini(价格友好)多模态模型:gemini-2.0-flash常规模型:DeepSeek V3使用OpenRouter集成API Key的好处不仅是整合了免费额度,还解放了更多的槽位。毕竟在Cursor的设置里,deepseek就会跟gpt的配置发生冲突。也就是说虽然我有十几个key,但是我同一时间最多只能使用4个类型的模型。当然,如果觉得这些供应商支持的模型还不够,特别是对国产大模型支持比较少的话,我们还可以使用上古真神:simple-one-api不过simple-one-api不像openrouter,支持直接在线配置多个Key。熟悉代码的可以通过本地或者Docker启动。如果你想跟我一样,在其他环境也想用到配置好的大模型们,我觉得可以试试看Zeabu r: