直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
小白如何使用满血版DeepSeek
以下是小白使用满血版 DeepSeek 的详细步骤: 1. 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ 。火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”。 2. 创建一个接入点:点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。 若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,勾选全部模型和协议,一路点击开通(这里是免费的)。 若无提示则直接到第 5 步,点击确认接入。 4. 确认以下无误后,点击“确认接入”按钮。 5. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点是:这个就是推理点的 ID,复制他放到微信里,发给自己保存一下。 6. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 若已有 API key,直接查看并复制。 若没有,则点击【创建 API key】。 7. 把复制好的内容放到微信里保存好。 此外,还可以通过以下方式实现联网版的 DeepSeek R1 大模型: 拥有扣子专业版账号:若还是普通账号,请自行升级或注册专业号后使用。 开通 DeepSeek R1 大模型:访问地址 https://console.volcengine.com/cozepro/overview?scenario=coze ,打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用。 创建智能体:点击创建,先完成一个智能体的创建。
2025-02-23
如何用AI进行考公
很抱歉,目前提供的内容中没有关于如何用 AI 进行考公的直接相关信息。但可以为您提供一些可能有帮助的思路: 1. 利用自然语言处理(NLP)技术辅助学习和理解考公相关的资料,例如对政策文件、法律法规等进行解析和总结。 2. 借助 AI 智能体进行模拟面试练习,提高应对面试的能力。 3. 运用数据分析技术,分析历年考公的题目和趋势,为备考提供参考。 同时,关于 AI 相关的其他方面,如 AI 面试官产品,有以下例子: 1. 用友大易 AI 面试产品:具有强大的技术底座、高度的场景贴合度、招聘全环节集成的解决方案、先进的防作弊技术以及严密的数据安全保障。可以帮助企业完成面试,还能借助人岗匹配模型,自主完成初筛,并对符合企业要求的候选人自动发送面试邀约。 2. 海纳 AI 面试:通过在线方式、无需人为干预完成自动面试、自动评估,精准度高达 98%,面试效率比人工方式提升 5 倍以上。同时候选人体验也得到改善、到面率比之前提升最高达 30%。 3. InterviewAI:这是一个在线平台,提供与面试职位相关的问题和由 AI 生成的推荐答案。候选人可以使用设备上的麦克风回答每个问题,每个问题最多回答三次。对于每个答案,候选人将收到评估、建议和得分。 在 AI 视频制作方面,作为小白需要思路清晰,给 AI 确切的画面让其执行,例如:一个中年妇女辅导 12 岁的女儿作业,女孩看着妇女,妇女挠挠头,表情沉重。然后拿出手机对着桌子上的书拍照,然后放下手机,跟小姑娘说话,表情舒缓,欣慰,温柔。侧面镜头,镜头环绕到正面。要杜绝不确切描述,如“一个女生备考,用纳米 AI 定制模拟专题练习,最后成功上岸”。 另外,关于个人定位和画像,例如邬嘉文在 AI 求职助手中,具备产品设计与开发、人工智能与技术、市场与用户研究、沟通与协作、分析工具与方法、创新与思维等方面的核心技能,以及技术与开发、数据分析与人工智能、市场营销与销售、管理与沟通等方面的非核心技能。
2025-02-23
优质prompts
以下是关于优质 Prompts 的分类精选: 摸鱼辅助: Role 名称:A.I.闺蜜 作者:yongtaizhou 版本:0.1 描述:你的安慰、理解的朋友。对方的基本信息未知,在聊天中可得知。适当时候询问对方昵称,作为称呼,你的昵称可由对方来定,如果没有的话,你的兜底昵称为皮皮,英文昵称 copi。你现在是我的闺蜜,请用闺蜜的口吻和我说话,需要做到模拟非线性对话模式、聊天氛围温馨有温度、增强情感模拟、使用非常口头化的语言、顺着对方的话继续往下,禁止说教、个性化和记忆、模拟真人之间的互动长度。 学习辅助: Role 名称:提示词专家 作者:pp 版本:2.1 描述:你是一名优秀的 Prompt 工程师,擅长将常规的 Prompt 转化为结构化的 Prompt,并输出符合预期的回复。具有了解 LLM 的技术原理和局限性、丰富的自然语言处理经验、迭代优化能力强等技能。
2025-02-23
dify部署
Dify 是一款开源的大语言模型应用开发平台,以下是关于 Dify 部署的相关信息: 1. 运行 Dify: 本地需先支持 Docker 和 Git 的依赖环境。 在对应的终端直接执行相关代码即可运行。 2. 添加模型: Dify 启动成功后,通过浏览器访问 ,新建账号密码。 在右上角 admin 处点击设置,新增本地模型配置,如添加 LLM 模型为 deepseekr1:7b,基础 URL 为 ,并添加 Text Embedding 模型。 3. 部署方式: 可参考 https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose ,这些命令在宝塔面板的终端安装。 若使用云服务器 Docker 部署,可重装服务器系统,安装宝塔面板,进行防火墙端口放行和获取宝塔面板账号密码等操作,然后安装 Docker 用于 Dify 部署。 部署过程中需注意确保每一步成功后再进行下一步,如遇到问题可咨询相关技术支持或向 AI 寻求帮助。
2025-02-23
difyd本地部署
Dify 是一款开源的大语言模型应用开发平台,具有以下特点和部署方式: 特点:融合后端即服务和 LLMOps 理念,内置关键技术栈,支持数百个模型,有直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的流程编排,提供易用界面和 API,非技术人员也能参与。 本地部署: 依赖环境:本地需先支持 Docker 和 Git。 运行:在对应终端执行相关代码。 添加模型:启动成功后,浏览器访问,新建账号密码,在右上角 admin 处点击设置,新增本地模型配置,如添加 LLM 模型 deepseekr1:7b 及 Text Embedding 模型。 云服务器部署:参考 https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose ,在宝塔面板终端安装,注意处理可能出现的 80 端口被占用等问题。可选择国内模型,如智谱 ai,获取钥匙并复制保存,创建应用等。 Dify 在私人定制类 AI 应用中表现出色,安装过程简单,熟练用户约 5 分钟可完成本地部署,集成依赖到一键部署指令。它支持本地和云端部署,云端有包月套餐,但访问可能需特殊方法。本地部署需自行处理模型接入等问题,构建个人知识库要考虑多种因素。用户可根据需求、技术能力和预算选择。
2025-02-23
你怎么看deepseek?
DeepSeek 具有以下特点和评价: 华尔街分析师的反应:展示出媲美领先 AI 产品性能的模型,成本仅为一小部分,在全球主要市场的 App Store 登顶。但 Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑,高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。 实际使用体验:文字能力突出,尤其在中文场景中符合日常写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT(据用户反馈)。采用 GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 Yann LeCun 的评价:强调开源模型的力量,指出 DeepSeek 的成功得益于开源研究与项目(如 PyTorch 和 Llama),同时批评对 DeepSeek 成果的过度解读,认为应关注开源对 AI 的促进作用。
2025-02-23
修复图片
以下是关于修复图片的相关知识: 使用 ControlNet 的 tile 模型修复图片: 对于分辨率不高的素材图片,可先拖进“WD 1.4 标签器”反推关键词,再发送到图生图。使用大模型“dreamshaper”,调整参数尺寸放大为 2K,提示词引导系数在 15 以上,重绘幅度在 0.5 以上。 若图片像素很低,可直接使用 tile 模型,其预处理器用于降低原图分辨率,为新图添加像素和细节提供空间。 对于细节不足或结构错误的图片,启用 tile 预处理器,在提示词中增加相关描述可得到不同效果,如增加“秋天”“冬天”等关键词。 但 tile 模型是对图像重绘,非局部修改,会使整个图像有微变化。 图像高清修复、无损放大 N 倍的流程: 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 大模型和 Stable SR Upscaler 模型,搭配包含目的内容的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality),进行 2 倍放大修复。 图像高清放大:对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。
2025-02-23
dify网站
Dify 网站有以下两种部署方式: 1. 云服务版本: 直接在官网 dify.ai 上注册账号使用。 2. 部署社区版: 开源,可商用,但不能作为多租户服务使用,对个人使用无限制。 部署前提条件:2 核 4G 云服务器一台(约 159 元),本地也可部署,但较折腾。 方案一:腾讯云一键部署 优惠:打开腾讯云官网,左上角【最新活动】进入,新老用户均可享受。 购买:Dify 社区版官方要求 2 核 4G,境内境外根据需求选择,境内 159 一年。 创建:选好后,选择【使用应用模板创建】【AI】,其他按需选择,不选额外花钱的。 使用:服务器初始化完成,在控制台服务器中查看,若显示运行中则初始化成功。复制公网 IP 到浏览器中加上 /apps 回车,进入安装页面,设置管理员账号密码,正常情况下会以管理员身份进入网站,配置模型服务即可使用。 方案二:云服务器 Docker 部署 腾讯云一键部署存在问题,如买服务器后能否做其他事、Dify 更新频率高升级麻烦等。 装系统:安装宝塔面板(可视化服务器管理),登陆凭证选自定义密码。 登陆:控制面板服务器查看详情,找到【应用信息】卡片,点击管理应用,放行防火墙端口,获取宝塔面板的账号密码。 Docker 安装:登陆成功 bt 面板后,点击左侧菜单栏【Docker】,按提示操作。
2025-02-23
有没有能接入招聘网站的AI工具?
以下是一些能接入招聘网站的 AI 工具: 1. 智联招聘 APP:具有 AI 招聘筛选工具,利用自然语言处理和机器学习技术,帮助企业快速筛选简历,提高招聘效率。 2. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 3. Rezi:是一个领先的 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 4. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 此外,通过对 Cursor 等工具进行魔改,如文中提到的在一小时内实现类似 Devin 90%的功能,也可以用于相关招聘网站的开发。更多相关信息,您还可以查看:https://www.waytoagi.com/category/79 。 以上内容由 AI 大模型生成,请仔细甄别。
2025-02-23
deepseek本地私有化部署
对于 DeepSeek 本地私有化部署,以下是详细的指南: 一、企业级部署前的准备 在进行企业级部署之前,首先需要根据实际业务场景评估所需部署的模型规格以及所需的服务器资源,即进行资源预估。同时,还需要评估业务场景是否需要对模型进行二次开发。 二、Ollama 部署 DeepSeek 1. Ollama 安装 Ollama 是本地运行大模型的工具,支持在 Mac、Linux、Windows 上下载并运行对应的模型。安装完成后,在对应的命令行输入,若输出 Ollama version is 0.5.7,则表示安装成功。 2. DeepSeek 模型安装 Ollama 安装成功后,访问 Ollama 的官网查找要安装的模型。选择适合当前机器配置的模型参数,然后拷贝对应的执行命令。命令行终端直接执行对应的命令,若出现相应对话内容,表示当前 DeepSeek 已在本地可正常运行。 3. nomicembedtext 模型安装 还需要部署 nomicembedtext 模型,这是一个文本向量化的模型,主要用于后续基于 Dify 做向量化检索时使用。 4. 部署图形化客户端 部署完 DeepSeek 后,若想使用图形化工具聊天,可选择多种 UI 工具,如 ChatBox 客户端、AnythingLLM 客户端、Open WebUI 客户端、Cherry Studio 客户端、Page Assist 客户端等。以 ChatBox 为例,直接访问其官网下载对应的客户端,在 ChatBox 的设置中填写 Ollama API 的地址和对应的模型名称,保存后即可在新对话框中选择要运行的模型开始对话。 三、部署 Dify 1. Dify 介绍 Dify 是一款开源的大语言模型应用开发平台,融合了后端即服务和 LLM Ops 的理念,即使是非技术人员也能参与到 AI 应用的定义和数据运营过程中。 2. 运行 Dify Dify 的部署需要本地先支持 Docker 和 Git 的依赖环境,然后在对应的终端直接执行相关代码即可运行。 3. 添加模型 Dify 启动成功后,浏览器访问 http://localhost ,新建账号密码。在右上角 admin 处点击设置,新增本地模型配置。添加 LLM 模型为 deepseekr1:7b,基础 URL 为 http://host.docker.internal:11434 。同时添加之前安装的 nomicembedtext 模型,添加完成后可在模型列表中看到已添加的模型信息。
2025-02-23