Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI服务器配置

Answer

以下是关于 AI 服务器配置的相关内容:

对于 Coze AI 机器人对接微信的服务器配置:

  1. 如果按照上一篇教程操作,此次配置只需修改容器编排模板。最新的容器编排模板如下,同时提供无描述性的参考配置方便新手直接参考使用。
  2. 若之前没有容器编排模板,新建一个即可,新建和修改逻辑类似。
  3. 更新后的编排模板,若之前创建过相似机器人容器编排服务,建议先删除以防冲突,删除步骤如下。
  4. 基于新的编排模板创建新的容器编排,然后启动服务。
  5. 服务启动成功后,进入 COW 服务扫码绑定微信机器人,具体步骤参考上一篇入门教程。

对于视频相关的 AI 服务器配置:

  1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbp-r8j2ftq0&regionId=8&zone=ap-beijing-3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lh-console ,并根据以下配置购买。
  2. 购买并付款完成后,回到服务器“控制台”。
  3. 点击服务器卡片空白处添加防火墙,添加 8887、8080 端口。
  4. 点击右上角“登录”按钮,扫码验证后在命令行窗口中操作,注意复制粘贴代码的方式和命令执行完毕的标志。
  5. 在命令行中依次输入相关命令。
  6. 保存并打开外网面板地址,输入账号和密码。
Content generated by AI large model, please carefully verify (powered by aily)

References

安仔:喂饭教程 - Coze AI 机器人对接上我的微信群了!

其实这篇教程是我社群上一个大神级好友小雨的启发,他其实也写了一篇类似的文章内容但他跟我讨论了下,要不我来出篇更喂饭级的教程,受他的启发,所以这篇内容就来了!这个新的服务器配置其实也是整篇内容最复杂的地方,但是既然是喂饭级教程,我帮大家将很多代码相关的集成全部隐藏和优化掉了,你们接下来用的就是一些很简单的模板配置,只要基于上一篇教程的编排模板进行修改就可以切换对接上Coze了,是不是要感谢我一下哈哈!接下来我们就开始配置我们的服务器环境吧!1.如果大家是按照我的上一篇教程来的,那么这次的配置就非常简单了,只需要修改一下我们的容器编排模板就可以了。最新的容器编排模板如下:再给一个没有任何描述性的参考配置吧,方便新手小伙伴们直接参考使用:1.如果之前没有容器编排模板的小伙伴,新建一个即可,新建和修改逻辑都是如下图类似的:1.记住,更新好后的编排模板,如果之前自己已经创建过相似的机器人容器编排服务,建议先删掉,以防同一个微信机器人的绑定有冲突,删除步骤如下:1.最后就是基于新的编排模板创建一个新的容器编排,然后启动服务即可:1.等服务启动成功后,我们就可以进入到COW服务扫码绑定我们的微信机器人了!这个具体步骤可以参考我上一篇入门教程:1.至此,我们的服务就已经部署成功了,接下来就可以在我们的微信群里面测试我们的AI机器人了!

零基础模板化搭建 AI 微信聊天机器人

其实这篇教程是我社群上一个大神级好友小雨的启发,他其实也写了一篇类似的文章内容但他跟我讨论了下,要不我来出篇更喂饭级的教程,受他的启发,所以这篇内容就来了!这个新的服务器配置其实也是整篇内容最复杂的地方,但是既然是喂饭级教程,我帮大家将很多代码相关的集成全部隐藏和优化掉了,你们接下来用的就是一些很简单的模板配置,只要基于上一篇教程的编排模板进行修改就可以切换对接上Coze了,是不是要感谢我一下哈哈!接下来我们就开始配置我们的服务器环境吧!1.如果大家是按照我的上一篇教程来的,那么这次的配置就非常简单了,只需要修改一下我们的容器编排模板就可以了。最新的容器编排模板如下:再给一个没有任何描述性的参考配置吧,方便新手小伙伴们直接参考使用:1.如果之前没有容器编排模板的小伙伴,新建一个即可,新建和修改逻辑都是如下图类似的:1.记住,更新好后的编排模板,如果之前自己已经创建过相似的机器人容器编排服务,建议先删掉,以防同一个微信机器人的绑定有冲突,删除步骤如下:1.最后就是基于新的编排模板创建一个新的容器编排,然后启动服务即可:1.等服务启动成功后,我们就可以进入到COW服务扫码绑定我们的微信机器人了!这个具体步骤可以参考我上一篇入门教程:1.至此,我们的服务就已经部署成功了,接下来就可以在我们的微信群里面测试我们的AI机器人了!

【保姆级】做视频有嘴就行!AI一键生成视频和自动剪辑保姆级教程

1、购买服务器直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbp-r8j2ftq0&regionId=8&zone=ap-beijing-3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lh-console2、根据以下配置购买即可3、购买并付款完成后,回到服务器“控制台”4、点击服务器卡片的空白处,去添加防火墙。按照如下方式添加:8887、8080端口,点击确定即可。4、点击右上角的“登录”按钮,扫码验证后,看到一个命令行窗口。下边出现代码,复制的时候,注意复制全。代码我已经分好步骤,每次只需要复制粘贴一行,然后点击一次回车。回车后,只有最左边显示[]中括号时,才是上一个命令执行完毕了。没有出现[]中括号对话前缀时,不要操作。你会发现ctrl+v粘贴不进去,试试shift+ctrl+v粘贴。5、在命令行中,一条一条输入echo"8887">/www/server/panel/data/port.plsudo kill-9$(sudo lsof-t-i:8888)sudo/etc/init.d/bt default6、保存并打开你的外网面板地址,输入账号和密码

Others are asking
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
我公司想部署一个deepseek-R1,用云服务器请问大概需要多少钱?
部署 DeepSeekR1 模型使用云服务器的价格因云计算厂商而异: 华为昇腾社区:部署 DeepSeekR1 模型用 BF16 权重进行推理至少需要 4 台 Atlas 800I A2(864G)服务器,用 W8A8 量化权重进行推理则至少需要 2 台 Atlas 800I A2。服务器调用 Docker 下载部署权重资源,非 API 调用模式。 阿里云(人工智能平台 PAI):以 R1 为例,所需计算资源价格 316.25/小时。模型部署成在线服务,在人工智能平台 PAI 下的模型部署下的模型在线服务 EAS。 阿里云(阿里云百炼):免费额度:10000000/10000000,通过 API 调用。 腾讯云(自建服务器):多机分布式部署,节点数量:2 个,单节点配置:HCCPNV6 机型,可在线体验(需开通 T1 平台服务)。 腾讯云(调用 API):API 调用 DeepSeek 系列模型限时免费。即日起至北京时间 2025 年 2 月 25 日 23:59:59,所有腾讯云用户均可享受 DeepSeekV3、DeepSeekR1 模型限时免费服务,单账号限制接口并发上限为 5。在此之后,模型价格将恢复至原价。 京东云:“deepseekr1:1.5b、“deepseekr1:7b”、“deepseekr1:32b”,1.89/小时起;服务器部署的方式。 gitee ai:R1 价格 0.1 元/次,基于沐曦曦云 GPU 及曦源一号国产替代算力集群,有在线体验。 需要注意的是,价格可能会有所变动,具体以各云计算厂商的最新公布为准。
2025-03-25
如何解决deepseek一直“服务器繁忙,请稍后再试。”的问题?
如果您的 DeepSeek 一直显示“服务器繁忙,请稍后再试”,可以尝试以下方法: 1. 秘塔搜索: https://metaso.cn 2. 360 纳米 Al 搜索: https://www.n.cn/ 3. 硅基流动: https://siliconflow.cn/zhcn/ 4. 字节跳动火山擎: https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 5. 百度云千帆: https://login.bce.baidu.com/ 6. 英伟达: https://build.nvidia.com/deepseekai/deepseekr1 7. Groq: https://groq.com/ 8. Chutes: https://chutes.ai/app 9. 阿里云百炼: https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 10. Github: https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground 11. POE: https://poe.com/DeepSeekR1 12. Cursor: https://cursor.sh/ 13. Monica: https://monica.im/invitation?c=ACZ7WJJ9 14. Lambda: https://lambdalabscom/6 15. Cerebras: https://cerebras.ai 16. Perplexity: https://www.perplexity.ai 17. 阿里云百炼: https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 另外,国内版的 Trae 目前有三个模型可供选择,都是免费无限量使用,包括 DeepSeek 系列模型,速度令人满意,能够较快地给出回答,没有遇到“服务器繁忙”的提示。 您还可以通过以下步骤解决“服务器繁忙”的问题: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 2. 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 3. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 4. 添加“DeepSeekR1”模型。 5. 打开联网功能,还可以支持联网搜索使用 R1。
2025-03-16
Deepseek网页端使用,总是出现服务器繁忙,请稍后再试,怎么办?请注意,我所使用的是Macbook
如果您在使用 DeepSeek 网页端时总是出现“服务器繁忙,请稍后再试”的提示(使用的是 Macbook),可以尝试以下方法: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。然后打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 2. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeekR1”模型。 3. 如果上述方法不行,还可以尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1
2025-02-26
Deepseek网页端使用,总是出现服务器繁忙,请稍后再试,怎么办
如果在 DeepSeek 网页端使用时总是出现“服务器繁忙,请稍后再试”的情况,您可以尝试以下方法: 1. 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。然后打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 2. 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeekR1”模型。 3. 如果上述方法不行,您还可以尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 需要注意的是,部分网站可能需要特殊网络环境。
2025-02-26
如何在本地服务器上微调LLM
在本地服务器上微调 LLM 可以参考以下内容: 1. 提示词工程: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,其中 INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应注意用无关紧要的工具作示例。tools_instructions 可通过输入不同工具动态调整,让 LLM 得知可用工具及使用方法。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受相关角色的 LLM 接口,可改为回传给 user 角色。 2. 微调方法: 传统微调:采用在通用数据集上预训练的模型,复制模型后在新的特定领域数据集上重新训练,但大型语言模型微调面临训练时间长、计算成本高等挑战。 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战,参数可以是现有模型参数的子集或全新的参数。 为使微调达到最佳效果,应从明确目标和高质量数据集开始,使用体现所需输出类型的数据,进行迭代测试,从小的渐进变化开始并评估结果。 对于 OpenAI 的模型,微调包括使用其提供的 API 在数据集上进一步训练,需调整超参数并监控性能。对于开源 LLM,微调可能需要更多实践工作,包括设置训练环境、管理数据流及调整模型架构。 对于需要快速迭代新用例的场景,微调作用较小。要实现微调功能,需创建大型训练数据集,整理成适当格式,启动训练任务并评估性能。建立模型改进工作流程,监控性能变化,依据反馈改进模型,记录生成的模型及评分指标,许多 LLMOps 平台能自动收集和显示最佳数据,方便微调。
2025-02-21
deepseek经常服务器繁忙的解决方案?
以下是一些解决 DeepSeek 服务器繁忙的方案: 1. 尝试以下搜索网站: 秘塔搜索:https://metaso.cn 360 纳米 AI 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 2. 可以通过以下步骤使用网页聊天解决: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 3. 还可以使用以下网站(部分需要魔法,不做教学支持): 秘塔搜索:https://metaso.cn 360 纳米 AI 搜索:https://www.n.cn/(bot.n.cn) 硅基流动:https://cloud.siliconflow.cn/i/RjJgQqae AskManyAI:https://dazi.co/login?i=7db38e6e 字节跳动火山引擎:https://console.volcengine.com/ark/region:ark+cnbeijing/experience 百度云千帆:https://console.bce.baidu.com/qian3an/modelcenter/model/buildIn/list 英伟达 NIM Groq:https://groq.com/ Fireworks:https://fireworks.ai/models/fireworks/deepseekr1 Chutes:https://chutes.ai/app/chute/ Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabs.com/ Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1
2025-02-20
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出10个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您生成的 10 个业务价值高、具备可行性的 AI 应用场景介绍: 1. 人才招聘与筛选 What:利用 AI 技术对求职者的简历进行自动筛选和分析,评估其与岗位的匹配度。 Why:节省 HR 大量的时间和精力,提高招聘效率和准确性。 How:通过自然语言处理和机器学习算法,训练模型识别关键信息和技能。 2. 员工培训与发展 What:根据员工的技能水平和职业发展目标,定制个性化的培训计划。 Why:提升员工的能力和绩效,增强员工对企业的忠诚度。 How:利用大数据分析员工的工作表现和学习需求,推荐相关课程和学习资源。 3. 薪酬福利管理 What:运用 AI 预测市场薪酬趋势,为企业制定合理的薪酬策略。 Why:保持企业薪酬的竞争力,吸引和留住优秀人才。 How:收集和分析行业薪酬数据,结合企业的财务状况和战略目标进行优化。 4. 员工绩效评估 What:借助 AI 实时监测员工的工作表现,提供客观的绩效评估。 Why:减少人为偏差,确保评估的公正性和准确性。 How:利用工作流程数据和行为分析模型进行评估。 5. 员工关系管理 What:通过 AI 分析员工的情绪和满意度,及时发现问题并解决。 Why:营造良好的工作氛围,提高员工的工作积极性和创造力。 How:使用情感分析技术处理员工的反馈和交流信息。 6. 组织架构优化 What:利用 AI 分析企业的业务流程和人员配置,提供组织架构调整建议。 Why:提高企业的运营效率和灵活性,适应市场变化。 How:基于数据分析和模拟优化算法进行评估和推荐。 7. 人力资源规划 What:根据企业的战略目标和业务发展预测人力资源需求。 Why:提前做好人才储备和招聘计划,保障企业的正常运营。 How:运用数据分析和预测模型进行规划。 8. 企业文化传播 What:使用 AI 生成个性化的企业文化宣传内容,提高传播效果。 Why:增强员工对企业文化的认同感和归属感。 How:利用自然语言生成技术和个性化推荐算法。 9. 智能客服 What:在 HR 服务中引入 AI 客服,解答员工常见问题。 Why:快速响应员工需求,提高服务质量。 How:训练智能客服模型,涵盖常见的 HR 问题和解决方案。 10. 人才库管理 What:利用 AI 对人才库进行分类和更新,提高人才库的利用效率。 Why:方便快速找到合适的人才,降低招聘成本。 How:运用数据挖掘和分类算法进行管理。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出3-5个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您提供的 3 个业务价值高、具备可行性的 AI 应用场景介绍: 场景一:AI 在企业招聘中的应用 What:利用 AI 技术进行简历筛选、人才匹配和面试评估。 Why:能够快速处理大量简历,提高招聘效率和准确性,节省人力和时间成本,同时更精准地找到符合岗位需求的人才。 How:通过引入相关的 AI 招聘软件,与企业现有的招聘系统集成,对简历进行关键词提取和分析,利用机器学习算法进行人才匹配,并通过视频面试中的语音和表情分析辅助评估候选人。 场景二:AI 助力个性化人力资源管理 What:根据员工的个人特点和工作表现,提供个性化的培训计划、职业发展建议和绩效评估。 Why:能够充分发挥员工的潜力,提高员工满意度和忠诚度,促进企业的长期发展。 How:收集员工的工作数据、学习记录和绩效表现等信息,运用 AI 算法进行分析和预测,为员工制定专属的发展方案,并通过移动应用或内部系统向员工推送相关建议和培训课程。 场景三:AI 打造无人值守的 HR 平台 What:实现 HR 业务的自动化处理,如员工请假审批、薪酬计算和福利发放等。 Why:减少人工操作的错误和繁琐流程,提高 HR 工作的效率和准确性,使 HR 人员能够专注于更有价值的战略工作。 How:整合企业内部的各种 HR 系统和数据,利用 RPA 和 AI 技术实现流程的自动化,同时建立监控和预警机制,确保平台的稳定运行。
2025-04-14
微信机器人如何配置
微信机器人的配置步骤如下: 1. sum4all 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 sum4all 插件目录下的 config.json.template,复制并粘贴重命名为:config.json 注册并获取 sum4all key:https://pro.sum4all.site/register?aff=T6rP ,新用户注册有送免费额度,大家先使用这个进行试用,后续可改为自己的 openAI key。 把复制的 key,粘贴到 sum4all 的 config.json 文件内。(上方有功能阐述,你想要哪个,就把哪个改成 ture) 2. Apilot 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 Apilot 文件下的 config.json.template,复制并粘贴重命名为:config.json 去 https://admin.alapi.cn/account/center 注册,并复制 key 把复制来的 key,粘贴进入。保存。 3. 分段对话配置替换 找到这个路径:/root/chatgptonwechat/channel/wechat,直接下载以下文件进行替换。 此外,微信的配置相对较简单,只需要主项目的 config.json 文件看看是否有"channel_type"参数,参数值为:"wx",即:"channel_type":"wx"。完成以上所有配置部分后,可以准备启动步骤了: 使用 nohup 命令在后台运行程序。 执行完启动脚本,等待 30s 左右,会看到终端有一个微信登录的二维码,微信扫码登录。 如果您想使用更多辅助功能,比如使用总结文件能力,总结网页内容能力,此时需要安装各种插件。这部分配置查看插件配置管理部分。
2025-04-10
有没有专门学习配置微信机器人和企业微信机器人的相关教学视频
以下是一些专门学习配置微信机器人和企业微信机器人的相关教学视频: 【共学最全版本】微信机器人共学教程: 日程安排: 6 月 19 日 20:00 开始:从零到一,搭建微信机器人,参与者要求为 0 基础小白,分享人为张梦飞,主持人为小元,助教为金永勋、奥伏。 6 月 20 日 20:00 开始:Coze 接入、构建你的智能微信助手,分享人为张梦飞,主持人为吕昭波,助教为安仔、阿飞。 6 月 23 日 20:00 开始:微信机器人插件拓展教学,要求完成第一课,分享人为张梦飞,主持人为安仔,助教为空心菜、AYBIAO、阿飞。 6 月 24 日 20:00 开始:虚拟女友“李洛云”开发者自述,要求完成第一课,分享人为皮皮,主持人为大雨。 6 月 25 日 20:00 开始:FastGPT:“本地版 coze"部署教学,要求完成第一课,分享人为张梦飞,主持人为银海,助教为金永勋、AYBIAO。 6 月 27 日 20:00 开始:Hook 机制的机器人使用和部署教学,要求 0 基础小白,有一台 Windows 10 以上系统的电脑,分享人为张梦飞,主持人为 Stuart,助教为阿飞、空心菜。 第二天教程内容: 修改配置:主要更改标黄的四行,可以直接清空原文件配置,把以下配置粘贴进你的 config.json 文件中。 获取 key 和 id:进入官网 https://www.coze.cn/home ,获取到的令牌就是"coze_api_key",像下方一样填入即可。"coze_api_key":"pat_diajdkasjdlksajdlksajdasdjlkasjdlas",获取 bot_id 并填入:"coze_bot_id":"86787989080"。 微信机器人大事件记录: 皇子:零成本、零代码搭建一个智能微信客服,保姆级教程 安仔:不用黑魔法,小白也能做一个对接 GPT 大模型的微信聊天机器人 张梦飞:【保姆级】一步一图,手把手教你把 AI 接入微信 张梦飞:FastGPT+OneAPI+COW 带有知识库的机器人完整教程 张梦飞:基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 张梦飞:【保姆级教程】这可能是你在地球上能白嫖到的,能力最强的超级微信机器人!一步一图,小白友好 在自己的电脑上部署 COW 微信机器人项目
2025-04-04
本地部署大模型硬件配置
本地部署大模型的硬件配置如下: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置可能运行速度非常慢。对于 SDXL 大模型的本地部署,其分为两个部分,base + refiner 是必须下载的,还有一个配套的 VAE 模型用于调节图片效果和色彩。要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上,然后将模型放入对应的文件夹中。对于通义千问的 Qwen2.5 1M 模型的本地部署,使用以下命令启动服务时要根据硬件配置进行设置,如设置 GPU 数量、最大输入序列长度、Chunked Prefill 的块大小、限制并发处理的序列数量等。如果遇到问题,可参考相关的 Troubleshooting 内容。与模型交互可以使用 Curl 或 Python 等方法,对于更高级的使用方式,可以探索如 Qwen Agent 之类的框架。
2025-03-31
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26