Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么在企业微信里接入deepseek

Answer

在企业微信里接入 DeepSeek 的步骤如下:

  1. 注册并登录火山引擎,点击立即体验进入控制台。链接:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头)
  2. 创建一个接入点,点击在线推理--创建推理接入点。
  3. 为接入点命名为 DeepSeek-R1。
  4. 若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,开通一下(这里是免费的)。若无提示则直接到第 5 步,点击确认接入。
  5. 确认以下无误后,点击“确认接入”按钮。
  6. 自动返回创建页面。发现多出一行接入点名是“DeepSeek-R1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到你的微信里,发给自己保存一下。
  7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。
  8. 若已有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】。
  9. 把复制好的内容,也放到自己微信里保存好。

至此,我们已经完成拿到了模型的密钥。接着,就可以去把它配置到网页聊天里使用。

Content generated by AI large model, please carefully verify (powered by aily)

References

羊毛快薅|字节火山上线了DeepSeek系列模型并悄悄更改了模型服务价格...

连夜给小伙伴们安排小白教程,这羊毛咱们必须得薅上。我多遍重复了流程,整个操作比上篇更加简易,只需5分钟就可以接入一个专属于你自己的DeepSeek-R1(满血版)了![heading2]一、获取DeepSeek-R1满血版密钥[content]1、注册并登录火山引擎,点击立即体验进入控制台。https://zjsms.com/iP5QRuGW/(火山引擎是字节跳动旗下的云服务平台,在AI领域最为大众所熟知的应该是“豆包大模型”,这里就是源头)2、创建一个接入点点击在线推理--创建推理接入点3、为接入点命名为DeepSeek-R1然后可能会提示:“该模型未开通,开通后可创建推理接入点”。如果有提示,就点击“立即开通”,开通一下就可以了。如果无提示则直接到:第5步,点击确认接入。4、点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的)5、确认以下无误后,点击“确认接入”按钮。6、自动返回创建页面。发现多出一行接入点名是“DeepSeek-R1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的ID,复制他放到你的微信里,发给自己保存一下。7、保存后再点击【API调用】按钮,进入后点击【选择API Key并复制】8、如果你已经有API key了,就直接查看并复制。如果没有,则点击【创建API key】9、把这个复制好之后,也放到你自己微信里,保存好。到这一步,我们已经完成拿到了模型的密钥。接着,我们去把他配置到网页聊天里使用。

XiaoHu.AI日报

可将任何大语言模型变成“计算机使用代理”,执行用户指令(点击、输入、拖拽等)。解析屏幕截图,将像素转换为结构化数据,提高LLM识别能力。相较于V1,V2速度和功能提升60%,支持多种操作系统和应用程序图标识别。OmniTool:微软推出的测试工具,开发者可通过Docker容器快速部署。?详细介绍:[https://xiaohu.ai/c/a066c4/omniparser-v2-6d988f46-ab1a-40f5-81f1-91e7fd5f008d](https://xiaohu.ai/c/a066c4/omniparser-v2-6d988f46-ab1a-40f5-81f1-91e7fd5f008d)?GitHub:[https://github.com/microsoft/OmniParser/tree/master](https://github.com/microsoft/OmniParser/tree/master)3⃣️?微信接入DeepSeek,AI搜索体验升级!微信“搜一搜”正在灰度测试接入DeepSeek-R1模型。部分用户可在对话框顶部搜索“AI搜索”进入体验。若未显示入口,则表示测试暂未覆盖,可等待后续开放。?[https://x.com/imxiaohu/status/1890945986991702388](https://x.com/imxiaohu/status/1890945986991702388)4⃣️?DeepSeek团队公布DeepSeek-R1部署最佳设置!

XiaoHu.AI日报

可将任何大语言模型变成“计算机使用代理”,执行用户指令(点击、输入、拖拽等)。解析屏幕截图,将像素转换为结构化数据,提高LLM识别能力。相较于V1,V2速度和功能提升60%,支持多种操作系统和应用程序图标识别。OmniTool:微软推出的测试工具,开发者可通过Docker容器快速部署。?详细介绍:[https://xiaohu.ai/c/a066c4/omniparser-v2-6d988f46-ab1a-40f5-81f1-91e7fd5f008d](https://xiaohu.ai/c/a066c4/omniparser-v2-6d988f46-ab1a-40f5-81f1-91e7fd5f008d)?GitHub:[https://github.com/microsoft/OmniParser/tree/master](https://github.com/microsoft/OmniParser/tree/master)3⃣️?微信接入DeepSeek,AI搜索体验升级!微信“搜一搜”正在灰度测试接入DeepSeek-R1模型。部分用户可在对话框顶部搜索“AI搜索”进入体验。若未显示入口,则表示测试暂未覆盖,可等待后续开放。?[https://x.com/imxiaohu/status/1890945986991702388](https://x.com/imxiaohu/status/1890945986991702388)4⃣️?DeepSeek团队公布DeepSeek-R1部署最佳设置!

Others are asking
我想用豆包读取微信里的内容,应该怎么做?
要使用豆包读取微信里的内容,可参考以下步骤: 1. 抓取公众号内容: 先在平台搜索现成的插件,如 Coze 平台,但部分插件已荒废无法使用。 可考虑自己写爬虫抓取,或者寻找现成的服务通过 API 方式调用。例如“瓦斯阅读”可以抓取部分公众号内容,但存在公众号不全的问题。还可以尝试 GitHub 上的 WeWe RSS 工具,通过微信读书的方式订阅公众号。 2. 公众号内容总结: 主要依靠大模型的能力,如字节的豆包大模型可以胜任。涉及批量对抓取到的公众号内容进行总结,可使用“批处理”功能。 3. 定时推送到微信: 定时方面,Coze 平台的触发器可以实现。 推送到微信方面,Coze 平台没有这类插件,可寻找第三方 API 的方案,如“server 酱”,通过服务号的模板消息将自定义内容推送到微信。 另外,关于将 AI 接入微信,还可参考以下步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。 2. 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”进行更改。 3. 此后进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。 4. 然后,重新在“文件”的【终端】里,直接输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 5. 关于添加插件,可参考。 6. 接入机器人的步骤: 回到宝塔,选择 Docker(若未安装则进行安装,安装完成后刷新页面确认安装成功)。 回到宝塔终端,粘贴代码并回车。 去文件列表,到根目录/data/cozediscordproxy 新建文件并命名为 dockercompose.yml,粘贴代码并替换相关 ID 和 token 后保存。 在文件位置的上方点击终端,粘贴相关代码。若启动失败,可能是 docker 拒绝代理访问问题,可先关掉 clash 再执行代码。 进入相关文件夹和文件进行替换和修改,最后在文件顶部的“终端”内粘贴执行。 使用微信扫码(建议使用小号)完成。
2024-10-23
扣子生成的BOT如何在微信里用
将扣子生成的 BOT 发布到微信主要有两种方式:发布到微信订阅号和发布到微信客服。 发布到微信订阅号: 使用限制: 一个 Bot 只能发布到一个微信订阅号。 支持在回复订阅号时上传图片,但图片大小不能超过 10MB。 每次回复消息时,只能回复一张图片。 如果模型返回的是图文混排的内容,则直接返回完整的 Markdown 内容。 如果模型生成了多张 Markdown 语法的图片内容,最终会解析返回第一张图片,多余图片会被丢弃。 前提条件: 已经创建了微信订阅号。 已经配置了 Bot。 步骤: 获取微信订阅号的开发者 ID: 1. 访问并登录您的订阅号。 2. 在设置与开发>基本配置页面,获取开发者 ID。 在扣子中配置并发布 Bot: 1. 在 Bots 页面,选择需要发布的 Bot。 2. 在 Bot 编排页面,单击发布。 3. 在发布页面,找到微信公众号(订阅号)发布渠道,单击配置。 4. 在 AppID 输入框内,填写微信订阅号的开发者 ID,并单击保存。 5. 跳转到公众平台账号授权页面,使用公众平台绑定的管理员个人微信号扫描二维码。 6. 在微信移动端,根据页面提示选择订阅号并确认授权。 7. 授权成功的页面提示如下: 8. 返回 Bot 发布页面,选中微信公众号(订阅号)发布平台,并设置发布记录后,单击页面右上角的发布。 成功发布后,您可以前往微信订阅号与 Bot 对话。 发布到微信客服: 支持在回复微信客服时上传图片,但图片大小不能超过 10MB。 确保已经完成了企业认证。 前提条件: 已开通了。 已搭建了 Bot。 步骤: 获取微信客服配置信息: 1. 登录平台。 2. 单击企业信息,然后复制企业 ID。 3. 单击开发配置,然后再单击开始使用。 4. 单击随机获取按钮分别生成并保存 Token 和 EncodingAESKey。复制 Token 和 EncodingAESKey 后,先不要关闭该页面。 在扣子中配置微信客服信息: 1. 在 Bots 页面,选择需要发布的 Bot。 2. 在 Bot 编排页面,单击发布。 3. 找到微信客服渠道,然后单击配置。 4. 输入步骤一中复制的企业 ID,然后单击下一步。 5. 输入步骤一中复制的 Token 和 EncodingAESKey,然后单击下一步。 6. 复制 webhook 地址。复制 webhook 地址后,先不要关闭该配置窗口。 配置回调地址: 1. 回到步骤一中的开始企业接入页面,输入上一步中复制的 webhook 地址。单击完成。确保粘贴回调地址时没有引入空格,空格会导致校验失败。 2. 在开发配置页面,复制 secret。 3. 单击客服账号,复制账号。 发布 Bot: 1. 回到扣子平台的微信客服渠道配置页面,输入复制的 secret 和客服名称。 2. 单击保存。 3. 在发布记录中输入发布信息,然后勾选微信客服渠道,再单击发布。 4. 发布完成后,单击立即对话登录微信客服,体验 Bot 效果。 常见问题: 如果收不到机器人回复消息,可尝试通过以下方法解决: 查看微信客服的启用状态: 1. 登录,在应用管理页面,点击微信客服。 2. 确保没有启用微信客服功能。如果已经开启了微信客服功能,需要关闭。关闭后,该应用在工作台入口将被隐藏,员工不可使用。请谨慎评估。 检查近期是否有登录企业微信应用。 确保企业至少有一个成员通过手机号验证/微信授权登录过企业微信应用。 如果还是有问题,可以发送邮件至 feedback@coze.cn 反馈。
2024-10-08
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
我想让DEEPSEEK帮我写一篇论文,题目已经定好了,怎么给他输入指令
以下是给 DeepSeek 输入指令以帮助您写论文的一些建议: 1. 采用结构化提示词: 优先保留专业领域术语和技术词汇,这些术语通常具有高信息价值。 对不同类型的信息设置权重,按优先级排序:任务定义>关键约束>专业术语>定量信息>方法论>背景。 以完整语义单元为基本保留单位,而非单个词语,确保压缩后的内容仍保持语义完整性。 避免详细指导思考过程,让模型自主生成思维链。 2. 高阶能力调用: 文风转换矩阵:例如“用鲁迅杂文风格写职场 PUA 现象”“将产品说明书改写成《史记》列传格式”“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略: 创意内容生成。 技术方案论证。 4. 效能增强技巧: 对话记忆管理:包括上下文锚定(如“记住当前讨论的芯片型号是麒麟 9010”)、信息回溯(如“请复述之前确认的三个设计原则”)、焦点重置(如“回到最初讨论的供应链问题”)。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题,使用相应的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:使用概念脱敏法(如“用经济学原理类比说明网络审查机制”)或场景移植法(如“假设在火星殖民地讨论该议题”)。 在输入指令时,您需要清晰明确地描述论文的题目、研究目的、主要论点、关键论据、期望的结构和风格等重要信息,以便 DeepSeek 能够为您生成符合要求的内容。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
Deepseek自动生成网站前端页面
以下是关于 DeepSeek 自动生成网站前端页面的相关内容: DeepSeek v3 能力更新后虽能生成炫目的前端页面,但多为静态且实用性有限。可结合飞书多维表格将生成的漂亮前端变为真实的系统,如【智能作业分发系统】。 该系统整体包括用户登陆(可加飞书调查表二维码实现注册)、作业类型、作业详情(含连连看游戏、AI 智能问答、考试系统)。其实现逻辑为用户登陆系统后进入页面看到老师分配的作业分类,选择分类进入作业详情页面,详情页有学习单词发音及三个模块。 对于小白,可用飞书作数据源,通过飞书 API 接口获取内容,用 DeepSeek v3 制作前端+后端(用 Trae 更方便)。获取请求参数时,测试成功后的示例代码中有完整的请求参数和请求体可直接复制使用。创建前后端时,若用 DeepSeek 官网搭建需按代码目录结构创建对应文件(用 Trae 可省略),首次运行可能遇到飞书 API 未正确配置 CORS 导致浏览器拦截请求的问题,V3 会给出修改意见。 此外,Same dev 能像素级复制任意 UI 界面并生成前端代码,支持多种文件格式和技术栈代码,但免费额度消耗快,网站被谷歌标记。360 智脑复现了 DeepSeek 强化学习效果并发布开源模型 LightR114BDS。 AI 时代生存法则:会提需求比会写代码更重要,会开脑洞比会复制粘贴更值钱,真正的大佬都是让 AI 当乙方!
2025-04-13
deepseek写论文
以下是关于 DeepSeek 在不同方面应用的相关信息: 应用场景:包括脑爆活动方案、会议纪要、批量处理客户评论、分析总结复盘内容、生成专业软件使用过程、写小说框架、写论文、写文案、写小红书笔记、写周报、做设计头脑风暴、做网站、分析感情问题等。 优势与不足:在写文方面全面领先,但长文可能太发散、文风用力过猛导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 应对策略:写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成;用 O1 模型对创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。 创作相关:模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征;邀请大家在腾讯频道发布用 AI 写的小说并鉴赏。 发展历程:DeepSeek 历时 647 天在大语言模型(LLM)领域取得突破,发布 13 篇论文。谷歌 CEO 坦言 Deep Seek 的突破标志着 AI 的全球化进程。
2025-04-13
使用Deepseek写论文有哪些固定指令模板
以下是使用 DeepSeek 写论文的一些指令模板: 1. 进阶控制技巧: 思维链引导: 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 知识库调用: 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 多模态输出 2. 高级调试策略: 模糊指令优化: 问题类型:宽泛需求 修正方案:添加维度约束 示例对比:原句:“写小说”→修正:“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构” 问题类型:主观表述 修正方案:量化标准 示例对比:原句:“写得专业些”→修正:“符合 IEEE 论文格式,包含 5 项以上行业数据引用” 迭代优化法: 首轮生成:获取基础内容 特征强化:请加强第三段的技术细节描述 风格调整:改用学术会议报告语气,添加结论部分 最终校验:检查时间逻辑一致性,列出可能的事实性错误 3. 核心原理认知: AI 特性定位: 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 系统响应机制: 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 4. 基础指令框架: 四要素模板 格式控制语法: 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 5. 高阶能力调用: 文风转换矩阵: 作家风格移植:“用鲁迅杂文风格写职场 PUA 现象” 文体杂交:“将产品说明书改写成《史记》列传格式” 学术口语化:“把这篇论文摘要翻译成菜市场大妈能听懂的话” 领域穿透技术:行业黑话破解→“解释 Web3 领域的‘胖协议瘦应用’理论” 商业决策支持 6. 场景化实战策略: 创意内容生成 技术方案论证 7. 效能增强技巧: 对话记忆管理: 上下文锚定:“记住当前讨论的芯片型号是麒麟 9010” 信息回溯:“请复述之前确认的三个设计原则” 焦点重置:“回到最初讨论的供应链问题” 输出质量控制: 问题类型:过度抽象 修正指令:“请具体说明第三步操作中的温度控制参数” 问题类型:信息过载 修正指令:“用电梯演讲格式重新组织结论” 问题类型:风格偏移 修正指令:“回归商务报告语气,删除比喻修辞” 8. 特殊场景解决方案: 长文本创作: 分段接力法:“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应” 敏感内容处理: 概念脱敏法:“用经济学原理类比说明网络审查机制” 场景移植法:“假设在火星殖民地讨论该议题”
2025-04-13
coze的智能体如何接入微信?
要将 Coze 智能体接入微信,可按以下步骤操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,可以看到运行的是两个服务。 2. 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效作为过期时间,指定团队空间,勾选所有权限。保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏 bot/之后的数据就是该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 绑定微信:准备一个闲置的微信,点击容器,点击“wcandyaibot”后面的日志按钮,用提前预备好的微信进行扫码。手动刷新界面,点击“刷新日志”,若看到 WeChat login success,即表示微信登录成功。为确保微信实时在线,点击“日志管理”的“wcandyaibot”的“刷新日志”,若显示“wechat login seccess”则表示微信正常登录中。 6. 效果测试:把绑定的微信号拉到群里或者单独对话,训练的数据越好,对话效果越好。
2025-04-11
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
coze开发硬件接入ai
如果您想开发硬件接入 Coze 智能体,以下是一些相关信息: 在服务器设置方面,对于 chatgptonwechat(简称 CoW)项目,可点击“Docker”中的“编排模板”中的“添加”按钮。备注说明版可借用“程序员安仔”封装的代码。将编译好的内容复制进来,在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”,若无法正常启动,可查看文档后面的“常见问题”。 关于计划,包括弄共学、做网页连接 Coze 等,涉及网页、小程序、App、桌面应用、浏览器插件等方面,还提到了硬件相关的工作安排。 在入门 Coze 工作流方面,首先要明确任务目标与执行形式,包括详细描述期望获得的输出内容(如文本、图像、音频等形式的数据,以及具体格式和结构、质量标准),预估任务的可行性,确定任务的执行形式。例如对于一篇文章,可参照特定框架进行微调,评估任务可行性,结合使用习惯确定预期的执行形式。
2025-03-27
COZE接入企业微信
要将 COZE 接入企业微信,您可以按照以下步骤进行操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,查看运行的服务,手动刷新日志,若看到“WeChat login success”,则接入成功。 2. 在 COZE 官网左下角选择 COZE API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效,指定团队空间,勾选所有权限,保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,出现“Bot as API”,勾选并确定应用已成功授权。 5. 配置微信客服: 访问微信客服 https://kf.weixin.qq.com/,点击开通,勾选同意,点击下一步,按步骤填写,注册企业微信。 点击配置,到微信客服的企业信息,复制企业 ID 到 COZE 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(若为空,点击“随机获取”),到 COZE 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 COZE 页面粘贴。 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 COZE 页面粘贴,点击保存。 请注意,第一次设置回调地址时,目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。
2025-03-21
COZE接入企业微信
要将 COZE 接入企业微信,您可以按照以下步骤进行操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,查看运行的服务,手动刷新日志,若看到“WeChat login success”,则成功接入微信。 2. 在 COZE 官网左下角选择 COZE API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效,指定团队空间,勾选所有权限,保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 4. 进行 API 授权,点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 配置微信客服: 访问微信客服 https://kf.weixin.qq.com/,点击开通,勾选同意,点击下一步,按步骤填写,注册企业微信。 点击配置>到微信客服的企业信息,复制企业 ID>到 COZE 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(若为空,点击“随机获取”),到 COZE 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 COZE 的页面粘贴。 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 COZE 的页面粘贴,点击保存。 请注意,第一次设置回调地址时,目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。
2025-03-21
COZE接入企业微信
要将 COZE 接入企业微信,可参考以下步骤: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,可看到运行的两个服务。然后点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。此界面不会实时更新显示,需手动刷新,若看到“WeChat login success”,则接入微信成功。 2. 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效作为过期时间,选择指定团队空间,勾选所有权限。保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 配置微信客服: 访问微信客服 https://kf.weixin.qq.com/,点击开通,勾选同意,点击下一步,按步骤填写,注册企业微信。 点击配置>到微信客服的企业信息,复制企业 ID>到 coze 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(若为空,点击“随机获取”),到 coze 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 coze 的页面粘贴。 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 coze 的页面粘贴,点击保存。 注意:目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。
2025-03-21
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
想要做一节讲如何用智能体做企业数字化转型的课程,如何设计
以下是关于如何设计用智能体做企业数字化转型课程的建议: 一、参考案例 1. 李国宝的相关经验 具有丰富的从业经验,包括通信工程、数据通信网络培训、创业、网络安全解决方案及培训、AI 课程开发与培训等。 开发过面向不同群体的 AI 课程,如《数字化转型实践》面向传统企业数字化、AI 赋能转型。 2. 90 分钟从 0 开始打造你的第一个 Coze 应用课程 从零开始教学做应用界面,先基础教学,再涉及特定应用。 介绍当前承接业务,包括辅导、培训、定制及企业 AI 落地等。 挖掘用户对 AI 应用的功能需求,如对交互界面的需求。 二、课程设计要点 1. 对于企业管理者 AI 辅助决策:在小规模决策中使用 AI 分析工具,以其分析结果作为决策参考。 员工培训计划:制定 AI 工具使用的培训计划,帮助团队成员了解日常工作中如何有效利用 AI。 流程优化:识别公司中可能受益于 AI 自动化的重复性任务,从小流程开始测试 AI 解决方案的效果。 AI 伦理和政策:制定公司的 AI 使用政策,确保 AI 应用符合伦理标准和法律要求。 2. 对于教育工作者 AI 辅助教案设计:尝试使用 AI 帮助设计课程大纲或生成教学材料 ideas,为课程带来新视角。 个性化学习路径:探索使用 AI 分析学生学习数据,为不同学生制定个性化学习计划。 创新教学方法:考虑将 AI 工具整合到课堂活动中,如使用 AI 生成的案例研究或模拟场景。 AI 素养教育:开发简单的课程模块,教导学生了解 AI 基础知识、应用领域及其对社会的影响。 三、注意事项 无论面向哪个群体,都应记住:与 AI 协作是一个学习过程。从小处着手,保持好奇心和开放态度,会发现 AI 不仅能提高工作效率,还能激发创造力,开拓新的可能性。最重要的是,始终保持批判性思维,将 AI 视为强大的工具,而不是完全依赖的解决方案。
2025-04-18
如何利用 AI 赋能【数据分析在企业自媒体营销中的应用综述(以抖音、小红书平台为例)】
利用 AI 赋能【数据分析在企业自媒体营销中的应用综述(以抖音、小红书平台为例)】可以参考以下方法: 1. 市场分析:利用 AI 分析工具研究市场趋势、消费者行为和竞争对手情况,处理大量数据以快速识别关键信息,如受欢迎的产品、价格区间和销量等。 2. 关键词优化:借助 AI 分析和推荐高流量、高转化的关键词,优化产品标题和描述,提高搜索排名和可见度。 3. 产品页面设计:使用 AI 设计工具根据市场趋势和用户偏好自动生成吸引人的产品页面布局。 4. 内容生成:利用 AI 文案工具撰写有说服力的产品描述和营销文案,提高转化率。 5. 图像识别和优化:通过 AI 图像识别技术选择或生成高质量的产品图片,更好地展示产品特点。 6. 价格策略:依靠 AI 分析不同价格点对销量的影响,制定有竞争力的价格策略。 7. 客户反馈分析:利用 AI 分析客户评价和反馈,了解客户需求,优化产品和服务。 8. 个性化推荐:借助 AI 根据用户的购买历史和偏好提供个性化的产品推荐,增加销售额。 9. 聊天机器人:采用 AI 驱动的聊天机器人提供 24/7 的客户服务,解答疑问,提高客户满意度。 10. 营销活动分析:使用 AI 分析不同营销活动的效果,了解哪些活动更能吸引顾客并产生销售。 11. 库存管理:依靠 AI 预测需求,优化库存管理,减少积压和缺货情况。 12. 支付和交易优化:利用 AI 分析不同支付方式对交易成功率的影响,优化支付流程。 13. 社交媒体营销:借助 AI 在社交媒体上找到目标客户群体,通过精准营销提高品牌知名度。 14. 直播和视频营销:利用 AI 分析观众行为,优化直播和视频内容,提高观众参与度和转化率。 此外,还可以参考以下具体案例: 赛博发型师:基于 AI 技术为用户提供个性化的发型设计服务,通过分析用户面部特征、个人风格和偏好,自动生成发型设计方案,用户可上传照片,系统分析后生成详细报告和效果图,报告可存档至飞书文档供专业发型师复核评估。 营销文案创作专家深度版:专为企业营销团队等设计,提供从文案框架创作到生成的一站式服务,通过分析产品信息等挖掘痛点和卖点,生成营销文案,并提供营销数据分析服务以优化策略和提高协作效率。 抖音商家客服(C 端用户)/抖音带货知识库工具(B 端商家):作为 AI 客服系统建设助手,帮助企业实现一站式 AI 客服解决方案。 在实际操作中,还可以参考以下经验: 飞书、多维表格、扣子相关应用优化及自媒体账号分析演示分享:包括直播课程相关内容,优化社区文档问题,介绍技术栈选择,强调扣子、多维表格及 AI 字段捷径结合做数据分析的优势,现场演示账号分析效果,展示同步数据的自动化流程。 高效数据分析应用搭建实操讲解:先介绍数据在多维表格执行无二次请求的优势,接着进行技术实操,从新建“数据 AI 高效数据分析”应用开始,讲解抓数据、同步数据前设置变量等步骤,包括搭建界面、做工作流、保存变量等操作,可在市场选插件。 高雁讲解数据处理及多维表格操作过程:进行操作演示与讲解,包括将用户信息发送到多维表格、调整界面显示、处理按钮点击事件等操作,还讲解了批处理、代码节点等内容。
2025-04-13
AI在企业落地
企业落地 AI 可以参考以下内容: Anthropic 在 AI Engineer Summit 2025 上分享了相关最佳实践,并总结了常见错误。核心挑战包括如何入手、如何评估效果、技术选择困惑(如是否需要微调)。关键经验是评估先行,明确“智能度、成本、延迟”之间的平衡,避免过早微调,先进行基础优化。例如 Intercom 通过评估优化 AI Agent Fin,使其处理 86%的客服请求,其中 51%无需人工介入。相关链接: 影刀 RPA+AI Power 方面:大模型有输入和输出限制,AI Power 集成丰富组件及技能组件可拓展 AI 服务能力边界,打造 AI Agent,如搜索引擎组件可让 AI 接入互联网获取实时信息,RPA 组件可直接调用影刀 RPA 客户端应用实现自动化操作。其具有无缝多样的使用方式,如嵌入方式包括网页分享、对话助理、API 集成等。企业系统分散,AI Power 提供多种调用方式方便企业灵活选择接入方式。此外,影刀 AI Power 为企业提供教学培训、技术答疑、场景共创等贴身服务支持,帮助企业把 AI 落地。 此外,相关知识库还介绍了面向学习者、创作者和企业的不同服务: 面向学习者:社区提供清晰学习路径,学习者通过丰富课程、活动和竞赛提升自己,积累能力成为高素质 AI 人才。 面向创作者:创作者掌握 AI 技术利用社区资源创作,满足企业需求,为社区发展注入活力。 面向企业:链接 AI 产品和传统企业,通过与社区合作获得优质内容与服务,从学习者中获取潜在流量。社区合作实践为学习者和创作者提供应用场景和技术经验。
2025-04-12
请问DeepSeek如何与生产型企业进行结合创造效益 ?
DeepSeek 与生产型企业的结合可以从以下几个方面创造效益: 1. 模型优化与性能提升:英伟达基于 FP4 优化的 DeepSeekR1 检查点现已在 Hugging Face 上开源。这种优化将模型Transformer 模块内的线性算子的权重和激活量化到了 FP4,适用于 TensorRTLLM 推理。每个参数从 8 位减少到 4 位,使磁盘空间和 GPU 显存的需求减少约 1.6 倍。使用 TensorRTLLM 部署时,需要支持 TensorRTLLM 的英伟达 GPU(如 B200),并且需要 8 个 GPU 来实现 tensor_parallel_size=8 的张量并行。代码利用 FP4 量化、TensorRT 引擎和并行计算,实现高效、低成本的推理,适合生产环境或高吞吐量应用。 2. 部署指南:社区伙伴 Hua 投稿的《在 Azure AI Foundry 部署 DeepSeek 大模型全指南》,手把手指导在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 3. 为企业带来实质提升:DeepSeek 的强化学习和联网搜索能力改变了信息获取方式,从“检索—阅读—摘要”转变为“提问—获得答案”,大幅提升工作效率。其开源策略打破了技术垄断,让国内大模型能力迅速提升。在企业级部署方面,通过行业知识蒸馏和领域自适应训练,实现对企业非结构化数据的深度解析能力。特别是在实时决策支持、多模态交互及复杂知识图谱构建方面,为企业打造具备持续进化能力的数字神经中枢。这种“AI 即服务”的部署模式,重构了传统工作流效率,并通过预测性分析和认知自动化开启企业智能化的第二增长曲线。同时,还可以考虑垂直场景强化学习机制的增加,如在智能制造场景中嵌入设备故障模式自发现的奖惩机制;以及可信计算架构的升级,针对金融、医疗等高合规需求场景。
2025-04-10
企业场景下最常用的工作流
在企业场景下,工作流是一种灵活的智能体编排方式,将业务过程中的任务按规则和顺序组织执行,降低任务复杂度和不确定性,减少对提示词工程和模型推理能力的依赖,提高大语言模型应用面向复杂任务的性能、稳定性和可解释性。工作流是智能体平台最核心强大的部分,衡量一个 AI 智能体的含金量,除大模型能力外,大部分业务价值体现在工作流设计里。 工作流的典型场景包括: 入门场景: 仅添加一个节点构建简单工作流,如通过插件节点内的插件能力自定义工作流,使用获取新闻插件构建获取新闻列表的工作流,详细配置教程可参见。 使用大语言模型(LLM)节点接收并处理用户问题,详细配置教程可参见。 使用 Code 节点生成随机数,详细配置教程可参见。 进阶场景: 通过多节点组合构建逻辑较复杂的工作流,如先通过插件能力进行关键词搜索、然后通过 Code 节点过滤指定信息、最后通过插件能力获取信息详情,详细配置教程可参见。 通过条件判断识别用户意图,例如通过 LLM 节点处理用户消息,将消息分为不同类型,然后通过 Condition 节点分别处理不同类型的用户消息,详细配置教程可参见。 常见的 AI Workflow 开发平台有: Coze:新一代 AI Bot 开发平台,集成了丰富的插件工具,国际版和国内版均有。 Dify:开源平台,支持自定义和插件。 腾讯元器。 FastGPT:国内知名,支持自定义流程。 影刀&zapier。 Leap。 Betteryeah:立足 RPA 场景,用 AI 将用户需求生成工作流,并通过 RPA 自动化,产品形态与 Coze 相似,是企业级的 AI 应用开发平台,无论团队编程技能如何,都能快速创建由 AI 驱动的 Agents、知识库、工作流和任务。 Flowise:快速实现智能体搭建。 BISHENG:主攻 tob 场景的开源 LLM 搭建平台,与 fastgpt 功能类似,但面向的客户不同,整体功能和部署成本更重。 Agent 构建平台有豆包、文心一言、星火助手、kimi.ai 等。由于 Coze 具有拓展强、好上手、不用出国等优点,本教程的工作流以 Coze 为主。
2025-04-09