Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

知识库里有没有阿里云部署cow教程

Answer

以下是阿里云部署 cow 的完整教程:

一、注册云服务器和获取模型 key

  1. 刚才在这里保存的“外网面板地址”,点击打开。
  2. 输入账号密码,即上图中的 username、password。
  3. 第一次进入会让您绑定一下,点击免费注册,注册完成后,返回此页,登录账号。
  4. 首次会有个推荐安装,只安装第一个即可。其他的取消勾选。
  5. 点击“终端”,会让您关联,点击关闭就好。

七、安装并接入 cow

  1. 回到宝塔,打开【终端】
    • 继续,一行一行依次粘贴,依次回车:
      • cd /root
      • git clone https://github.com/zhayujie/chatgpt-on-wechat
    • 这个注意一定要粘贴完整,这里容易粘贴不全。
    • 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。
    • 继续一行一行,依次输入:
      • cd chatgpt-on-wechat/
      • pip install -r requirements.txt
    • 等待执行完成,如上图后,继续粘贴:
      • pip install -r requirements-optional.txt
    • 上边的都执行完成后。
    • 现在我们到“文件”菜单中去执行,点击文件-找到 root,进入 root 文件夹,找到 chatgpt-on-wechat 文件夹,并进入。
    • 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)
    • 粘贴进入,点击回车。点击后,关闭此弹窗。
      • cp config-template.json config.json
    • 刷新页面。在当前目录下,找到 config.json 文件。
    • 双击这个文件,找到第 4、5 行,把刚才 FastGPT 里拿到 API 和 key,根据要求粘贴到双引号里。这也是您唯一需要修改的地方。修改完之后,点击保存,关闭文件。
    • 依然在当前文件,【终端】里进行,依次复制粘贴进入:
      • cd plugins/godcmd
      • cp config.json.template config.json
    • 操作完成后,退出窗口,刷新一下。进入/root/chatgpt-on-wechat/plugins/godcmd,
    • 下边是依次进入窗口的路径,
    • 双击 config.json,进入后,设置下您的 password 和 admin_users,可以设置为和我一样的,后边再改,点击保存后关闭。
    • 重新回到/root/chatgpt-on-wechat/这个文件路径下,点击终端,继续依次粘贴:
      • touch nohup.out
      • nohup python3 app.py & tail -f nohup.out
    • 使用微信扫码(建议使用小号)。完成
Content generated by AI large model, please carefully verify (powered by aily)

References

张梦飞:【知识库】FastGPT+OneAPI+COW带有知识库的机器人完整教程

1、回到宝塔,打开【终端】继续,一行一行依次粘贴,依次回车:cd /root2、这个注意一定要粘贴完整,这里容易粘贴不全。git clone https://github.com/zhayujie/chatgpt-on-wechat3、出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次4、继续一行一行,依次输入:cd chatgpt-on-wechat/pip install -r requirements.txt5、等待执行完成,如上图后,继续粘贴:pip install -r requirements-optional.txt6、上边的都执行完成后。现在我们到“文件”菜单中去执行,点击文件-找到root,进入root文件夹,找到chatgpt-on-wechat文件夹,并进入。7、点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)8、粘贴进入,点击回车。点击后,关闭此弹窗。cp config-template.json config.json9、刷新页面。在当前目录下,找到config.json文件。如下图:10、双击这个文件,我画红框的地方是需要修改的地方。*因为这个地方对格式和符合要求比较严格,如果是小白,建议你直接复制我下方的配置。11、删除上图文件里的所有代码。复制下边的代码,粘贴到文件里。

张梦飞:【知识库】FastGPT+OneAPI+COW带有知识库的机器人完整教程

1、刚才在这里保存的“外网面板地址”,点击打开。2、输入账号密码,既上图中的username、password3、第一次进入会让你绑定一下,点击免费注册,注册完成后,返回此页,登录账号。4、首次会有个推荐安装,只安装第一个即可。其他的取消勾选。5、点击“终端”,会让你关联,点击关闭就好。

张梦飞:【知识库】FastGPT+OneAPI+COW带有知识库的机器人完整教程

粘贴后,找到第4、5行,把刚才FastGPT里拿到API和key,根据要求粘贴到双引号里。这也是你唯一需要修改的地方。修改完之后,点击保存,关闭文件。12、依然在当前文件,【终端】里进行,依次复制粘贴进入:cd plugins/godcmdcp config.json.template config.json13、操作完成后,退出窗口,刷新一下。进入/root/chatgpt-on-wechat/plugins/godcmd,下边是依次进入窗口的路径,20、双击config.json,进入后,设置下你的password和admin_users可以设置为和我一样的,后边再改,点击保存后关闭。14、重新回到/root/chatgpt-on-wechat/这个文件路径下,点击终端,继续依次粘贴:touch nohup.outnohup python3 app.py & tail -f nohup.out15、使用微信扫码(建议使用小号)。完成

Others are asking
COW微信机器人、FastGpt微信机器人、COZE微信机器人的区别?
以下是 COW 微信机器人、FastGpt 微信机器人、COZE 微信机器人的区别: COW 微信机器人: 基于 Hook 机制,具有相对更高的稳定性和安全性,更简单易上手。 目前插件相对较少,仅支持 Windows 系统。 可以不用服务器,对小白更加友好。 能够结合 FastGPT 进行使用。 具备基于知识库的 AI 回复、支持积分系统、支持自动拉人、检测广告、自动群发等功能,还有安全新闻定时推送、Kfc 文案、星座查询、天气查询等有趣的小功能。 FastGpt 微信机器人:可以与 COW 微信机器人结合使用。 COZE 微信机器人:在 6 月底的微信机器人共建中有所提及,有多种玩法,如对接 llm key 的玩法等。在百炼平台里的“应用”概念类似于 COZE 中的“bot”。
2025-03-11
cow微信机器人
以下是关于基于 COW 框架的 ChatBot 实现步骤的详细介绍: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信等平台。 实现内容包括: 打造属于自己的 ChatBot,具备文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能。 常用开源插件的安装应用。 正式开始前需知: ChatBot 与在各大模型网页端使用的区别在于本实现思路需接入大模型 API(API 单独付费)。 风险与注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用,包括对大模型生成内容的甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 特点: 多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 多模型选择,如 GPT3.5、GPT4.0、Claude、文心一言、讯飞星火、通义千问、Gemini、GLM4、LinkAI 等。 多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 多部署方法,包括本地运行、服务器运行、Docker 方式。 部署项目的具体步骤: 1. 下载 COW 机器人项目(chatgptonwechatmaster.zip)并解压缩。 2. 解压后打开 COW 文件夹,在空白处 shift+鼠标右键,点击“在此处打开 Powershell 窗口”。 3. 在 Powershell 窗口中,粘贴“pip install r requirements.txt”,等待执行完成后,继续粘贴“pip install r requirementsoptional.txt”。 4. 执行完成后关闭窗口,在当前目录下找到 configtemplate.json 文件。新生成的是配置文件,右键使用记事本打开,修改画红框的地方。小白建议直接复制给定的配置,删除新文件里的所有代码,复制给定代码粘贴到文件里,找到第 4 行,把注册并保存好的千问 API key 粘贴到双引号里,修改完保存并关闭文件。 5. 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json,双击进入后设置 password 和 admin_users,可先设置为和示例一样,之后再改,保存后关闭。 6. 重新回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 里复制粘贴“python app.py”。 基于张梦飞同学的更适合小白的使用教程:
2024-10-10
微信机器人 cow
以下是在自己的电脑上部署 COW 微信机器人项目的详细步骤: 1. 安装环境: 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 在命令窗口中,粘贴入以下代码,确认是否有 python 和 pip。 如果没有 python 和 pip,先进行 python 的安装。 2. 部署项目: 下载 COW 机器人项目,解压缩。 解压后,打开 COW 文件夹。 在空白处,shift+鼠标右键,点击“在此处打开 Powershell 窗口”。 在 Powershell 窗口中,粘贴进入: pip install r requirements.txt 等待执行完成后,继续粘贴:pip install r requirementsoptional.txt 上边的都执行完成后,关闭窗口。在当前目录下,找到 configtemplate.json 文件。 新生成的便是配置文件,右键使用记事本打开这个文件,修改画红框的地方。 删除新文件里的所有代码,复制提供的代码,粘贴到文件里,并在第 4 行把一开始注册并保存好的千问 API key 粘贴到双引号里,修改完之后,点击保存,关闭文件。 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json。 双击 config.json,进入后,设置下 password 和 admin_users,点击保存后关闭。 重新回到 chatgptonwechat/这个文件路径下,空白处右键,打开 Powershell 里复制粘贴进入:python app.py,然后将会弹出二维码,扫码登录即可。 注意事项: 1. 程序将在您的电脑本地运行,假如您关掉了窗口,那么进程也就结束。所以,如果想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。 2. 如果发现突然不管用了,可以点击一下窗口,然后点一下空格。因为在选中状态下,powershell 窗口是不继续执行的。 3. 其他操作与服务器部署的操作一致。 4. 参加机器人比赛的,可以参考其他教程,自行更改配置。
2024-09-02
Cow好像接不上coze 的数据库,在coze 上能正常使用,到cow上就无法获取信息
以下是关于 Cow 接不上 coze 数据库的可能解决方法: 1. 服务器设置方面: 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版和无备注干净版的操作有所不同。 将编译好的内容复制进来。 在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 2. 直接调用大模型方面: 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。获取 key 的方式有视频教程和图文教程。注意需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明没有实名认证,可点击去,或查看自己是否已认证。 3. 安装并接入 cow 方面: 回到宝塔,打开【终端】。 依次粘贴并回车:cd /root ;git clone https://github.com/zhayujie/chatgptonwechat 。出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续依次输入:cd chatgptonwechat/ ;pip install r requirements.txt ;pip install r requirementsoptional.txt 。 到“文件”菜单中执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)。 粘贴并回车:cp configtemplate.json config.json ,刷新页面。在当前目录下,找到 config.json 文件。删除文件里的所有代码,复制提供的代码粘贴到文件里。
2024-08-13
Cow好像接不上coze 的数据库,在coze 上能正常使用,到cow上就无法获取信息
以下是关于 Cow 接不上 coze 数据库的可能解决方法: 1. 服务器设置方面: 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版和无备注干净版的操作有所不同。 将编译好的内容复制进来。 在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 2. 直接调用大模型方面: 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。获取 key 的方式有视频教程和图文教程。注意需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明没有实名认证,可点击去,或查看自己是否已认证。 3. 安装并接入 cow 方面: 回到宝塔,打开【终端】。 依次粘贴并回车:cd /root ;git clone https://github.com/zhayujie/chatgptonwechat 。出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续依次输入:cd chatgptonwechat/ ;pip install r requirements.txt ;pip install r requirementsoptional.txt 。 到“文件”菜单中执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)。 粘贴并回车:cp configtemplate.json config.json ,刷新页面。在当前目录下,找到 config.json 文件。删除文件里的所有代码,复制提供的代码粘贴到文件里。
2024-08-13
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12
了解学习阿里云百炼
阿里云百炼是基于通义系列大模型和开源大模型打造的一站式大模型服务平台,具有以下特点和优势: 提供「生成式大模型的应用编排搭建能力」和「企业大模型的全链路训练部署能力」,是企业 AI 时代的首选。 核心能力和优势: 大模型 API 服务:高可用、高性能、高性价比,提供通义闭源和开源系列大模型,以及图片、语音等多模态大模型和国内优质三方大语言模型。 AI 应用搭建:可观测、可干预、可追踪,提供 RAG 智能体应用、工作流编排和智能体编排三类使用场景的应用构建能力,以及包含插件能力、运营工具箱等适配工具,实现 10 分钟拖拉拽快速搭建 AI Agent。 同时提供很多行业级的解决方案,如短剧剧本创作、企业线索挖掘、泛企业 VOC 挖掘等。 其能力以原子级别的能力出售,即 API 能力,可结合日常场景进行二次加工应用。 体验相关: 百炼大模型平台体验入口:https://bailian.console.aliyun.com//home (需要登陆阿里云账号,也可以使用支付宝、钉钉、手机号快速注册登陆)。 建议注册后先进行实名认证,方便后续的一系列体验工作,以及领取一些免费的学习云资源。 此外,还有以下相关内容: 第一期「AI 实训营」手把手学 AI 中,本期共学直播地址:会议时间为 20:00 21:30 。 「第一天」COW 项目中,此教程是为 COW 项目接入千问、百炼而作,使用此教程的前提是已完成 COW 机器人的搭建,或者准备进行搭建。百炼首页:https://bailian.console.aliyun.com/ 。在调用阿里云的 AI 服务时有两种方式,一是直接调用模型,如通义千问系列以及其他的大模型产品服务。
2025-04-14
阿里集团投资了哪几个大模型公司
阿里投资的大模型公司主要有月之暗面和 MiniMax 。 去年底,阿里开始密切接触当时大模型公司中排位相对靠后的月之暗面,并在 2024 年春节前谈定投资,大手笔投资近 8 亿美元,持股比例约 40%,月之暗面投后估值来到 23.4 亿美元。 此外,阿里在今年初投资了 MiniMax 约 6 亿美元。
2025-03-28
阿里的千问大模型在行业内处于一个什么样的水平
阿里的通义千问大模型在行业内处于领先水平。 通义千问 2.5 正式发布并开源 1100 亿参数模型,在多模态和专有能力模型方面影响力强大,始终坚持开源路线,已推出多款开源模型,受到开发者和生态伙伴的热情支持。百炼平台也升级支持企业 RAG 链路,提供更灵活的企业级检索增强服务。通义灵码推出企业版,满足企业定制化需求,已在多个领域落地应用。 Qwen2.5Max 基于 SFT 和 RLHF 策略训练,在多项基准如 Arena Hard、LiveBench、LiveCodeBench、GPQADiamond 上超越 DeepSeek V3,引发社区关注。支持官方 Chat、API 接口、Hugging Face Demo 等多种方式,展示其顶尖性能与灵活应用场景。 Qwen2.5VL 是新一代视觉语言模型,可解析 1 小时以上视频内容并秒级定位事件,识别从金融文档到通用物体,动态适配高分辨率图像。具备复杂任务执行能力,覆盖更多实际场景如票据解析、商业分析等。 10 月 31 日,阿里云正式发布千亿级参数大模型通义千问 2.0,8 大行业模型同步上线。
2025-03-14
阿里巴巴详情页生成
使用 AI 完成阿里巴巴营销技巧和产品页面优化,可以参考以下步骤: 1. 市场分析:借助 AI 分析工具研究市场趋势、消费者行为及竞争对手情况,快速获取产品受欢迎程度、价格区间、销量等关键信息。 2. 关键词优化:利用 AI 分析并推荐高流量、高转化的关键词,优化产品标题和描述,提升搜索排名与可见度。 3. 产品页面设计:通过 AI 设计工具,依照市场趋势和用户偏好自动生成吸引人的产品页面布局。 4. 内容生成:运用 AI 文案工具创作有说服力的产品描述和营销文案,提高转化率。 5. 图像识别和优化:依靠 AI 图像识别技术选择或生成高质量产品图片,更好地吸引顾客并展示产品特点。 6. 价格策略:让 AI 分析不同价格点对销量的影响,制定有竞争力的价格策略。 7. 客户反馈分析:借助 AI 分析客户评价和反馈,了解客户需求,优化产品和服务。 8. 个性化推荐:利用 AI 根据用户购买历史和偏好提供个性化产品推荐,增加销售额。 9. 聊天机器人:采用 AI 驱动的聊天机器人提供 24/7 客户服务,解答疑问,提高客户满意度。 10. 营销活动分析:依靠 AI 分析不同营销活动效果,了解哪些活动更能吸引顾客并产生销售。 11. 库存管理:使用 AI 帮助预测需求,优化库存管理,减少积压和缺货情况。 12. 支付和交易优化:通过 AI 分析不同支付方式对交易成功率的影响,优化支付流程。 13. 社交媒体营销:利用 AI 帮助卖家在社交媒体上找到目标客户群体,进行精准营销提高品牌知名度。 14. 直播和视频营销:借助 AI 分析观众行为,优化直播和视频内容,提高观众参与度和转化率。
2025-03-11
如何使用阿里PAI部署大模型
以下是使用阿里 PAI 部署大模型的步骤: 1. 模型部署: 选中模型卡片,出现部署按钮。 选择 vLLM 部署。 小插曲:竞价系统(用更便宜的价格部署模型)。 部署完成后在 EAS 服务中可以找到 API 的 endpoint 和 key 信息。 同样在 EAS 服务中可以查看部署情况和日志,如果竞价获得不了资源,可以适当调整价格。 在 EAS 服务中可以直接尝试试用模型。 调试方法:Get models 方法需要用 vllm 框架部署才能支持;chat 方法,比如 7b 的蒸馏模型就换成相应的设置。 尝试部署一个 qwen2.5 7b instruct 的原生模型,并测试问题“9.11 和 9.9 的大小?” 2. 蒸馏>数据: 在本地的 python 环境中或 notebook gallery 里建立一个实例来执行 python。 执行相关代码,最终会获得一个 json 文件,即蒸馏出来的数据集。通常需要检查数据的正确性,再进行下一步的训练微调过程。 3. 作业: 在阿里云 PAI 平台上部署一个模型,并调试验证确认自己的部署成功。 调试信息中修改 content 的内容,必须在 content 内容中带上自己的钉钉“昵称”来向大模型对话。 在截止时间 2025/03/05 之前,将自己调试成功的效果截图(截图中的“content”内必须带着自己的钉钉),提交到「问卷地址」。 4. 模型蒸馏微调: 由于上一步中蒸馏的数据集很小,不足以改变模型权重,因此使用一个别人做好的数据集。在使用前可以打开看下里面的结构,和蒸馏出来的数据结构一致。 建立用于训练的数据集:下载并解压数据集,然后在 PAI 平台的数据集中找到 OSS 存储,建立数据集,然后上传数据集。 开始部署模型进行训练:选择 7b instruct 的原生模型,选择训练。选择全参微调,并选择自定义数据集。注意超参配置。 训练要求需要使用灵骏的资源,比如 8 卡 H100,需要的显存比较大。点击训练,在 DLC 里看到相应状态就是训练成功。 训练完成就可以测试模型效果:在 model gallery 里面找到训练好的模型,点击右上角的部署,使用 vllm 部署。部署完成后,使用相应命令调试。
2025-03-04
市面上还有阿里百炼平台类似的竞品吗? 我的意思是工作流
市面上与阿里百炼平台类似的工作流竞品有以下几种: 1. 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens,可参考。 2. 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为 0.005~0.015/千 tokens,输出成本为 0.02~0.07/千 tokens,可参考。 3. 百度 PaddlePaddle:OCR 垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在 0.05~0.1/次,开源地址为。
2025-02-21