直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

大模型如何接入企业数据库

回答

大模型接入企业数据库的相关内容如下:

原理介绍: 从文档处理角度来看,实现流程包括配置要求。

配置要求

  • ChatGLM-6B 模型硬件需求:
    • 模型文件下载至本地需要 15GB 存储空间。
    • 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同:
      • FP16(无量化):分别为 13GB 和 14GB。
      • INT8:分别为 8GB 和 9GB。
      • INT4:分别为 6GB 和 7GB。
  • MOSS 模型硬件需求:
    • 模型文件下载至本地需要 70GB 存储空间。
    • 量化等级不同,最低 GPU 显存(推理)和最低 GPU 显存(高效参数微调)要求不同:
      • FP16(无量化):分别为 68GB 和 - 。
      • INT8:分别为 20GB 和 - 。
  • Embedding 模型硬件需求:默认选用的 Embedding 模型GanymedeNil/text2vec-large-chinese约占用显存 3GB,也可修改为在 CPU 中运行。

项目启动

  • Web 启动:运行 web.py,若显存不足则调整 configs/model_config.py 文件中 LLM_MODEL 参数更换模型,若连接无法连接修改 web.py 文件末尾 lauch 中 0.0.0.0 为 127.0.0.1,点击 URL 进入 UI 界面。
  • API 模式启动。
  • 命令行模式启动。

上传知识库: 左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色。例如上传公司财报,充当财务分析师;上传客服聊天记录,充当智能客服;上传经典 Case,充当律师助手;上传医院百科全书,充当在线问诊医生等等,MOSS 同理。

使用数据表: 通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。

  1. 单击页面顶部的工作流页签,然后单击创建工作流。
  2. 输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。
  3. 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。
  4. 根据以下信息配置数据库节点。
  • 输入:添加 SQL 执行中需要的参数,可以是一个变量,也可以是一个固定值。
  • SQL:输入要执行的 SQL 语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成 SQL。在弹出的页面中,选择这个数据库工作流生效的 Bot 和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成 SQL 语句,最后单击使用。 注意:不支持 Select*语法,不支持多表 Join 操作,最多返回 100 行数据。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

开发:GLM等大模型外接数据库

从文档处理角度来看,实现流程如下:[heading1]配置要求[content]ChatGLM-6B模型硬件需求注:模型文件下载至本地需要15 GB存储空间。|量化等级|最低GPU显存(推理)|最低GPU显存(高效参数微调)|<br>|-|-|-|<br>|FP16(无量化)|13 GB|14 GB|<br>|INT8|8 GB|9 GB|<br>|INT4|6 GB|7 GB|MOSS模型硬件需求注:模型文件下载至本地需要70 GB存储空间|量化等级|最低GPU显存(推理)|最低GPU显存(高效参数微调)|<br>|-|-|-|<br>|FP16(无量化)|68 GB|-|<br>|INT8|20 GB|-|Embedding模型硬件需求默认选用的Embedding模型[GanymedeNil/text2vec-large-chinese](https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main)约占用显存3GB,也可修改为在CPU中运行。

开发:GLM等大模型外接数据库

运行web.py若显存不足则调整configs/model_config.py文件中LLM_MODEL参数更换模型若连接无法连接修改web.py文件末尾lauch中0.0.0.0为127.0.0.1点击URL进入UI界面[heading2]API模式启动[heading2]命令行模式启动[heading1]上传知识库[content]左侧知识库问答中选择新建知识库,可传输txt pdf等可以调整prompt,匹配不同的知识库,让LLM扮演不同的角色上传公司财报,充当[财务分析师](https://www.zhihu.com/search?q=%E8%B4%A2%E5%8A%A1%E5%88%86%E6%9E%90%E5%B8%88&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D)上传客服聊天记录,充当智能客服上传经典Case,充当律师助手上传医院[百科全书](https://www.zhihu.com/search?q=%E7%99%BE%E7%A7%91%E5%85%A8%E4%B9%A6&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D),充当在线问诊医生等等MOSS同理

数据库

[title]数据库[heading1]使用数据表[heading2]通过工作流数据库节点操作数据表通过在工作流中添加数据库节点对数据表进行操作。在工作流中可通过NL2SQL方式和代码方式进行调用,支持完整读写模式。下图是工作流中数据库节点配置示例。当发布工作流后,在用户与Bot对话时,大语言模型会根据需要调用工作流,按照工作流中数据库节点中配置的SQL来执行数据表操作。参考以下操作,在工作流中添加并配置工作流节点。在工作流中配置数据库节点前,确保你已经搭建了一个Bot,并在这个Bot中创建好了数据表。1.单击页面顶部的工作流页签,然后单击创建工作流。2.输入工作流名称和工作流的使用描述,然后单击确认。工作流名称和描述可以帮助大语言模型理解什么场景下需要调用该工作流。1.在基础节点页签下,将数据库节点拖入到工作流配置画布区域。2.根据以下信息配置数据库节点。2.1.输入:添加SQL执行中需要的参数,可以是一个变量,也可以是一个固定值。2.2.SQL:输入要执行的SQL语句,可以直接使用输入参数中的变量。可单击自动生成使用大模型生成SQL。在弹出的页面中,选择这个数据库工作流生效的Bot和数据表,然后使用自然语言描述要执行的操作,单击自动生成生成SQL语句,最后单击使用。不支持Select*语法。不支持多表Join操作。最多返回100行数据。

其他人在问
画数据库关系图,用什么al软件好
以下是一些可以用于画数据库关系图的 AI 软件和传统工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括数据库关系图,用户可通过拖放界面轻松操作。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如数据库的逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码的工具,支持创建包括数据库逻辑、功能和部署等多种视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建数据库逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括数据库逻辑视图和部署视图。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,有助于创建数据库逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建包括数据库逻辑视图和部署视图等各种架构图的功能。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建包括数据库逻辑视图和部署视图等多种视图。
2025-03-22
AI可以做数据库的数据分析
AI 可以用于数据库的数据分析,以下是相关内容: ChatGPT 助力数据分析的流程: 逻辑流程图如下: 1. SQL 分析:用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验是 SELECT 类型的 SQL,其他操作如 UPDATE/DELETE 绝不能通过!校验通过后执行 SQL 返回结果数据。再将数据传给 GPT(附带上下文),让 AI 学习并分析数据,最后输出分析结论和建议,和结果数据一起返回给前端页面渲染图表、展示分析结论。目前已实现两张表关联查询。 2. 个性化分析:用户上传文件,如有需要可以简单描述这是什么数据、字段意义或作用辅助分析。前端解析用户上传的文件,再传给 GPT 分析数据,后续步骤与上面一致。 相关问题与技巧: 1. SQL 分析: 反复校验是否为 SELECT SQL 语句,不仅因为 AI 不完全可控,还因为不能相信用户输入,防止恶意操作。非查询类 SQL 坚决不通过,提示不支持此类请求。 到 AI 分析步骤拼接上下文,是为了让 GPT 更好理解数据和字段的意义,使分析更准确。 针对表结构长类型字段,不允许直接查询,防止 token 消耗过多。最好告诉 GPT 只允许查询哪几个字段,或者用哪几个 SQL 函数,尽量让 GPT 生成可控。 2. 个性化分析: 用户上传的数据解析后需判断数据格式是否符合要求,超长可限制截取前面若干项,防止 token 消耗过多。 在前端解析用户上传的数据,分析完可直接用于渲染数据图表,无需后端再返回。 支持用户补充输入,可简单描述数据、字段意义或作用,用于辅助 AI 分析。对于易理解语义化的字段名,可不描述,GPT 也能识别。遇到多维度数据,为保证准确性,可输入“以 xxx为维度分析”或“这是 xxx 数据”。 AI 术语库中的相关术语: |术语 ID|原文|译文|领域|易混淆|缩写|不需要提醒| |||||||| |ROW1|DataDriven Spectral Analysis|数据驱动的光谱分析|AI||| |ROW1|DataMining|数据挖掘|AI|1|| |ROW1|Database|数据库|AI||| |ROW1|DE Algorithm|差分进化算法|AI|1|| |ROW1|Deeplift|DeepLift 模型|AI||| |ROW1|Dendrogram|树状图|AI||| |ROW1|Density Functional Theory|密度泛函理论|AI||| |ROW1|DensityBased Spatial Clustering Of Applications With Noise|DBSCAN 密度聚类|AI||| |ROW1|Descriptor|描述符|AI||| |ROW1|DFT Calculations|DFT 计算|AI||| |ROW1|Dice Similarity|戴斯相似度|AI||| |ROW1|Differential Evolution|差分进化|AI|||
2025-03-14
有没有什么工具,能根据需求进行数据库设计文档生成的
以下是为您提供的相关信息: COZE 工作流中关于数据库节点的教程: 1. 在 SQL 输入中添加 SQL 代码,如果不会写 SQL 语言或不懂代码,可以借助 AI 帮助。例如将相关需求发送给豆包,如学习特定文档并根据具体需求撰写用于工作流的 SQL 语句。 2. 向豆包提出具体要求,如指定数据库表名称(如“user_question_answer”)和存储字段名称(“create_time”“answer”“question”),并说明数据写入的需求。 3. 豆包会回复生成的 SQL 语句(如“INSERT INTO user_question_answer”),将其复制到数据库节点里 SQL 的位置。 4. 试运行时提供输入内容并选择第一步使用的 bot,成功后发布工作流即可记录对应数据到数据库。 另外,欧盟数据法案英文版.pdf 中提到:成员国主管当局应确保对违反本法规规定义务的行为处以处罚。在这样做时,应考虑到所涉公共利益、违规行为的性质、严重程度、复发和持续时间、所开展活动的范围和种类以及违规者的经济能力。委员会应在必要时考虑特定部门的条件和自愿数据共享机制的现有做法,为企业间数据共享合同制定和推荐非强制性示范合同条款。这些示范合同条款应主要是帮助特别是小企业签订合同的实用工具。当广泛和完整地使用时,这些示范合同条款也应具有有益的效果,影响关于访问和使用数据的合同设计,从而在访问和共享数据时更广泛地导致更公平的合同关系。为消除通过联网产品和相关服务的物理组件(如传感器)获得或生成的数据库中的数据持有者声称根据第 96/9/EC 号指令第 7 条享有的特殊权利(如果此类数据库不符合特殊权利的条件)从而阻碍用户根据本法规有效行使访问和使用数据以及与第三方共享数据的权利的风险,本法规应明确该特殊权利不适用于此类数据库,因为保护要求未得到满足。
2025-03-06
coze平台中的数据库应用,怎么判断数据是那个用户的,插入数据库节点时,需要明确用户uuid吗
在 Coze 平台中判断数据属于哪个用户,插入数据库节点时通常需要明确用户的唯一标识,如用户 UUID 或类似的唯一标识。 例如,在自动总结公众号内容并定时推送到微信的工作流中,考虑到可能有多个用户同时使用,使用了 server 酱的 sendkey 作为用户的唯一标识(重命名为 suid)。在数据库节点中查询是否已经推送过文章时,需要文章的 url 和用户的 suid 这两个值来判断。 在增加记账记录的工作流中,通过大语言模型将用户输入的非结构化数据转变为结构化数据存入数据库时,也需要明确相关的用户标识。 在 COZE 工作流中,数据库节点的设置包括输入参数的设置(如参数名、参数值、引用来源)以及在 SQL 输入中添加相应的代码。 总之,明确用户标识对于准确判断数据归属和进行数据库操作是很重要的。
2025-02-25
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的? 结合以上需求,我需要在飞书上构建一个企业每日利润表分析与汇报助手,该选定哪种prompt框架
很抱歉,目前飞书知识库中没有关于您所描述的这种特定需求下应选定哪种 prompt 框架的相关内容。但一般来说,构建这样的企业每日利润表分析与汇报助手的 prompt 框架可以考虑以下几个方面: 1. 明确数据来源和格式:清晰描述数据来自 Excel 或 MySQL 数据库,以及包含的具体字段。 2. 定义分析维度和指标:如按板块、国家等维度汇总数据,关注利润相关的指标。 3. 设定时间范围:明确分析近一周的数据变化。 4. 描述图表要求:指定以柱状图展示数据。 5. 解释变化原因:阐明导致数据变化或波动的关键因素。 您可以根据实际情况进一步细化和完善这个框架。
2025-02-15
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的?
要创建这样一个智能体助手来分析您提供的数据,以下是一些建议的步骤: 1. 数据获取与预处理: 从 Excel 或 MySQL 数据库中读取数据。 对数据进行清洗和预处理,例如处理缺失值、异常值等。 2. 数据分析与计算: 按照用户需求的维度(如板块、国家、品牌等)对数据进行分组和汇总计算。 计算近一周的数据变化情况。 3. 图表生成: 使用合适的图表库(如 matplotlib、Seaborn 等)将汇总后的数据以柱状图的形式展示。 4. 变化原因分析: 通过比较不同维度的数据,找出导致变化或波动的关键因素。 在技术实现方面,您可以使用 Python 编程语言来完成上述任务。例如,使用 Pandas 库进行数据处理和分析,使用 Matplotlib 库生成图表。希望这些建议对您有所帮助,如果您在实现过程中遇到具体的技术问题,欢迎随时向我咨询。
2025-02-15
coze的智能体如何接入微信?
要将 Coze 智能体接入微信,可按以下步骤操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,可以看到运行的是两个服务。 2. 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效作为过期时间,指定团队空间,勾选所有权限。保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏 bot/之后的数据就是该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 绑定微信:准备一个闲置的微信,点击容器,点击“wcandyaibot”后面的日志按钮,用提前预备好的微信进行扫码。手动刷新界面,点击“刷新日志”,若看到 WeChat login success,即表示微信登录成功。为确保微信实时在线,点击“日志管理”的“wcandyaibot”的“刷新日志”,若显示“wechat login seccess”则表示微信正常登录中。 6. 效果测试:把绑定的微信号拉到群里或者单独对话,训练的数据越好,对话效果越好。
2025-04-11
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
coze开发硬件接入ai
如果您想开发硬件接入 Coze 智能体,以下是一些相关信息: 在服务器设置方面,对于 chatgptonwechat(简称 CoW)项目,可点击“Docker”中的“编排模板”中的“添加”按钮。备注说明版可借用“程序员安仔”封装的代码。将编译好的内容复制进来,在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”,若无法正常启动,可查看文档后面的“常见问题”。 关于计划,包括弄共学、做网页连接 Coze 等,涉及网页、小程序、App、桌面应用、浏览器插件等方面,还提到了硬件相关的工作安排。 在入门 Coze 工作流方面,首先要明确任务目标与执行形式,包括详细描述期望获得的输出内容(如文本、图像、音频等形式的数据,以及具体格式和结构、质量标准),预估任务的可行性,确定任务的执行形式。例如对于一篇文章,可参照特定框架进行微调,评估任务可行性,结合使用习惯确定预期的执行形式。
2025-03-27
COZE接入企业微信
要将 COZE 接入企业微信,您可以按照以下步骤进行操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,查看运行的服务,手动刷新日志,若看到“WeChat login success”,则接入成功。 2. 在 COZE 官网左下角选择 COZE API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效,指定团队空间,勾选所有权限,保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,出现“Bot as API”,勾选并确定应用已成功授权。 5. 配置微信客服: 访问微信客服 https://kf.weixin.qq.com/,点击开通,勾选同意,点击下一步,按步骤填写,注册企业微信。 点击配置,到微信客服的企业信息,复制企业 ID 到 COZE 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(若为空,点击“随机获取”),到 COZE 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 COZE 页面粘贴。 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 COZE 页面粘贴,点击保存。 请注意,第一次设置回调地址时,目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。
2025-03-21
COZE接入企业微信
要将 COZE 接入企业微信,您可以按照以下步骤进行操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,查看运行的服务,手动刷新日志,若看到“WeChat login success”,则成功接入微信。 2. 在 COZE 官网左下角选择 COZE API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效,指定团队空间,勾选所有权限,保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 4. 进行 API 授权,点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 配置微信客服: 访问微信客服 https://kf.weixin.qq.com/,点击开通,勾选同意,点击下一步,按步骤填写,注册企业微信。 点击配置>到微信客服的企业信息,复制企业 ID>到 COZE 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(若为空,点击“随机获取”),到 COZE 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 COZE 的页面粘贴。 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 COZE 的页面粘贴,点击保存。 请注意,第一次设置回调地址时,目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。
2025-03-21
COZE接入企业微信
要将 COZE 接入企业微信,可参考以下步骤: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,可看到运行的两个服务。然后点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。此界面不会实时更新显示,需手动刷新,若看到“WeChat login success”,则接入微信成功。 2. 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效作为过期时间,选择指定团队空间,勾选所有权限。保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏“bot/”之后的数据即为该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 配置微信客服: 访问微信客服 https://kf.weixin.qq.com/,点击开通,勾选同意,点击下一步,按步骤填写,注册企业微信。 点击配置>到微信客服的企业信息,复制企业 ID>到 coze 页面进行粘贴填写企业 ID,并点击下一步。 到微信客服的开发配置,找到回调配置,复制 Token、EncodingAESKey(若为空,点击“随机获取”),到 coze 页面进行粘贴,点击下一步。 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 coze 的页面粘贴。 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 coze 的页面粘贴,点击保存。 注意:目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。
2025-03-21
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
想要做一节讲如何用智能体做企业数字化转型的课程,如何设计
以下是关于如何设计用智能体做企业数字化转型课程的建议: 一、参考案例 1. 李国宝的相关经验 具有丰富的从业经验,包括通信工程、数据通信网络培训、创业、网络安全解决方案及培训、AI 课程开发与培训等。 开发过面向不同群体的 AI 课程,如《数字化转型实践》面向传统企业数字化、AI 赋能转型。 2. 90 分钟从 0 开始打造你的第一个 Coze 应用课程 从零开始教学做应用界面,先基础教学,再涉及特定应用。 介绍当前承接业务,包括辅导、培训、定制及企业 AI 落地等。 挖掘用户对 AI 应用的功能需求,如对交互界面的需求。 二、课程设计要点 1. 对于企业管理者 AI 辅助决策:在小规模决策中使用 AI 分析工具,以其分析结果作为决策参考。 员工培训计划:制定 AI 工具使用的培训计划,帮助团队成员了解日常工作中如何有效利用 AI。 流程优化:识别公司中可能受益于 AI 自动化的重复性任务,从小流程开始测试 AI 解决方案的效果。 AI 伦理和政策:制定公司的 AI 使用政策,确保 AI 应用符合伦理标准和法律要求。 2. 对于教育工作者 AI 辅助教案设计:尝试使用 AI 帮助设计课程大纲或生成教学材料 ideas,为课程带来新视角。 个性化学习路径:探索使用 AI 分析学生学习数据,为不同学生制定个性化学习计划。 创新教学方法:考虑将 AI 工具整合到课堂活动中,如使用 AI 生成的案例研究或模拟场景。 AI 素养教育:开发简单的课程模块,教导学生了解 AI 基础知识、应用领域及其对社会的影响。 三、注意事项 无论面向哪个群体,都应记住:与 AI 协作是一个学习过程。从小处着手,保持好奇心和开放态度,会发现 AI 不仅能提高工作效率,还能激发创造力,开拓新的可能性。最重要的是,始终保持批判性思维,将 AI 视为强大的工具,而不是完全依赖的解决方案。
2025-04-18
如何利用 AI 赋能【数据分析在企业自媒体营销中的应用综述(以抖音、小红书平台为例)】
利用 AI 赋能【数据分析在企业自媒体营销中的应用综述(以抖音、小红书平台为例)】可以参考以下方法: 1. 市场分析:利用 AI 分析工具研究市场趋势、消费者行为和竞争对手情况,处理大量数据以快速识别关键信息,如受欢迎的产品、价格区间和销量等。 2. 关键词优化:借助 AI 分析和推荐高流量、高转化的关键词,优化产品标题和描述,提高搜索排名和可见度。 3. 产品页面设计:使用 AI 设计工具根据市场趋势和用户偏好自动生成吸引人的产品页面布局。 4. 内容生成:利用 AI 文案工具撰写有说服力的产品描述和营销文案,提高转化率。 5. 图像识别和优化:通过 AI 图像识别技术选择或生成高质量的产品图片,更好地展示产品特点。 6. 价格策略:依靠 AI 分析不同价格点对销量的影响,制定有竞争力的价格策略。 7. 客户反馈分析:利用 AI 分析客户评价和反馈,了解客户需求,优化产品和服务。 8. 个性化推荐:借助 AI 根据用户的购买历史和偏好提供个性化的产品推荐,增加销售额。 9. 聊天机器人:采用 AI 驱动的聊天机器人提供 24/7 的客户服务,解答疑问,提高客户满意度。 10. 营销活动分析:使用 AI 分析不同营销活动的效果,了解哪些活动更能吸引顾客并产生销售。 11. 库存管理:依靠 AI 预测需求,优化库存管理,减少积压和缺货情况。 12. 支付和交易优化:利用 AI 分析不同支付方式对交易成功率的影响,优化支付流程。 13. 社交媒体营销:借助 AI 在社交媒体上找到目标客户群体,通过精准营销提高品牌知名度。 14. 直播和视频营销:利用 AI 分析观众行为,优化直播和视频内容,提高观众参与度和转化率。 此外,还可以参考以下具体案例: 赛博发型师:基于 AI 技术为用户提供个性化的发型设计服务,通过分析用户面部特征、个人风格和偏好,自动生成发型设计方案,用户可上传照片,系统分析后生成详细报告和效果图,报告可存档至飞书文档供专业发型师复核评估。 营销文案创作专家深度版:专为企业营销团队等设计,提供从文案框架创作到生成的一站式服务,通过分析产品信息等挖掘痛点和卖点,生成营销文案,并提供营销数据分析服务以优化策略和提高协作效率。 抖音商家客服(C 端用户)/抖音带货知识库工具(B 端商家):作为 AI 客服系统建设助手,帮助企业实现一站式 AI 客服解决方案。 在实际操作中,还可以参考以下经验: 飞书、多维表格、扣子相关应用优化及自媒体账号分析演示分享:包括直播课程相关内容,优化社区文档问题,介绍技术栈选择,强调扣子、多维表格及 AI 字段捷径结合做数据分析的优势,现场演示账号分析效果,展示同步数据的自动化流程。 高效数据分析应用搭建实操讲解:先介绍数据在多维表格执行无二次请求的优势,接着进行技术实操,从新建“数据 AI 高效数据分析”应用开始,讲解抓数据、同步数据前设置变量等步骤,包括搭建界面、做工作流、保存变量等操作,可在市场选插件。 高雁讲解数据处理及多维表格操作过程:进行操作演示与讲解,包括将用户信息发送到多维表格、调整界面显示、处理按钮点击事件等操作,还讲解了批处理、代码节点等内容。
2025-04-13
AI在企业落地
企业落地 AI 可以参考以下内容: Anthropic 在 AI Engineer Summit 2025 上分享了相关最佳实践,并总结了常见错误。核心挑战包括如何入手、如何评估效果、技术选择困惑(如是否需要微调)。关键经验是评估先行,明确“智能度、成本、延迟”之间的平衡,避免过早微调,先进行基础优化。例如 Intercom 通过评估优化 AI Agent Fin,使其处理 86%的客服请求,其中 51%无需人工介入。相关链接: 影刀 RPA+AI Power 方面:大模型有输入和输出限制,AI Power 集成丰富组件及技能组件可拓展 AI 服务能力边界,打造 AI Agent,如搜索引擎组件可让 AI 接入互联网获取实时信息,RPA 组件可直接调用影刀 RPA 客户端应用实现自动化操作。其具有无缝多样的使用方式,如嵌入方式包括网页分享、对话助理、API 集成等。企业系统分散,AI Power 提供多种调用方式方便企业灵活选择接入方式。此外,影刀 AI Power 为企业提供教学培训、技术答疑、场景共创等贴身服务支持,帮助企业把 AI 落地。 此外,相关知识库还介绍了面向学习者、创作者和企业的不同服务: 面向学习者:社区提供清晰学习路径,学习者通过丰富课程、活动和竞赛提升自己,积累能力成为高素质 AI 人才。 面向创作者:创作者掌握 AI 技术利用社区资源创作,满足企业需求,为社区发展注入活力。 面向企业:链接 AI 产品和传统企业,通过与社区合作获得优质内容与服务,从学习者中获取潜在流量。社区合作实践为学习者和创作者提供应用场景和技术经验。
2025-04-12
请问DeepSeek如何与生产型企业进行结合创造效益 ?
DeepSeek 与生产型企业的结合可以从以下几个方面创造效益: 1. 模型优化与性能提升:英伟达基于 FP4 优化的 DeepSeekR1 检查点现已在 Hugging Face 上开源。这种优化将模型Transformer 模块内的线性算子的权重和激活量化到了 FP4,适用于 TensorRTLLM 推理。每个参数从 8 位减少到 4 位,使磁盘空间和 GPU 显存的需求减少约 1.6 倍。使用 TensorRTLLM 部署时,需要支持 TensorRTLLM 的英伟达 GPU(如 B200),并且需要 8 个 GPU 来实现 tensor_parallel_size=8 的张量并行。代码利用 FP4 量化、TensorRT 引擎和并行计算,实现高效、低成本的推理,适合生产环境或高吞吐量应用。 2. 部署指南:社区伙伴 Hua 投稿的《在 Azure AI Foundry 部署 DeepSeek 大模型全指南》,手把手指导在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 3. 为企业带来实质提升:DeepSeek 的强化学习和联网搜索能力改变了信息获取方式,从“检索—阅读—摘要”转变为“提问—获得答案”,大幅提升工作效率。其开源策略打破了技术垄断,让国内大模型能力迅速提升。在企业级部署方面,通过行业知识蒸馏和领域自适应训练,实现对企业非结构化数据的深度解析能力。特别是在实时决策支持、多模态交互及复杂知识图谱构建方面,为企业打造具备持续进化能力的数字神经中枢。这种“AI 即服务”的部署模式,重构了传统工作流效率,并通过预测性分析和认知自动化开启企业智能化的第二增长曲线。同时,还可以考虑垂直场景强化学习机制的增加,如在智能制造场景中嵌入设备故障模式自发现的奖惩机制;以及可信计算架构的升级,针对金融、医疗等高合规需求场景。
2025-04-10
企业场景下最常用的工作流
在企业场景下,工作流是一种灵活的智能体编排方式,将业务过程中的任务按规则和顺序组织执行,降低任务复杂度和不确定性,减少对提示词工程和模型推理能力的依赖,提高大语言模型应用面向复杂任务的性能、稳定性和可解释性。工作流是智能体平台最核心强大的部分,衡量一个 AI 智能体的含金量,除大模型能力外,大部分业务价值体现在工作流设计里。 工作流的典型场景包括: 入门场景: 仅添加一个节点构建简单工作流,如通过插件节点内的插件能力自定义工作流,使用获取新闻插件构建获取新闻列表的工作流,详细配置教程可参见。 使用大语言模型(LLM)节点接收并处理用户问题,详细配置教程可参见。 使用 Code 节点生成随机数,详细配置教程可参见。 进阶场景: 通过多节点组合构建逻辑较复杂的工作流,如先通过插件能力进行关键词搜索、然后通过 Code 节点过滤指定信息、最后通过插件能力获取信息详情,详细配置教程可参见。 通过条件判断识别用户意图,例如通过 LLM 节点处理用户消息,将消息分为不同类型,然后通过 Condition 节点分别处理不同类型的用户消息,详细配置教程可参见。 常见的 AI Workflow 开发平台有: Coze:新一代 AI Bot 开发平台,集成了丰富的插件工具,国际版和国内版均有。 Dify:开源平台,支持自定义和插件。 腾讯元器。 FastGPT:国内知名,支持自定义流程。 影刀&zapier。 Leap。 Betteryeah:立足 RPA 场景,用 AI 将用户需求生成工作流,并通过 RPA 自动化,产品形态与 Coze 相似,是企业级的 AI 应用开发平台,无论团队编程技能如何,都能快速创建由 AI 驱动的 Agents、知识库、工作流和任务。 Flowise:快速实现智能体搭建。 BISHENG:主攻 tob 场景的开源 LLM 搭建平台,与 fastgpt 功能类似,但面向的客户不同,整体功能和部署成本更重。 Agent 构建平台有豆包、文心一言、星火助手、kimi.ai 等。由于 Coze 具有拓展强、好上手、不用出国等优点,本教程的工作流以 Coze 为主。
2025-04-09