直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
cow微信机器人
以下是关于基于 COW 框架的 ChatBot 实现步骤的详细介绍: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信等平台。 实现内容包括: 打造属于自己的 ChatBot,具备文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能。 常用开源插件的安装应用。 正式开始前需知: ChatBot 与在各大模型网页端使用的区别在于本实现思路需接入大模型 API(API 单独付费)。 风险与注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用,包括对大模型生成内容的甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 特点: 多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 多模型选择,如 GPT3.5、GPT4.0、Claude、文心一言、讯飞星火、通义千问、Gemini、GLM4、LinkAI 等。 多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 多部署方法,包括本地运行、服务器运行、Docker 方式。 部署项目的具体步骤: 1. 下载 COW 机器人项目(chatgptonwechatmaster.zip)并解压缩。 2. 解压后打开 COW 文件夹,在空白处 shift+鼠标右键,点击“在此处打开 Powershell 窗口”。 3. 在 Powershell 窗口中,粘贴“pip install r requirements.txt”,等待执行完成后,继续粘贴“pip install r requirementsoptional.txt”。 4. 执行完成后关闭窗口,在当前目录下找到 configtemplate.json 文件。新生成的是配置文件,右键使用记事本打开,修改画红框的地方。小白建议直接复制给定的配置,删除新文件里的所有代码,复制给定代码粘贴到文件里,找到第 4 行,把注册并保存好的千问 API key 粘贴到双引号里,修改完保存并关闭文件。 5. 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json,双击进入后设置 password 和 admin_users,可先设置为和示例一样,之后再改,保存后关闭。 6. 重新回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 里复制粘贴“python app.py”。 基于张梦飞同学的更适合小白的使用教程:
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源
在人工智能时代,最重要的三个基石通常包括以下方面: 1. 架构:如 Transformer 和 Diffusion 这两种核心架构,分别在数据转换和数据向图像转换方面发挥关键作用,构成了当前 AI 技术的重要基础。 2. 算力:自 2010 年以来,GPU 等计算资源的快速发展使算力得到空前爆发,为 AI 技术的进步提供强大支持。 3. 人才网络:AI 领域的关键人才网络起到不可忽视的作用,例如 Google 及其相关实验室和收购的公司培养和汇聚了众多杰出人才,他们的流动与合作推动了 AI 技术的发展。 关于这三个基石的资源,您可以通过以下途径获取: 1. 科技类的专业网站和论坛,如一些知名的技术社区和学术网站。 2. 相关的学术研究报告和论文,可在学术数据库中查找。 3. 行业内的权威专家和学者的讲座、演讲等。 4. 科技公司发布的技术文档和报告。
2024-10-10
微信机器人分段回复
以下是关于微信机器人的相关信息: 「第一天」参赛 Bot 配置要求: 1. 关闭进群欢迎语: 管理员认证:auth【你的密码】密码请查看 Plugins/godcmd/config.json disablep hello,关闭 hello 插件。 enablep hello,赛后如需重启,使用该指令。 2. 在群里回答时不能@对方:私聊微信机器人认证成功后,在对话框中输入第一行代码。出现安装成功后,输入第二行。如果出现安装失败,则在插件目录下,右键删除 ipartment 文件夹后,重新安装即可。安装完成后,去服务器的插件目录中,修改配置文件:plugins/ipartment/config.json,可以自行修改,按照如下示例配置。 3. 统一修改 config.py 中的触发词为{问题}:找到配置文件,路径如下,修改"group_chat_prefix":,注意符号均为英文符号。 4. 回答不能分好几条:之前的跟学活动中,使用分段能力的用户,在提示词中,去掉提示词中带有的//n 的示例即可取消分段。 零基础模板化搭建 AI 微信聊天机器人: 1. 纯 GPT 大模型能力的微信聊天机器人搭建: 疑问解答: 容器编排模板是一种配置文件,定义了如何在 Docker 中部署和管理多个容器。通过编排模板,您可以一键部署复杂的应用环境,而不需要手动配置每个容器的细节。本文中,我们通过容器编排模板配置了 COW 组件,使其能够与微信和极简未来平台进行交互。 为什么需要使用 Docker 部署 COW 组件?Docker 提供了一种隔离的运行环境,可以确保应用程序在任何环境下都能稳定运行。通过 Docker 部署 COW 组件,可以简化安装和配置过程,确保每次部署的环境一致,并且容易管理和维护。 为什么需要配置多个前缀来触发机器人回复?配置多个前缀(如“bot”、“@bot”)可以确保只有在特定情况下机器人才会回复,避免在群聊或私聊中频繁干扰。这样可以提高机器人的响应准确性和用户体验。 如果遇到扫码登录失败,可以尝试以下步骤: 重启 Docker 容器:在宝塔面板中找到对应的容器,点击“重启”。 检查网络连接:确保您的服务器和微信客户端都能正常访问互联网。 重新扫描二维码:等待容器重新启动后,重新扫描日志中生成的二维码。 使用这个 AI 微信聊天机器人会不会很贵?实际上不会。极简未来平台的收费是按使用量计算的,对于一般用户来说,费用相对低廉。充值一次少量费用,通常可以使用很长时间。同时,平台还提供每天签到免费领取积分的福利,进一步降低了使用成本。 使用极简未来平台创建 AI 机器人的费用是多少? 开始搭建: 配置腾讯云轻量应用服务器。 配置部署 COW 组件:重点来了,在刚刚复制的 dockercompose.yml 文件中,我们需要修改一下里面的具体配置来串联我们的微信号和平台上已创建好的 AI 机器人。这个配置的参考官方来源是这里:https://docs.linkai.tech/cow/quickstart/config,当然我把主要的配置解释先给大家看一下。从配置参数解释可以看到,其实配置里面的每个参考的名称的全大写描述,比如 open_ai_api_key 对应编排模板的 OPEN_AI_API_KEY,model 对应编排模板的 MODEL,以此类推我们就可以在编排模板去配置具体的配置参数了。所以以下是我们最新的容器编排模板的配置参数(里面有'{{中文描述}}'的请大家替换为前面让大家预留好的对应值)。这里要留意下,在私聊或者群上交流时,最好都是需要加上一些前缀才触发机器人回复,比如我这里配置的是,即只有 ChatGPT 测试群和 ChatGPT 测试群 2 的群组消息才会自动回复。
2024-10-10
搭建AI客服,对接知识库
以下是搭建 AI 客服并对接知识库的步骤: 1. 搭建 OneAPI(https://github.com/songquanpeng/oneapi),用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时了解如何白嫖大模型接口。 2. 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统。将知识文件放入其中,并接入上面的大模型作为分析知识库的大脑,最后回答问题。如果不想接到微信,搭建到此即可,它也有问答界面。 3. 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat)接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先用小号以防封禁风险。搭建完后想拓展功能,可参考 Yaki.eth 同学的教程(https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件能进行文件总结、MJ 绘画等。 此外,用 Coze 免费打造自己的微信 AI 机器人时: 1. 确定功能范围,例如支持用户发送“关键字”自助获取分享的“AI 相关资料链接”;能回答 AI 相关知识,优先以“知识库”中的内容回答,不足时调用大模型回复并在答案末尾加上“更多 AI 相关信息,请链接作者:jinxia1859”;能在微信公众号上发布作为微信客服助手。 2. 为实现上述功能,需要准备的内容有:根据目的和核心能力编写 prompt 提示词;整理“关键字”与“AI 相关资料链接”的对应关系,可用 word、txt、excel 整理;创建知识库用于回答 AI 相关知识;创建工作流控制 AI 按要求处理信息;准备好微信公众号以便发布机器人。
2024-10-10
我是一个AI小白,希望学习掌握Ai工具应用于工作之中,请帮我制定2周的学习计划
以下是为您制定的两周 AI 学习计划: 第一周: 第一天至第二天:阅读「」,熟悉 AI 的术语和基础概念,了解人工智能及其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 第三天至第四天:在「」中选择适合初学者的课程,特别推荐李宏毅老师的课程。通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习。 第五天至第六天:根据自己的兴趣选择特定的 AI 模块(比如图像、音乐、视频等)进行深入学习,掌握提示词的技巧。 第七天:体验 AI 产品,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式。 第二周: 第一天至第二天:学习编程语言,如 Python、JavaScript 等,掌握编程语法、数据结构、算法等基础知识。 第三天至第四天:尝试使用 AI 工具和平台,如 ChatGPT、Midjourney 等,探索一些面向初学者的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 第五天至第六天:参与 AI 相关的实践项目,比如参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题。 第七天:关注 AI 发展的前沿动态,关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响。 在学习过程中,要注重理论与实践相结合,多尝试使用各种产品做出自己的作品,并在知识库分享实践经验。
2024-10-10
promot提示词框架有哪些
提示词工程师已经发展出了多种提示词框架,以下为您介绍一些常见的框架: 1. ICIP 框架:包括指令(Instruction,必须)、背景信息(Context,选填)、输入数据(Input Data,选填)和输出指示器(Output Indicator,选填)。 2. BROKE 框架:着重于背景(Background)、角色定义(Role)、目标设定(Objectives)、关键成果展示(Key Result)以及持续的试验与优化(Evolve)。 3. CRISPE 框架:分为上下文(Context)、角色(Role)、说明(Instruction)、主题(Subject)、预设(Preset)和例外(Exception)。 4. 情境框架。 此外,还有一些特定场景下的框架,比如在商务英语培训中使用的 BROke 框架,其示例为: |框架|说明|示例| |||| |Background:背景|说明背景,为 ChatGPT 提供充足信息|公司由于国际化战略,需要员工提升职场英语水平。| |Role:角色|希望 ChatGPT 扮演的角色|ChatGPT 扮演职场英语导师,支持员工的学习。| |Objectives:目标|希望实现的目标|提升团队的英语交流能力,促进国际业务的成功。| |Key Result:关键结果|想要的具体效果试验并调整|提高员工的职场英语水平,通过实际业务表现评估。| |Evolve:试验并改进|“三种改进方法自由组合|a.提供针对性的语法培训,b.针对实际沟通场景改进学习材料,c.鼓励员工定期进行语言交流。”|
2024-10-10
ai从哪里学起
对于新手学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到为初学者设计的一系列课程,特别推荐李宏毅老师的课程。 利用在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,还有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据自身兴趣选择特定模块深入学习。建议掌握提示词的技巧,其上手容易且实用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品并制作自己的作品。知识库中有很多大家实践后的作品和文章分享,欢迎您实践后也进行分享。 5. 体验 AI 产品: 与现有的 AI 产品互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,激发对 AI 潜力的认识。 完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。学习 AI 是一个长期的过程,需要耐心和持续的努力,不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。
2024-10-10
可以用AI做抖音吗?
可以用 AI 做抖音。例如,在抖音上有作者用 AI 做的龙族预告片获得了高赞。熟悉相关 IP 及其名场面和打动粉丝的点,就能用 AI 制作该 IP 的视频内容。此外,一些短视频内容平台如 Youtube、Tiktok 增加了“AI 配乐”的选项,用户在发布视频前的配乐阶段,可以使用自己创作的音乐。但在发短视频的场景中,人们往往倾向于使用能触发情感共鸣和烘托氛围感的热门音乐,AI 生成的配乐需要在情感氛围上超越曲库水平且生成速度足够快,才能更好地发挥价值。同时,魔音工坊是一款短视频达人推荐的 AI 配音神器,能将文本一键转换为音频,为短视频等完成专业配音。
2024-10-10
我是一名研究生,我想利用python实现机器学习,对碳排放进行预测,需要你帮我写出代码,我应该问你哪些问题或者给你哪些前提条件
在您希望利用 Python 实现机器学习对碳排放进行预测并让我为您编写代码时,您需要向我提供以下关键信息和问题: 1. 您所拥有的碳排放相关数据的格式和特征,例如数据的类型(数值型、分类型等)、数据的字段(如时间、能源消耗、生产活动等)。 2. 您对预测模型的性能要求,比如预测的精度、召回率等指标的期望。 3. 您是否有特定的机器学习算法倾向,或者是否希望我根据数据特点为您推荐合适的算法。 4. 数据的规模和分布情况,这会影响模型的训练时间和复杂度。 5. 您是否有可用的预处理步骤,例如数据清洗、特征工程的想法或已经完成的部分。 6. 对于模型的可解释性是否有要求。 7. 您的计算资源情况,例如内存、CPU 核心数等,以便选择适合的模型和训练策略。
2024-10-10
目前市面上有哪些模型
目前市面上的模型主要有以下几种: 1. Ranger 划分的大模型整体架构中的各层模型: 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 数据层:包括静态的知识库和动态的三方数据集。 模型层:如 LLm(大语言模型,例如 GPT,一般使用 transformer 算法实现),以及多模态模型(如文生图、图生图等模型,训练所用数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。 2. 智谱·AI 开源的多模态模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。 CogVLM17B:强大的开源视觉语言模型,在多模态权威学术榜单上综合成绩第一,在 14 个数据集上取得了 stateoftheart 或者第二名的成绩。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。 3. OpenAI 的模型: GPT4 Beta:一组改进 GPT3.5 的模型,可以理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可以理解并生成自然语言或代码。 DALL·E Beta:可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper Beta:可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex Limited Beta:一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。
2024-10-10