Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想了解如何在微信公众号搭建一个能发语音的数字人

Answer

以下是在微信公众号搭建能发语音的数字人的相关步骤:

  1. 照片数字人工作流及语音合成(TTS)API - 出门问问 Mobvoi:
    • 工作流地址:https://github.com/chaojie/ComfyUI-mobvoi-openapi/blob/main/wf.json
    • 相关文件:
  2. 「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人:
    • 组装&测试“AI 前线”Bot 机器人:
      • 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入即可。
      • 组装&测试步骤:
        • 将上文写好的 prompt 黏贴到【编排】模块,prompt 可随时调整。
        • 在【技能】模块添加需要的技能:工作流、知识库。
        • 【预览与调试】模块,直接输入问题,即可与机器人对话。
    • 发布“AI 前线”Bot 机器人:
      • 测试 OK 后,点击右上角“发布”按钮即可将“AI 前线”发布到微信、飞书等渠道。
    • 发布到微信公众号上:
      • 选择微信公众号渠道,点击右侧“配置”按钮。
      • 根据以下截图,去微信公众号平台找到自己的 App ID,填入确定即可。不用了解绑即可。
    • 最后去自己的微信公众号消息页面,就可以使用啦。
Content generated by AI large model, please carefully verify (powered by aily)

References

照片数字人工作流及语音合成(TTS)API- 出门问问Mobvoi

Hi,亲爱的开发者小伙伴!本流为了方便快捷以调用api为主,能让你轻松搭建并使用后拥有一个属于自己的“照片数字人”,务必记得在节点输入领用的appkey进行适配,如在操作过程中有任何问题都可以戳JessyJang?wechat:9755294(备注ComfyUI)1.工作流地址:https://github.com/chaojie/ComfyUI-mobvoi-openapi/blob/main/wf.json2.相关文件:记得下载节点包,放进你的node文件夹里,这样工作流打开就不会爆红了!ComfyUI启动后就可以将json文件直接拖进去使用了![mobvoi avater openapi.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/NNzNbFrXQoOisOxScnXcEZs7njg?allow_redirect=1)[ComfyUI-mobvoi-openapi.zip](https://bytedance.feishu.cn/space/api/box/stream/download/all/H87fbHJjMorpxExER4tcvmLXnnh?allow_redirect=1)1.工作流示意图:

「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人

返回个人空间,在Bots栏下找到刚刚创建的“AI前线”,点击进入即可。组装&测试步骤:1)将上文写好的prompt黏贴到【编排】模块,prompt可随时调整;2&3)在【技能】模块添加需要的技能:工作流、知识库;4)【预览与调试】模块,直接输入问题,即可与机器人对话了;[heading4]2、发布“AI前线”Bot机器人[content]测试OK后,点击右上角“发布”按钮即可将“AI前线”发不到微信、飞书等渠道了。[heading4]3、如何发布到微信公众号上?[content]选择微信公众号渠道,点击右侧“配置”按钮;根据以下截图,去微信公众号平台找到自己的App ID,填入确定即可。不用了解绑即可。[heading3]?恭喜!你完成了自己AI机器人的搭建![content]最后去自己的微信公众号消息页面,就可以使用啦~

「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人

返回个人空间,在Bots栏下找到刚刚创建的“AI前线”,点击进入即可。组装&测试步骤:1)将上文写好的prompt黏贴到【编排】模块,prompt可随时调整;2&3)在【技能】模块添加需要的技能:工作流、知识库;4)【预览与调试】模块,直接输入问题,即可与机器人对话了;[heading4]2、发布“AI前线”Bot机器人[content]测试OK后,点击右上角“发布”按钮即可将“AI前线”发不到微信、飞书等渠道了。[heading4]3、如何发布到微信公众号上?[content]选择微信公众号渠道,点击右侧“配置”按钮;根据以下截图,去微信公众号平台找到自己的App ID,填入确定即可。不用了解绑即可。[heading3]?恭喜!你完成了自己AI机器人的搭建![content]最后去自己的微信公众号消息页面,就可以使用啦~

Others are asking
人工智能发展历程
人工智能的发展历程如下: 二十世纪中叶,人工智能领域开启,符号推理流行,出现专家系统,但因方法局限性和成本问题,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中,“人工智能”常被视为“神经网络”的同义词。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开达特茅斯会议,“人工智能”一词被正式提出,并确立为一门学科。此后近 70 年,AI 发展起起落落。 AI 技术发展历程包括:早期阶段(1950s 1960s)的专家系统、博弈论、机器学习初步理论;知识驱动时期(1970s 1980s)的专家系统、知识表示、自动推理;统计学习时期(1990s 2000s)的机器学习算法(决策树、支持向量机、贝叶斯方法等);深度学习时期(2010s 至今)的深度神经网络、卷积神经网络、循环神经网络等。
2025-04-09
人工智能发展历史
人工智能的发展历史如下: 起源于二十世纪中叶,最初符号推理流行,带来了专家系统等重要进展,但因方法局限性和成本问题,20 世纪 70 年代出现“人工智能寒冬”。 随着计算资源变便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院召开的会议上,“人工智能”一词被正式提出并确立为一门学科。此后近 70 年,AI 的发展起起落落。 AI 技术发展历程包括早期阶段(1950s 1960s)的专家系统、博弈论、机器学习初步理论;知识驱动时期(1970s 1980s)的专家系统、知识表示、自动推理;统计学习时期(1990s 2000s)的机器学习算法(决策树、支持向量机、贝叶斯方法等);深度学习时期(2010s 至今)的深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括大模型(如 GPT、PaLM 等)、多模态 AI(视觉 语言模型、多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
2025-03-10
人工智能发展历史
人工智能的发展历史如下: 起源于二十世纪中叶,最初符号推理流行,带来了专家系统等重要进展,但因方法局限性和成本问题,20 世纪 70 年代出现“人工智能寒冬”。 随着计算资源变便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。 1956 年,在达特茅斯学院召开的会议上,人工智能一词被正式提出并确立为一门学科。此后近 70 年,AI 发展起起落落。 AI 技术发展历程包括:早期阶段(1950s 1960s)的专家系统、博弈论、机器学习初步理论;知识驱动时期(1970s 1980s)的专家系统、知识表示、自动推理;统计学习时期(1990s 2000s)的机器学习算法(决策树、支持向量机、贝叶斯方法等);深度学习时期(2010s 至今)的深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括:大模型(如 GPT、PaLM 等)、多模态 AI(视觉 语言模型、多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
2025-02-13
总结一下大模型数据发展的最新趋势,基于历史的事实和数据总结23年以来发生了什么,25年可能发生什么
以下是关于大模型数据发展趋势的总结: 2023 年以来: 大量创新大模型架构涌现,尝试在保留 Transformer 优势的同时解决其算力开销太高的问题,对 Transformer 的绝对统治地位形成有力挑战。 多种有代表性的技术路径出现,如类循环神经网络模型(以 RWKV 为代表)、状态空间模型(以 Mamba 为代表)、层次化卷积模型(以 UniRepLKNet 为代表)、多尺度保持机制模型(以 RetNet 为代表)、液体神经网络模型(以 LFM 为代表)等。这些模型在不同程度保留 Transformer 架构优势的基础上,结合 RNN、CNN 等思想做出创新发展,使得大模型架构呈现出日益明显的混合趋势,更多创新架构具备“博采众家之长”的特点。 对于 2025 年的预测,由于目前的信息有限,难以给出确切的预测。但可能会在现有创新架构的基础上进一步优化和融合,出现更高效、更强大且更具通用性的大模型架构,同时可能在技术应用和行业落地方面取得更显著的成果。
2025-01-16
2024年《全球人工智能治理研究报告》议题“国家主权原则和人工智能发展”的内容及理解
以下是 2024 年《全球人工智能治理研究报告》中关于“国家主权原则和人工智能发展”的相关内容: 在 2024 年人工智能发展状况的安全与全球治理方面: 英国创建了世界上第一个人工智能安全研究所(AISA),其有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA 还发布了 Inspect 框架用于 LLM 安全评估。英国宣布与美国等效机构签署谅解备忘录,并计划在美国旧金山设立办事处。 英国通过其高级研究与发明机构(ARIA),花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险。英国政府还计划设立“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。美国能源部利用内部测试床评估人工智能对关键基础设施和能源安全的风险。 在技术和方法方面: 离线直接比对方法不会很快大规模取代 RLHF。谷歌 DeepMind 团队发现 RLHF 在涵盖总结、有用性、对话性等数据集上的测试中胜出,能更有效地改善生成任务。Cohere for AI 探索放弃近端策略优化 RLHF 中的算法,有利于其 RLOO 训练器,可降低 GPU 使用率和提高训练速度。 但 RLHF 存在可能滋生谄媚行为的问题,如 Anthropic 认为 SOTA AI 助手表现出奉承行为是因为人类偏好数据等。开发透明度虽在提高,但仍有很大改进空间。 在安全研究方面: 随着 AI 发展,新功能带来新漏洞,开发人员加大了对“越狱”的研究。OpenAI 提出通过“指令层次结构”修复攻击,Anthropic 表明“警告防御”的潜力,Gray Swan AI 的安全专家试用“断路器”。LLM 测试初创公司 Haize Labs 与 Hugging Face 合作创建首个红队抵抗组织基准。除越狱外,还存在更隐蔽的攻击,潜在攻击面广泛,涵盖从训练到偏好数据和微调等内容。 对于“国家主权原则和人工智能发展”的理解,可能需要综合考虑各国在人工智能安全研究和治理方面的举措,以及技术发展对国家主权可能产生的影响。各国积极建立相关机构和采取措施,表明在人工智能快速发展的背景下,维护国家主权和安全的重要性。同时,技术发展中的问题和挑战也需要各国共同协作应对,以实现人工智能的健康、安全和可持续发展。
2024-12-31
能不能发一个深度整理会议纪要的提示词
以下是一些深度整理会议纪要的提示词示例: 作为 CEO 助理秘书,专注于整理和生成高质量的会议纪要,确保会议目标和行动计划清晰明确。 角色:CEO 助理秘书 作者:李继刚 版本:0.1 LLM:GPT4 插件:无 描述:专注于整理和生成高质量的会议纪要,确保会议目标和行动计划清晰明确。 注意事项:请务必准确和全面地记录会议内容,使每个参会人员都能明确理解会议的决定和行动计划。在整理会议纪要过程中,需严格遵守信息准确性,不对用户提供的信息做扩写,仅做信息整理,将一些明显的病句做微调。 链接地址: 将会议浓缩成简明摘要,包括讨论主题、重点内容、行动事项。 注意:这个是 API 里的 system prompt 。您的任务是审查提供的会议记录,并创建一个简明扼要的总结,捕捉重要信息,重点关注会议期间分配给特定个人或部门的关键要点和行动项目。使用清晰专业的语言,并使用适当的格式(如标题、小标题和项目符号)以逻辑的方式组织总结。确保总结易于理解,并提供会议内容的全面但简洁的概述,特别注重清楚地指出每个行动项目的负责人。
2024-11-15
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
微信智能客服
以下是零成本、零代码搭建一个智能微信客服的保姆级教程: 1. 起个好名字和给它头像 进入 Bot 主页并开始创建 Bot,网址:https://www.coze.cn/home 。 名字(Bot 名称):善良有爱专业的幼师。 头像(图标):AI 生成后,不喜欢可以重新生成,选择其中一个。 补充:创建 Bot 的方式有两种,点击创建 Bot 和 Coze Assistant。主页上包含这两种方式,示例中通过创建 Bot 创建。侧边导航栏一直有创建 Bot 的方式,仅主页有 Coze Assistant。两者区别在于: 创建 Bot 适合使用过 Bot 且想好名称和描述的人。 Coze Assistant 适合第一次创建 Bot 的人,从说“我想创建 bot”开始,Coze 助理会引导创建,自动生成名称、头像、人设与回复逻辑、开场白文案、开场白预设问题等。 2. 教她技能 如果通过 Coze Assistant 方式创建 Bot,Coze 助理已帮您教她技能,可按需修改完善。 起好名字和头像后进入教技能环节,先看整理布局,找到编排、预览与调试,在编排的人设与回复逻辑教她技能: 教她技能 1:认识自己。 教她技能 2:掌握专业技能。 教她技能 3:不能做什么。 3. 让她教别人 她学会技能后,使命及目标是通过互动方式教会请教的人。 找到高级下开场白,点击展开,填写开场白文案、开场白预置问题,设置 3 个问题。 勾选用户问题建议:在 Bot 回复后,根据 Prompt 提供最多 3 条用户提问建议。 添加语音选择:让她不仅会写,还会通过语音交流。 点击“发布”,选择发布平台:Bot Store、豆包、飞书、微信客服、微信公众号(服务号)、微信公众号(订阅号)、掘金。 Bot Store:Bot 会出现在 Coze Bot 商店中,获取更多曝光和流量。 豆包:一键发布到豆包 App,随时随地对话。 飞书:在飞书中直接@Bot 对话,提高工作生产力。 微信客服:微信沟通更高效,发布流程较复杂,下面是重新注册和解绑后重新配置的流程。 微信公众号(服务号):针对企业,不支持个人注册,订阅号运营主体可为企业或个人。 微信公众号(订阅号):托管公众号消息,助力微信运营。 掘金:在掘金社区 AI 聊天室圈子与 Bot 互动。
2025-04-15
coze的智能体如何接入微信?
要将 Coze 智能体接入微信,可按以下步骤操作: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。具体操作包括:点击“Docker”中的“项目模板”中的“添加”按钮,将编译好的内容复制进来,在容器中创建容器,选择容器编排,填入模板和名称,确定。运行成功后,点击容器,可以看到运行的是两个服务。 2. 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌命名,选择永久有效作为过期时间,指定团队空间,勾选所有权限。保存好令牌的 Token,切勿向他人泄露。 3. 获取机器人 ID:在个人空间中找到要接入微信的机器人,进入机器人编辑界面,浏览器地址栏 bot/之后的数据就是该机器人的 Bot ID。 4. 进行 API 授权:点击右上角发布,勾选 Bot as API,确定应用已成功授权 Bot as API。 5. 绑定微信:准备一个闲置的微信,点击容器,点击“wcandyaibot”后面的日志按钮,用提前预备好的微信进行扫码。手动刷新界面,点击“刷新日志”,若看到 WeChat login success,即表示微信登录成功。为确保微信实时在线,点击“日志管理”的“wcandyaibot”的“刷新日志”,若显示“wechat login seccess”则表示微信正常登录中。 6. 效果测试:把绑定的微信号拉到群里或者单独对话,训练的数据越好,对话效果越好。
2025-04-11
怎么搭建微信机器人?
以下是搭建微信机器人的步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复,此时表示已通。 2. 如果想为这个 AI 赋予提示词,可以返回相应步骤进行更改。例如在“目录 4 里的第 17 步”或“第三章,第 7 步”,其中双引号内的 value 部分,便是设置 AI 提示词的地方。 3. 此后,进行任何更改,都需要重新打印登陆二维码。并且一个月内,不要上来就加好友、最好不要私聊聊天。 4. 报错"wxsid"是因为微信未实名,实名即可解决。 5. 如果没有手机登录,可以使用夜神模拟器模拟手机登录。 6. 重新在“文件”的【终端】里,直接输入 nohup python3 app.py&tail f nohup.out 重新扫码登录。 7. 多次重新登录后,就在宝塔“首页右上角点击重启,重启一下服务器”,清理进程。 8. 熟悉 linux 操作的话,也可以通过重启进程的方式来重启服务。 9. 如果想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 此外: 1. Link AI 提供的 100 个,合计 3500 万 GPT3.5 Token 的礼品码。可以用来实现画图、搜索、识图等功能,COW 插件里几乎都支持使用 LinkAI 平台。完成机器人搭建,机器人拉群里,领兑换码。 2. 添加微信,拉您进机器人群,先行体验。 如果您仍旧遇到问题,可以先查询社区知识库,或者加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可以加 Stuart 个人微信询问。
2025-04-11
智能微信客服
以下是零成本、零代码搭建一个智能微信客服的保姆级教程: 1. 起个好名字和给它头像 进入 Bot 主页并开始创建 Bot,网址:https://www.coze.cn/home 。 名字(Bot 名称):善良有爱专业的幼师。 头像(图标):AI 生成后,不喜欢可以重新生成,选择其中一个。 补充:创建 Bot 的方式有两种,点击创建 Bot 和 Coze Assistant。主页上包含这两种方式,示例通过创建 Bot 创建。侧边导航栏一直有创建 Bot 方式,仅主页有 Coze Assistant。两者区别为: 创建 Bot 适合使用过 Bot 且想好名称和描述的人。 Coze Assistant 适合第一次创建 Bot 的人,从说“我想创建 bot”开始,Coze 助理会引导创建,自动生成名称、头像、人设与回复逻辑、开场白文案、开场白预设问题等。 2. 教她技能 如果通过 Coze Assistant 方式创建 Bot,Coze 助理已帮教技能,可按需修改完善。 起好名字和头像后进入教技能环节,先看整理布局,找到编排、预览与调试,在编排的人设与回复逻辑教她技能: 教她技能 1:认识自己。 教她技能 2:掌握专业技能。 教她技能 3:不能做什么。 3. 让她教别人 她学会技能后,使命及目标是通过互动方式教会请教的人。 找到高级下开场白,点击展开,填写开场白文案、开场白预置问题,设置 3 个问题。 勾选用户问题建议:在 Bot 回复后,根据 Prompt 提供最多 3 条用户提问建议。 添加语音选择:让她不仅会写,还会通过语音交流。 点击“发布”,选择发布平台:Bot Store、豆包、飞书、微信客服、微信公众号(服务号)、微信公众号(订阅号)、掘金。 Bot Store:Bot 会出现在 Coze Bot 商店中,获取更多曝光和流量。 豆包:一键发布到豆包 App,随时随地对话。 飞书:在飞书中直接@Bot 对话,提高工作生产力。 微信客服:微信沟通更高效,是本次分享重点,发布较复杂,下面是重新注册和解绑后重新配置微信客服的流程。 微信公众号(服务号):针对企业,不支持个人注册,订阅号运营主体可为企业或个人。 微信公众号(订阅号):托管公众号消息,助力微信运营无间断。 掘金:在掘金社区 AI 聊天室圈子与 Bot 互动。
2025-04-10
微信机器人如何配置
微信机器人的配置步骤如下: 1. sum4all 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 sum4all 插件目录下的 config.json.template,复制并粘贴重命名为:config.json 注册并获取 sum4all key:https://pro.sum4all.site/register?aff=T6rP ,新用户注册有送免费额度,大家先使用这个进行试用,后续可改为自己的 openAI key。 把复制的 key,粘贴到 sum4all 的 config.json 文件内。(上方有功能阐述,你想要哪个,就把哪个改成 ture) 2. Apilot 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 Apilot 文件下的 config.json.template,复制并粘贴重命名为:config.json 去 https://admin.alapi.cn/account/center 注册,并复制 key 把复制来的 key,粘贴进入。保存。 3. 分段对话配置替换 找到这个路径:/root/chatgptonwechat/channel/wechat,直接下载以下文件进行替换。 此外,微信的配置相对较简单,只需要主项目的 config.json 文件看看是否有"channel_type"参数,参数值为:"wx",即:"channel_type":"wx"。完成以上所有配置部分后,可以准备启动步骤了: 使用 nohup 命令在后台运行程序。 执行完启动脚本,等待 30s 左右,会看到终端有一个微信登录的二维码,微信扫码登录。 如果您想使用更多辅助功能,比如使用总结文件能力,总结网页内容能力,此时需要安装各种插件。这部分配置查看插件配置管理部分。
2025-04-10
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
搭建在线知识库,在线客服
以下是关于搭建在线知识库和在线客服的相关内容: RAG 流程: 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。 离线数据处理的目的是构建知识库,知识会按照某种格式及排列方式存储在其中等待使用。 在线检索是利用知识库和大模型进行查询的过程。 以构建智能问答客服为例,了解 RAG 流程中的“是什么”与“为什么”同等重要。 创建智能体: 手动清洗数据创建知识库: 点击创建知识库,创建画小二课程的 FAQ 知识库。 知识库的飞书在线文档中,每个问题和答案以“”分割。 选择飞书文档、自定义,输入“”,可编辑修改和删除。 点击添加 Bot,可在调试区测试效果。 本地文档: 注意拆分内容以提高训练数据准确度。 以画小二课程为例,先放入大章节名称内容,再按固定方式细化处理每个章节。 发布应用:点击发布,确保在 Bot 商店中能搜到。 开发:GLM 等大模型外接数据库: 项目启动:包括 web 启动(运行 web.py,显存不足调整模型参数,修改连接)、API 模式启动、命令行模式启动。 上传知识库:在左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色,如上传公司财报充当财务分析师、上传客服聊天记录充当智能客服等。MOSS 同理。
2025-04-13
coze 语音克隆
以下是关于语音克隆的相关信息: 有一款适合小白用户的开源数字人工具,具有以下特点和功能: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G + 3G 语音模型包,启动模型即可。 GitHub 链接: 官网链接: 另外,CosyVoice 声音克隆仅需几秒音频样本,无需额外训练数据,可控制情绪情感、语速、音高。 详细内容:https://xiaohu.ai/p/10954 项目地址:https://funaudiollm.github.io 在线演示:https://modelscope.cn/studios/iic/CosyVoice300M
2025-04-12
语音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用步骤: 特点: 1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 6. 提供预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用步骤: 1. 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR。 2. GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo。 3. 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音。 相关资源: GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/ 注册 colab 并启动准备:点击进入按照步骤注册即可 https://colab.research.google.com/scrollTo=Wf5KrEb6vrkR&uniqifier=2 ,新建笔记本,运行脚本启动 GPTSo VITS,整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行;运行过程包括克隆项目代码库、进入项目目录、安装 Python 依赖包、安装系统依赖、下载 NLTK 资源、启动 Web UI,运行成功后出现 public URL。 实践样本: AIyoyo 普通话 满江红 AIyoyo 粤语版 满江红
2025-04-12
文字转语音
以下是关于文字转语音的相关内容: DubbingX2.0.3: 界面与国内版相同,使用了沉浸式翻译功能,可能看起来较乱。 第一个选项是文字转语音,与国内版相同,不做重复演示。 重点介绍第二项“创建您的语音克隆”: 上传语音(想克隆的声音原始文件)。 给声音命名,方便以后配音选择。 选择语言。 勾选相关选项,点击转变即可生成。 注意:原音频若有背景音乐,最好在剪影中去除,以使生成的音色模型效果更好、更纯净。 Hedra: 可以直接文字转语音,目前有 6 个语音。 也可以直接上传音频。
2025-04-11
语音转文字
以下是关于语音转文字的相关信息: 推荐使用 OpenAI 的 wishper 进行语音转文字,相关链接:https://huggingface.co/openai/whisperlargev2 。一分钟搞定 23 分钟的音频,相关链接:https://huggingface.co/spaces/sanchitgandhi/whisperjax 。此项目在 JAX 上运行,后端支持 TPU v48,与 A100 GPU 上的 PyTorch 相比,快 70 多倍,是目前最快的 Whisper API 。 语音转文本(Speech to text): 介绍:语音转文本 API 提供转录和翻译两个端点,基于开源大型v2 Whisper 模型。可用于将音频转录为任何语言,将音频翻译并转录成英语。目前文件上传限制为 25MB,支持 mp3、mp4、mpeg、mpga、m4a、wav 和 webm 等输入文件类型。 快速入门: 转录:转录 API 的输入是要转录的音频文件及所需输出格式的音频文字稿,默认响应类型为包含原始文本的 JSON,可添加更多带有相关选项的form 行设置其他参数。 翻译:翻译 API 输入任何支持语言的音频文件,必要时转录成英语,目前仅支持英语翻译。 更长输入:默认 Whisper API 仅支持小于 25MB 的文件,若音频文件更长,需分成小于 25MB 的块或使用压缩后格式,可使用 PyDub 开源 Python 软件包拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。 提示:可使用提示提高 Whisper API 生成的转录质量,如改善特定单词或缩略语的识别、保留分段文件的上下文、避免标点符号的省略、保留填充词汇、处理不同书写风格等。
2025-04-08
实时翻译视频语音
以下是为您整理的相关信息: 实时翻译视频语音的工具: StreamSpeech:这是一个实时语言翻译模型,能够实现流媒体语音输入的实时翻译,输出目标语音和文本,具有同步翻译、低延迟的特点,还能展示实时语音识别结果。 给视频配音效的 AI 工具: 支持 50 多种语言的配音,音质自然流畅,提供实时配音功能,适用于直播和演讲,能将语音转录为文本,方便后期字幕制作和编辑。 Vidnoz AI:支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,提供面向个人和企业的经济实惠的定价方案。 在选择视频配音工具时,请考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2025-04-07
文本转语音
以下是关于文本转语音的相关信息: 在线 TTS 工具推荐: Eleven Labs:https://elevenlabs.io/ ,是一款功能强大且多功能的 AI 语音软件,能高保真地呈现人类语调和语调变化,并能根据上下文调整表达方式。 Speechify:https://speechify.com/ ,是一款人工智能驱动的文本转语音工具,可作为多种平台的应用使用,用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,提供了支持 100 多种语言和方言的语音转文本和文本转语音功能,还提供了自定义的语音模型。 Voicemaker:https://voicemaker.in/ ,可将文本转换为各种区域语言的语音,并允许创建自定义语音模型,易于使用,适合为视频制作画外音或帮助视障人士。 语音合成技术原理: 传统的语音合成技术一般会经过以下三个步骤: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后一次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 OpenAI 新一代音频模型: OpenAI 于 2025 年 3 月 20 日推出了全新的音频模型,包括改进的语音转文本和文本转语音功能。 语音转文本模型在单词错误率和语言识别准确性方面相较于原有的 Whisper 模型有显著提升,能更好地捕捉语音细节,减少误识别,在多语言评估基准上表现优异。 文本转语音模型具备更高的可定制性,支持个性化语音风格,目前支持人工预设的语音样式,并通过监控确保语音与合成预设一致。 测试地址:https://www.openai.fm/ 直播回放:https://www.youtube.com/watch?v=lXb0L16ISAc 说明文档:https://openai.com/index/introducingournextgenerationaudiomodels/ 内容由 AI 大模型生成,请仔细甄别。
2025-04-01