「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
ChatGPT最新技术
ChatGPT 是由 OpenAI 开发的基于 GPT(生成式预训练变换器)架构的人工智能模型,是目前最先进的人工智能模型之一,是一种自然语言处理(NLP)工具,能够理解和生成接近人类水平的文本。 目前 ChatGPT 官网有两个版本,分别是 GPT3.5 和 GPT4。GPT3.5 为免费版本,拥有 GPT 账号即可使用,但智能程度不如 GPT4,且无法使用 DALL.E3(AI 画图功能)和 GPTs 商店、高级数据分析等插件。若想使用更多功能更智能的 GPT4,需升级到 PLUS 套餐,收费标准为 20 美金一个月。此外,GPT4 还有团队版和企业版,功能更多、限制更少,但费用更贵,一般推荐使用 PLUS 套餐。 在注册 ChatGPT 账号之前,建议先注册一个谷歌账号,因为国外很多软件支持谷歌账号一键登录,可省去很多日后的注册流程。目前注册谷歌账号支持国内手机号码和国内邮箱验证,过程简单。 ChatGPT 基于 OpenAI 最先进的语言模型 gpt3.5turbo,使用 OpenAI 的 API 可以用 gpt3.5turbo 构建应用,例如起草邮件、写 Python 代码、回答关于一组文档的问题、创建会话代理、给软件提供自然语言接口、辅导各种学科、语言翻译、假扮游戏或其他内容的角色。 ChatGPT 作为国际 AI 领域的明星产品,其成功具有开创性,是首批向公众开放的大规模商用 AI 对话系统之一,在全球掀起 AI 革命。它的用户体验精心设计,界面简洁直观,交互流畅自然,降低了普通人接触和使用 AI 的门槛。从技术角度看,其背后的 GPT 系列模型性能和能力领先,在语言理解深度和生成内容质量上表现出色。但也要认识到其局限性,随着 AI 技术发展,它已不是市场上唯一顶级选择,其他产品在特定领域可能超越它。对于国内用户,可能因网络连接问题遇到连接不稳定、响应延迟等困扰,影响使用体验。若身在海外或有稳定国际网络连接,ChatGPT 是极佳选择,否则国内用户可能需考虑本地化替代方案。
2025-01-12
提示词工程的学习路径
以下是关于提示词工程的学习路径: 1. 基础概念学习 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方文档和教程 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,提示词在现代大型语言模型中极其重要,学习提示词运用还需: 1. 理解提示词的作用 提示词向模型提供上下文和指示,其质量直接影响模型输出质量。 2. 学习提示词的构建技巧 明确任务目标,用简洁准确的语言描述。 给予足够的背景信息和示例,帮助模型理解语境。 使用清晰的指令,如“解释”、“总结”、“创作”等。 对特殊要求应给予明确指示,如输出格式、字数限制等。 3. 参考优秀案例 研究和学习已有的优秀提示词案例,了解行之有效的模式和技巧。 4. 实践、迭代、优化 多与语言模型互动,根据输出提高提示词质量。尝试各种变体,比较分析输出差异,持续优化提示词构建。 5. 活用提示工程工具 目前已有一些提示工程工具可供使用,如 Anthropic 的 Constitutional AI。 6. 跟上前沿研究 提示工程是当前最前沿的研究领域之一,持续关注最新的研究成果和方法论。 在相关工作方面: 自动提示词工程方面,研究界开发了各种策略,用技术如增量编辑、强化学习、算法搜索等来自动化这一过程,也有利用大型语言模型本身进行自动提示词工程的工作。用于复杂推理任务的大型语言模型提示方面,提升大型语言模型在此方面的性能有引导模型产生中间推理步骤的提示方法和自我反思方法。提示词工程是一项复杂的语言任务,人类提示词工程师通常会检查当前提示词产生的失败案例,进行推理和假设,并撰写新的提示词。
2025-01-12
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
你是用的什么AI引擎?
以下为为您提供的关于 AI 引擎的相关信息: Inworld AI 角色引擎:这是一家专注于游戏和人工智能的初创公司开发的引擎。它可以将游戏的 NPC 进行 AI 化并集成到游戏中,超越了大语言模型,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能。能使 NPC 自我学习和适应,具有情绪智能,创建具有独特个性和上下文意识的角色,这些角色可以无缝集成到实时应用中。其功能包括目标和行动、长期记忆、个性、情绪等。例如,目标和行动方面,可使用定义的触发器、意图识别和动机来触发角色对玩家行为的反应,并在游戏中驱动交互;长期记忆方面,角色以类似人类的记忆功能操作,从闪存和长期记忆中检索信息;个性方面,通过使用自然语言创建不同的个性,添加丰富细节使角色生动;情绪方面,角色能够对与用户的互动表达情绪。 NVIDIA ACE:全新 AI 游戏角色引擎,让 NPC 不再机械化,而是拥有感知、思考、决策和行动能力。虚拟角色可与玩家互动、适应环境变化,并根据玩家行为进行调整,成为“活角色”。
2025-01-12
如何通过程序代码调用coze的api?
要通过程序代码调用 Coze 的 API,大致步骤如下: 1. 创建一个插件: 填入插件名和插件描述。 选择云侧插件作为创建方式。 选择 Python 作为 IDE 运行时。 点击【在 IDE 中创建工具】。 在创建工具面板里: 填入工具名称。 填入工具介绍。 2. API 接入相关操作: Glif 允许通过 API 调用平台上的应用,API 接入:https://docs.glif.app/api/gettingstarted 。 去创建一个新的 Token 并复制备用。 将自己发布的 glif 链接上的 id 复制备用。 3. 在 Coze 的 IDE 中: 引入依赖和编写 handler 方法。 代码中对应的数据字段在元数据 Tab 中设置: 填写入参字段和描述,对完整链接要写清楚。 填写出参字段。 左侧的依赖包添加【requests】。 填入测试数据运行,测试通过后即可发布。 4. 创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。 5. 测试从 Coze 调用 Glif 功能跑通,发布 Coze。 另外,获取 Coze 的 accessToken 和 botid 时,需要了解以下内容: 1. OAuth 授权的范围控制: 个人空间:访问个人创建的 bot。 团队空间:可以跨账号授权,比如让其他团队成员访问你创建的 bot。 2. 跨账号授权流程: 用户 A 在用户 B 的团队空间创建了 bot。 用户 A 要使用这个 bot,需要: 先让空间所有者安装这个 OAuth 应用。 然后用户 A 才能获取授权码访问其在该团队空间创建的 bot。 3. OAuth 和 PAT的主要区别: OAuth token 有效期更短,安全性更高。 OAuth 可以实现跨账号的授权。 PAT 只能访问个人的资源。 在 Coze 中用现有服务创建自己的 plugin 时: 1. 进入 Coze,在个人空间中选择插件,新建一个插件,起名并填写描述。 2. 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。 3. 配置输出参数。 4. 测试后发布插件。 5. 创建 Bot 并接入创建的插件,在 prompt 中设置调用插件的相关要求。
2025-01-12
如果通过程序调用coze的api?
要通过程序调用 Coze 的 API,您需要以下步骤: 1. 获取 accessToken: 在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats 。 找到“个人访问令牌”,添加令牌。设置令牌的名称和过期时间(最多 1 个月),并选择权限。 完成后点击“确定”按钮,一定要点击按钮复制下拉获取令牌,因为该令牌只会出现一次。 2. 获取 botid: 通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮,查看地址栏中的数字即为 botid。 注意:如果要在前端使用 bot,必须将其发布成为 API,点击发布并选择 API,等审核通过后即可按上述方法拿到 botid。 3. 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制出来。 此外,OAuth 授权的范围控制包括个人空间和团队空间。个人空间可访问个人创建的 bot,团队空间可以跨账号授权。OAuth 和 PAT(个人访问令牌)的主要区别在于 OAuth token 有效期更短、安全性更高且可以实现跨账号授权,而 PAT 只能访问个人的资源。 如果要将 Glif 的功能通过 API 方式接入 Coze,步骤如下: 1. 先创建一个插件: 填入插件名和插件描述。 创建方式选择云侧插件。 IDE 运行时选择 Python,点击【在 IDE 中创建工具】。 在创建工具面板里:填入工具名称和工具介绍。 2. 进行相关设置: 去创建一个新的 Token 并复制备用。 将自己发布的 glif 链接上的 id 复制备用。 在 Coze 的 IDE 中引入依赖(如 requests)和编写 handler 方法。 在代码中对应的数据字段在元数据 Tab 中设置,包括填写入参字段和描述、出参字段等。 3. 填入测试数据运行,测试通过后即可发布。创建一个 Bot,挂载新创建的插件,在 Prompt 中做一些对入参的校验和约束。最后,测试从 Coze 调用 Glif 功能跑通,发布 Coze。
2025-01-12
aiagent智能体是从什么时候开始实现的
AI Agent 的概念起源可以追溯到达特茅斯会议开始讨论人工智能(Artificial Intelligence),之后马文·明斯基引入“Agent”概念,至此“AI”和“Agent”彻底聚齐。心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果,这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。明斯基在《心灵社会》中还详细描述了不同类型的 Agent 及其功能,如专家 Agent、管理 Agent、学习 Agent 等。
2025-01-12
集合视频翻译和音色克隆,照片说话功能为一体的平台,ViiTorai
很抱歉,目前没有关于“ViiTorai”这个集合视频翻译、音色克隆和照片说话功能为一体的平台的相关信息。
2025-01-12
aiagent
AI Agent 是一个热门且复杂的概念,被认为是大模型未来的主要发展方向。 在对其深入探讨前,首先要明确其定义和总结。AI Agent 是融合了语言学、心理学、神经学、逻辑学、社会科学、计算机科学等多学科精髓的综合实体,不仅有实体形态,还有丰富的概念形态,并具备许多人类特有的属性。因为这些学科多以人为研究对象,致力于探索人类内在本质。 网络上对 AI Agent 的介绍往往晦涩难懂,通过必应和 Kimi 的搜索也难以获得清晰的答案。 从原理上理解,中间的“智能体”通常是 LLM 或大模型,为其增加工具、记忆、行动、规划这四个能力。目前行业里主要用到的是 langchain 框架,它把 LLM 之间以及 LLM 和工具之间通过代码或 prompt 的形式进行串接。比如长期记忆是给大模型一个数据库工具记录重要信息,规划和行动是在大模型的 prompt 层做逻辑,将目标拆解并输出固定格式指令给工具。但 langchain 或 AI Agent 不止这些,还有其他代码逻辑,主要的主干逻辑在 prompt 层和工具层。
2025-01-12
视频换脸有哪些免费好用的工具
以下为一些免费好用的视频换脸工具: 1. viggle: 网址:http://viggle.ai 有免费额度。 功能包括图片+动作视频转视频、图片+文字动作描述转视频、文字转视频,可完成视频换脸。 操作方式: /mix:将角色图像混合到动态视频中,上传一张字符清晰的图片和一段清晰运动的视频。 /animate:使用文本运动提示为静态角色设置动画,上传一张字符清晰的图片并描述想让角色做的动作(也可从https://viggle.ai/prompt 中复制动作提示词)。 /ideate:纯粹从文本创建角色视频,描述想要创造的角色和希望角色执行的动作(或从https://viggle.ai/prompt 中复制动作提示词)。 /character:通过文本提示创建角色并将其动画化,描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize:使用文本提示符重新设计角色的样式并将其动画化,上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 2. Swapface: 网址:https://swapface.org//home 有免费额度,需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 支持图片换脸、视频换脸,直播实时换脸,能识别图片、视频里的多张脸进行替换。 视频换脸可上传视频或者 gif 图。 3. 插件 ADetailer: 一般用于修复脸,换脸效果也不错。 原理是识别面部对面部进行扩散,里面可以增加 controlnet 去控制。 操作方式: 打开 Adetailer,选择模型是关于脸部修复的,选择最常用的模型,在对应的正向提示词中添加一些面部的修饰词,也可以加 lora。 在检测一栏基本上维持默认不变,效果不好适当拉高阈值。 在蒙版处理维持默认不变。 在重绘选项卡中,关注重绘使用的模型、VAE、采样方式,局部重绘制强度(推荐 0.5 左右),以及 controlnet 等参数。
2025-01-12