「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
请给我提供一些用KIMI处理excel数据的方法
以下是一些用 KIMI 处理 Excel 数据的方法: 1. 对数据的基本操作包括增加、删除、修改和查询。 2. 若要与数据库沟通,需学会 SQL 语句。 3. 可以通过 Kimi Chat(https://kimi.moonshot.cn)向 KIMI 提问,获取针对增、删、改、查的回答。 4. 对于新人,可通过深挖 KIMI 的回答来了解相关语法。 5. 收集资料时,可借助 AI 工具如 Perplexity.AI 高效完成,也可使用 KIMI 读取和整理网页内容,但需注意其阅读能力的限制,可分批次提供资料。
2025-01-09
我想了解下目前AI数字人的发展情况
AI 数字人是运用数字技术创造出来的,虽现阶段未达科幻作品中的高度智能,但已在生活多场景中出现且应用爆发。目前业界对其无准确定义,一般可分真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视、直播带货等,表现质量与建模精细度和动捕设备精密程度有关,现视觉算法进步,无昂贵设备也能通过摄像头捕捉关键信息达到不错效果。 数字人未来有很多应用场景,如家庭中的数字人管家、学校里的数字人老师、商场中的数字人导购等。未来还会有技术突破,如将五感数据和躯壳控制参数作为输入,算法能自我迭代升级等。 其类型和应用场景包括二维/三维虚拟人用于游戏、IP 品牌、内容创作等;真人形象数字人用于直播卖货、营销/投流广告视频录制、语言学习等。 价值在于代替人说话,提升表达和营销效率,如能 24 小时直播;创造真实世界无法完成的对话或交流。 但面临一些问题,如平台限制,数字人水平参差不齐,平台有打压限制;技术限制,智能水平依赖大模型技术提升;需求限制,直播带货是落地场景但不刚,刚需场景受限,更多是体验新鲜感;伦理/法律限制,涉及声音、影像版权等。
2025-01-09
数据解读类的AI大模型
以下是关于数据解读类的 AI 大模型的相关知识: 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,例如 GPT,一般使用 transformer 算法来实现)或多模态模型(如市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 相关技术名词及概念: 1. 生成式 AI 生成的内容叫做 AIGC。 2. AI 即人工智能。 3. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 4. 深度学习是一种参照人脑有神经网络和神经元(因有很多层所以叫深度)的方法,神经网络可以用于监督学习、无监督学习、强化学习。 5. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 6. LLM 是大语言模型,对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-01-09
文生视频
以下是关于文生视频的相关信息: 文字生成视频的 AI 产品有: 1. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,在图片基础上直接生成视频,这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需注意是收费的。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 (内容由 AI 大模型生成,请仔细甄别) Sora 的应用包括文生视频、图生视频、视频反推、视频编辑、视频融合等。其模型推理策略比如文生视频,喂入 DiT 的就是文本 embedding+全噪声 patch;视频编辑类似 SDEdit 的做法,在视频上加点噪声(不要搞成全是噪声),然后拿去逐步去噪;图生视频、视频反推、视频融合,喂入 DiT 的就是文本 embedding(可选)+特定帧用给定图片的 embedding+其他帧用全噪声 patch。 文生视频是 AI 生成视频中最直接的一种方式,通过输入提示词,让 PixVerse 生成视频。这种方式简单快速,但需要对提示词有较为深入的了解,能够准确描述画面内容,提示词的基本规则可以参考:。为方便创作,还提供了灵感分镜,风格选择等功能,帮助更快掌握文生视频。
2025-01-09
AI数据分析的案例
以下是一些 AI 数据分析的案例: ChatGPT 助力数据分析 在 AI 爆炸的时代,ChatGPT 与数据分析结合有多种应用方式。 实现方式: 1. SQL 分析:分析平台自身的使用情况,例如图表配置化平台,输入一句话可分析用户配置图表相关的数据。 2. 个性化分析:平台上支持上传数据,可提供数据信息(非必填),以此自定义分析用户自己上传的数据。 流程: 1. SQL 分析:用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验是 SELECT 类型的 SQL,其他操作如 UPDATE/DELETE 绝不能通过!校验通过后执行 SQL 返回结果数据。再将数据传给 ChatGPT(附带上下文),让其学习并分析数据,最后输出分析结论和建议,和结果数据一起返回给前端页面渲染图表、展示分析结论。目前已实现两张表关联查询。 2. 个性化分析:用户上传文件,如有需要可以简单描述这是什么数据、字段意义或作用辅助分析。前端解析用户上传的文件,再传给 ChatGPT 分析数据,后续步骤与 SQL 分析一致。 专利审查方面的 AI 1. 专利趋势分析和预测:AI 可以分析大量的专利数据,识别技术发展趋势和竞争情报,帮助企业和研究机构制定战略决策。 示例平台: Innography:利用 AI 技术分析专利数据,提供技术趋势分析和竞争情报。 PatSnap:AI 驱动的平台,分析专利数据和技术趋势,提供全面的专利情报和市场分析。 2. 具体 AI 应用示例: Google Patents:使用 AI 技术进行专利文献的全文检索和分析。通过机器学习算法,系统可以理解专利文献的内容,并提供相关性更高的检索结果。优点是提高了专利检索的准确性和效率,用户可以快速找到相关的专利文献。 IBM Watson for IP:利用 NLP 和机器学习技术,自动化地进行专利检索、分类和分析。系统可以自动提取专利文献中的关键信息,并对专利的技术内容进行分类和评估。优点是减少了人工工作量,提高了专利审查的效率和准确性。 使用这些平台的步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。 总结:AI 技术在专利审查领域的应用,可以极大地提高工作效率,减少人工工作量,提高专利检索、分类和分析的准确性和效率。上述平台和工具展示了 AI 在专利审查各个环节的具体应用,帮助专利审查员和申请人更高效地处理专利相关事务。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-09
语音克隆软件
以下为您介绍一些语音克隆相关的软件和技术: 1. CloneVoice:这是一款声音克隆工具,基于 Coqui AI TTS 模型,能够变换不同声音。它支持 16 种语言,包括中英日韩法,支持在线声音克隆,录音时长为 5 20 秒。链接:https://x.com/xiaohuggg/status/1739178877153681846?s=20 2. GPTSoVITS:这是一个声音克隆和文本到语音转换的开源 Python RAG 框架。只需 1 分钟语音即可训练一个自己的 TTS 模型。5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音。它完美适配中文,主要特点包括零样本 TTS、少量样本训练、跨语言支持、易于使用的界面、适用于不同操作系统以及提供预训练模型。GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/
2025-01-09
你们waytogoagi这个网站怎么做的
WaytoAGI 网站具有以下功能和特点: 1. 提供和 AI 知识库对话的功能,您可以在此询问任何关于 AI 的问题。 2. 集合了精选的 AI 网站,方便您按需求找到适合的工具。 3. 拥有精选的 AI 提示词,您可以复制到 AI 对话网站使用。 4. 会将每天知识库的精华内容呈现给大家。 WaytoAGI 网站的愿景和目标是让每个人在学习 AI 的过程中少走弯路,让更多的人因 AI 而强大。它是一个全面系统的 AI 学习平台,提供从 AI 常见名词到 AI 应用等各方面的知识。 此外,WaytoAGI 网站和 WaytoAGI 知识库相互关联但各自独立,希望成为您学习 AI 路上的好助手。它还通过公众号、B 站、小红书、X(Twitter)等渠道进行内容传播和消息传递。
2025-01-09
comefui可以做视频吗
ComfyUI 可以生成视频。在 ComfyUI 中,您能想到的诸如生成视频、写真、表情包、换脸、换装等都可以完成,统统只需要一个工作流一键完成。而且,将图像视为具有单帧的视频来将 SAM 扩展到视频也是 ComfyUI 的应用之一。
2025-01-09
coze合并代码节点
以下是关于 Coze 合并代码节点的相关内容: 在 Coze 上搭建工作流框架时,设定每个节点的逻辑关系很重要。对于「分段」、「拼合」代码节点设计,实际测试表明由于 LLM 的上下文长度有限,通常一次性输入输出的文本越长,生成时间越长,结果稳定性越低,特别是对生成结果格式要求较高时问题更突出。考虑到对照精读环节本身是逐段生成的,适合批处理形式,所以需要用「分段输入正文」,分割正文后用 LLM 节点批处理每一段的对照精读,最终「拼合精读结果」以输出完整文本。如果觉得编写代码脚本繁琐且仅进行文本处理,也可使用 LLM 节点配合适当 prompt 临时验证整个工作流。 在插件中心确定需要的插件时,先用关键词尝试性搜索,根据插件名称、介绍页、描述、参数、示例判断是否可能满足需求。有多个插件可选时,一般优选官方/高收藏/高成功率的插件以提升使用效果。若实际试用效果不行,则换用其他插件或自己编写上架插件。例如 TTS 文字转语音插件可通过搜索“语音”“文字转语音”“TTS”等相关关键词找到“英文文本转语音”插件;思维导图插件可通过搜索“脑图”“树图”“导图”“mindmap”等关键词找到“TreeMind 树图”插件。 Coze 工作流节点还包括大模型节点、代码节点和选择器节点。大模型节点可利用大语言模型生成文本内容,能选择所用大语言模型、设置生成内容随机度并编写提示词,提示词中支持使用{{variable}}引用输入参数。代码节点通过 IDE 编写 Python 或 JavaScript 脚本处理输入参数并返回输出值,支持 JavaScript 和 Python 运行时,尽量使用 JavaScript,尽量让 AI 去写,不熟悉时易增加麻烦。选择器节点是一个 ifelse 节点,用于设计工作流内的分支流程,每增加一个条件右边会多出一个点,点中拖到对应的下一级节点,输入参数时节点会判断是否符合“如果”区域条件,符合则执行对应分支,否则执行“否则”分支。
2025-01-09
coze工作流
Coze 的工作流具有以下特点和步骤: 特点: 是一种可视化的方式,允许用户组合各种功能模块,如插件、大语言模型、代码块等,实现复杂和稳定的业务流程编排。 由多个节点组成,包括 Start 节点和 End 节点,用户可在节点间添加各种功能模块构建业务流程。 支持丰富的功能模块,可根据需求灵活组合,如调用大语言模型进行文本生成、调用插件进行数据处理等。 工作流的创建和编辑通过可视化拖拽界面完成,无需编写代码,降低了搭建门槛。 创建好的工作流可直接集成到 Coze 的聊天机器人中使用,实现复杂业务逻辑。 为用户提供了可视化、低代码的方式,快速搭建满足业务需求的 AI 应用和服务,降低开发门槛,提升工作效率。 步骤: 梳理清楚工作流,例如对于复刻吴恩达开源的 AI 翻译项目,先新建工作流,逐步导入核心流程,工作流分为若干节点,每个节点完成特定任务,组合形成完整翻译流程。 查看导入后的整体工作流及测试效果,工作流分为初始翻译、反思优化、结果输出等主要部分,运行测试时可看到每个节点的执行过程和结果。 对每个节点的配置进行核心讲解,如开始节点选择翻译的源语言和目标语言,还可设置其他参数;初步的翻译大模型节点选择大模型进行初始翻译;选择器节点判断用户填写要求中有无特殊语言翻译特色或口音。
2025-01-09