「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
有什么工具可以一键总结B站视频并生成视频文稿的
以下是一些可以一键总结 B 站视频并生成视频文稿的工具和方法: 1. GPT:将 B 站视频的字幕提取后发给 GPT 进行总结。获取字幕的方法是,如果视频有字幕按钮,说明作者已上传字幕或后台适配了 AI 字幕。对于有字幕的视频,可以安装油猴脚本,安装后刷新浏览器,点击字幕会出现“下载”按钮,可选择多种字幕格式,然后将字幕文字内容复制发送给 GPT 进行总结。 2. BibiGPT:可以支持小红书、B 站等网站视频的归纳总结,还可以提问互动,答案会附上对应的视频节点。推荐链接:https://bibigpt.co/r/Bm63FV 、https://bibigpt.co/
2025-01-11
与 AI 共事,是否改变了你解决问题的方式
与 AI 共事确实改变了人们解决问题的方式。具体表现为: 更加聚焦目标,避免陷入具体细节。 从实现细节中抽离出来,更加高效地工作。 对复杂问题的理解发生变化,能力在过程中得到提升。 为流程带来全新视角,突破过去能力的限制。 对于个人博客,AI 提供了不同的思路和视角,使其变得可执行可操作。 在医疗保健领域,为了让 AI 产生真正的改变,应创建像优秀医生和药物开发者那样学习的模型生态系统。例如,预医学生和设计新疗法的科学家都需要经历从基础到专业的学习过程,AI 也应如此,通过逐步训练不同的模型,而非仅依靠大量数据和生成模型来解决问题。
2025-01-11
coze插件有多少个
Coze 插件种类丰富,涵盖了从基础的文本处理到高级的机器学习功能,以及众多便民服务领域。包括文本分析、情感分析、自然语言处理(NLP)、图像识别、语音识别、数据分析等插件,还有新闻资讯(如头条新闻)、天气预报(如墨迹天气)、出行必备(如飞常准、猫途鹰)、生活便利(如快递查询助手、食物大师、懂车帝、幸福里、猎聘)等插件。其数量和种类不断增加,以适应技术趋势和市场需求。具体可参考 Coze 国内版本:https://www.coze.cn/store/plugin 。
2025-01-11
企业级AI的现状如何了?
目前企业级 AI 的现状呈现出以下特点: 1. 应用方面:更多迁移到具体业务场景,企业重点放在自主构建应用程序上,如客户支持和内部聊天机器人等,同时也在尝试更新颖的应用,如编写消费品配方、缩小分子发现范围和进行销售推荐。 2. 资源配置和态度:企业对生成式 AI 的资源配置和态度在过去 6 个月发生显著变化,预算几乎增加两倍,将更多应用部署在较小的开源模型上,并将更多业务从早期实验转移到生产环境中。 3. 市场机会:生成式人工智能在 2023 年席卷消费市场,2024 年企业领域的收入机会预计数倍于消费市场。 4. 创新与挑战:基础模型的出现使企业构建自己的 AI 应用程序更易,但“GPT wrappers(GPT 套壳)”存在局限性。目前尚不清楚当更多面向企业的 AI 应用上市时情况是否会改变。那些能在“LLM+UI”公式之外创新,并帮助企业更好利用专有数据的应用将表现出色。 5. 赋能企业:许多公司正将 AI 融入工作流程以快速达成 KPI、扩张规模和降低成本。应用公司在 AI 50 强榜单中占据主导地位。不远的将来,有望看到 UX 和 UI 围绕 AI 的功能进行重新设计。
2025-01-11
coze插件说明
在 Coze 的工作流中,节点是构成工作流的基本单元,每个节点代表特定功能或操作。 开始节点定义工作流的输入参数,是起点;结束节点设置工作流的输出内容,是终点。节点命名建议含义在前,类型不加也可,以便清晰选择。 插件用于扩展大语言模型本身的限制,调用外部插件可实现特定功能,如抓取网页内容。加入智能体后有调用次数和引用的概念。运行耗时和成功率也需关注,平均耗时长会增加失败概率和工作流超时风险,成功率不高且调用次数低则不理想。即使官方插件也可能不稳定,需自行尝试找到适合场景的插件。 AI Agent = LLM + Planning + Memory + Tools,插件系统对应 Tools,主要目的是扩展 Bot 的能力边界。插件是一个工具集,一个插件内可包含一个或多个工具(API)。 Coze 集成了超过 60 种类型的插件,涵盖搜索引擎、文本分析、图像识别等领域,包括必应搜索、LinkReader、知乎热榜等,国内版本还提供便民服务,如新闻资讯、天气预报、出行必备、生活便利等方面的插件。若集成的插件不满足需求,还可创建自定义插件来集成所需的 API。
2025-01-11
AI开发游戏
以下是用国产 AI 开发游戏的过程: 1. 元素设计: 狼:图片放进去,调整大小。 栅栏:图片放进去,调整大小。 洞:调整背景颜色,让 AI 提供。 槌子:点一下转动,实现方式从动画效果改为点一下马上旋转 90 度,放开时恢复,点击时洞的高度变短。 羊:生成 20 只羊时出现重叠问题,通过让 AI 调整每只羊间隔 10PX 解决。控制羊的移动花费较多时间,重写多轮代码。 2. 图片生成: 直接让智普生成羊、狼、锤子、栅栏、胜利图片、失败图片。其中羊、狼、锤子、栅栏生成无背景的,用 PS 做成透明 PNG。栅栏和胜利、失败图片生成多次。 3. 框架搭建: 让智普生成 HTML 的大框架,验证元素摆放位置。生成的 HTML 代码简洁,CSS 结构不错但 position 定位模式不对,修改为 position:fixed 修复 BUG。 4. 效果制作: 失败判断在羊的跑的动作中实现,羊跑光显示失败图像。 胜利判断在槌子事件中,洞全部修好即胜利。 第二关在胜利时多一个步骤跳转到第二页,复制代码并修改,增加一只凶狠的狼,用 AI 作图。 5. 完成与测试: 2024 年 5 月 11 日 17:34:04 完成所有内容,上传服务器测试,存在小 BUG 但先凑合用。 开发过程中发现 AI 生成的内容不能完全信任,可能 90%能用,但剩下 10%需要人工调整,学习还是有必要的,AI 只是辅助,有条件问专家是好的解决方案。
2025-01-11
微调是什么意思
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是:先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构(如自然语言处理中学会基本语法和单词语义,图像识别中学会基本形状和纹理)。然后,在特定任务数据上继续训练这个模型,使其适应新的任务。 以下是两个例子帮助理解: 1. 情感分类:先使用大量语料库预训练模型,使其学会基本语法和单词语义。再收集标注过的电影评论(一部分积极,一部分消极),在这些评论上继续训练模型,使其学会判断评论情感。 2. 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理。再收集标注过的图片(一部分是猫,一部分是狗),在这些图片上继续训练模型,使其学会区分猫和狗。 微调在 LLM 应用中,是在已经训练好的模型基础上进一步调整,让模型的输出更符合预期。Finetune、Finetuning 是常用的英文写法。微调是在较小的、针对特定任务的标注数据集上进一步训练已经预训练过的 LLM 的过程,可调整部分模型参数以优化其在特定任务或任务集上的性能。 微调可让您从 API 提供的模型中获得更多收益,如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省 Token、更低的延迟请求。GPT3 已在大量文本上预训练,微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例,这样可以节省成本并实现更低延迟的请求。 微调涉及以下步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型。 3. 使用您的微调模型。 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。建议使用 OpenAI 命令行界面,安装时需注意相关要求。
2025-01-11
你会撰写论文吗
在论文写作方面,AI 可以提供帮助。例如,如果向 LLM 提供背景信息和指令,它可以帮您写论文,比如:“根据以下关于我的信息,写一篇四段的大学申请论文:我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年。在我的童年时期,我经常换学校,从公立学校到非常宗教的私立学校。我做过的最‘异国情调’的事情之一是在爱达荷州的双子瀑布与我的大家庭一起度过六年级。我很早就开始工作了。我的第一份工作是 13 岁时的英语老师。在那之后,以及在我的学习过程中,我做过老师、服务员,甚至建筑工人。” 在论文写作领域,有一些常用的 AI 工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,帮助管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供丰富模板库和协作功能,简化论文编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 使用这些工具时,要结合自己的写作风格和需求,选择最合适的辅助工具。同时需要注意,虽然可以用生成模型做某件事,但不意味着这是正确的事情。如果您是接收方,最好为您的组织准备好迎接各种 AI 生成的内容。幸运的是,对于像上述例子中概述的情况,已经有努力正在进行以检测 AI 生成的内容。 此外,提示词是通过结合指令、问题、输入数据和示例来构建的。为了得到结果,必须包含指令或问题,其他元素则是可选的。更高级的提示词可能包括一些关于模型应如何回答问题的指令,例如询问如何撰写大学入学申请论文,同时提出希望在答案中听到的不同方面的建议。
2025-01-11
作为一个AI小白,想了解AI或者说想了解AI如何使用
以下是为您提供的关于AI的全面介绍和使用方法: 一、如何认识AI 对于没有理工科背景的人来说,理解AI可能有一定难度。可以将AI视为一个黑箱,它是能理解自然语言并输出自然语言、模仿人类思维的东西。其生态位类似于传统道教中的驱神役鬼拘灵遣将,或者某种可以理解人类文字但不是人的魔法精灵/器灵。无论AI技术如何发展,其生态位仍是似人而非人的存在。在与AI相处时,当想让其实现愿望,要基于其“非人”的一面,尽可能通过语言文字压缩其自由度,清晰告知任务、边界、目标、实现路径方法以及所需的正确知识。 二、新手如何学习AI 1. 了解AI基本概念 阅读「」部分,熟悉AI的术语和基础概念,了解其主要分支及联系。 浏览入门文章,了解AI的历史、应用和发展趋势。 2. 开始AI学习之旅 在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如Coursera、edX、Udacity)按自己节奏学习,有机会获得证书。 3. 选择感兴趣的模块深入学习 AI领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习,建议掌握提示词技巧。 4. 实践和尝试 理论学习后进行实践,巩固知识。 在知识库分享实践后的作品和文章。 5. 体验AI产品 与ChatGPT、Kimi Chat、智谱、文心一言等AI聊天机器人互动,了解其工作原理和交互方式。 三、How I Use AI 作者Nicholas Carlini是技术大佬,他的博文「How I Use "AI"」是使用LLM进行编程和研究的实例分享,并给出了完整的提示词。他通过以下方式使用AI: 1. 构建完整的Web应用,获得超千万次页面浏览量。 2. 学习新技术,如Docker、Flexbox和React等。 3. 开启新项目,获取样板代码。 4. 简化代码,使复杂大型代码库更易理解。 5. 自动化单调任务,如数据格式化。 6. 提升用户专业度和效率,让普通用户像专家一样工作。 7. 获取API Reference,不必翻看查找文档。 8. 进行搜索,效果比传统搜索引擎好。 9. 解决一次性任务,省时省力。 10. 找到常见任务的解决方案。 11. 修复常见错误,比传统搜索更高效。
2025-01-11
当前ai发展到什么程度了
当前 AI 的发展程度可以从以下几个方面来看: 1. 在通用人工智能(AGI)的发展等级方面: 聊天机器人:具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者:具备人类推理水平,如 ChatGPT,能够根据上下文和文件提供详细分析和意见。 智能体:不仅具备推理能力,还能执行全自动化业务,但目前许多产品在执行任务后仍需人类参与。 创新者:能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可加速科学研究和新药发现。 组织:最高级别,能够自动执行组织的全部业务流程。 2. 技术发展历程: 早期阶段(1950s 1960s):有专家系统、博弈论、机器学习初步理论。 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理得到发展。 统计学习时期(1990s 2000s):出现机器学习算法,如决策树、支持向量机、贝叶斯方法等。 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等兴起。 3. 当前前沿技术点: 大模型:如 GPT、PaLM 等。 多模态 AI:包括视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 自监督学习:自监督预训练、对比学习、掩码语言模型等。 小样本学习:元学习、一次学习、提示学习等。 可解释 AI:涉及模型可解释性、因果推理、符号推理等。 机器人学:强化学习、运动规划、人机交互等。 量子 AI:量子机器学习、量子神经网络等。 AI 芯片和硬件加速。 同时,开源大模型爆发,企业大模型市场崛起,但通用大模型也遇到瓶颈,如算力和知识沉淀等问题。
2025-01-11