Navigate to WaytoAGI Wiki →
Home/All Questions
LLM应用场景
LLM 的应用场景包括以下方面: 模型成本与部署:将模型的训练和部署推理成本降低至接近企业两年服务支出费用,实现一年投入、两年回本,通过应用工程让 LLM 与企业业务流快速顺畅打通,促成多业务场景落地。 应用工程方向: 基于行业数据微调小体量模型,通过指令数据实现小模型对固定任务的有效处理,适用于稳定且多年不变的行业业务,如白电企业基于知识库的问题分析和解决。 采用 LangChain、Agent 思路的流程自动化工程框架,结合各种工具与企业数据库对接,实现更先进、可用性更高、泛化性更强的 RPA 方案,这是 ToB 业务 Agent 的主流方向,与企业业务数字化相辅相成。 提示执行/推理: 开发初期通常使用 OpenAI API 的 gpt4 或 gpt432k 模型,为应用性能提供最佳场景。 项目规模化时,可考虑切换到 gpt3.5turbo,其比 GPT4 便宜约 50 倍且速度更快;也可与其他专有供应商如 Anthropic 的 Claude 模型进行实验;还可将部分请求分流到开源模型,在高流量的 B2C 用例中可能尤其有效。 具体任务: 实现 NLP 中的意图识别与分类任务,需收集上千条业务数据并人工标注,训练 bert 模型及针对性优化,时长可能一个月,有时使用句式规则维护更新更优。 构建知识图谱复杂,周期长,需与行业专家深度讨论,预见企业业务发展制定 schema,稍有不慎可能图谱与业务错位。 NLG 以拼接为主,人工规则决定智能程度。LLM 的出现对 NLP、NLG、KG 有较大提升,使这三类场景有更好更多的落地可能。
2024-08-19
ai提示词
以下是关于 AI 提示词的相关内容: 1. 108 个舞蹈音乐提示词:这是一个全面的 108 条简洁提示列表,用于生成 AI 舞曲,每个提示的字符数在 117 到 120 之间,以优化字符使用和清晰度。这些提示涵盖了各种舞曲子流派,例如: “Punchy 4/4 beats,electro bass,catchy synths,pop vocals,bright pads,clubready mixes,energetic drops” “Glitchcore digital errors:指的是 Glitchcore 音乐中的数字错误音效,带有实验性和独特性。” “Intense beats:指的是强烈的节拍,带有强烈的动感。” “Chaotic synths:指的是混乱的合成器音效,增加音乐的独特性。” “Avantgarde dance:指的是前卫的舞曲风格,带有创新性和实验性。” “Disruptive rhythms:指的是破坏性的节奏,带来独特的音乐体验。” 每个提示精心制作,以有效地封装各种舞蹈音乐流派的具体特点和大气质量,同时确保适应不同的聆听环境。用这些来激发对完全遗漏的流派的描述。结合元素、流派、影响等,进一步深化舞蹈音乐的谱系。 2. 提示词的定义:提示词通常指的是直接输入到 AI 模型中的问题、请求或指示,它们是提示工程的一部分。提示词可以非常简单,如“给我总结这篇文章的主要观点”,或者更复杂,如设计一个包含多个步骤和条件的复杂任务。
2024-08-19
如果我有一大堆相同公司相同岗位的简历,怎么提取这个岗位关键的职能,用什么工具?
以下是针对您提取相同公司相同岗位关键职能的建议及可使用的工具: 1. 工具选择:可以使用 ChatGPT4 。由于 LLM 存在 Context Length 限制,单次请求过长文本会导致推理能力下降,所以每次可向其发送 10 个岗位的信息。Moonshot 推理能力也不错,但 json 返回格式尚未完善,因此优先选用 ChatGPT4 。 2. 操作流程: 先将简历和 10 个岗位通过 API 发送给 ChatGPT4 ,让其推荐其中 3 个岗位。 经过 GPT 筛选 2000 个岗位后,分为 600 个推荐岗位和 1400 个潜在岗位。 再通过 ChatGPT4 对每个岗位招聘要求抽取技能(skill NER )。 找出推荐岗位和潜在岗位的技能差异,从而明确自身的优劣势。 3. 此外,还可以使用 DGEM3 模型对简历和岗位做相似性匹配。具体的 Python 代码如下: ``` import pandas as pd from FlagEmbedding import BGEM3FlagModel 1. 读取 cv.txt 文件 with openas file: cv_content = file.read 2. 读取 JobDetails2.xlsx 文件所有字段 job_details = pd.read_excel 3. 使用 BGEM3 模型计算相似性 model = BGEM3FlagModel cv_embedding = model.encode 计算 cv 与每个 job_description 的相似性 similarities = for job_description in job_details: job_embedding = model.encode similarity = cv_embedding @ job_embedding.T similarities.append 4. 将所有信息汇总保存为 123.xlsx job_details= similarities job_details.to_excel ```
2024-08-19
我要怎么学习人工智能
学习人工智能(AI)是一个富有挑战但充满乐趣的过程,以下是为您提供的学习路径指南: 一、了解 AI 基本概念 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 二、开始 AI 学习之旅 在「」中,您可以找到为初学者设计的课程,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并获取证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,涵盖图像、音乐、视频等方面。您可以根据自身兴趣选择特定模块深入学习。 四、掌握相关技巧和工具 1. 掌握提示词技巧,这上手容易且实用。 2. 从编程语言入手,如 Python、JavaScript 等,学习编程语法、数据结构、算法等基础知识。 3. 尝试使用 AI 工具和平台,如 ChatGPT、Midjourney 等体验其应用场景,也可以探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 五、实践和积累经验 1. 理论学习后,实践是巩固知识的关键,尝试使用各种产品创作作品。 2. 参与 AI 相关的实践项目,如参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 六、持续学习和跟进 AI 发展迅速,新成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他爱好者和专业人士交流。 总之,学习 AI 是一个长期过程,需要耐心和持续努力。不要害怕犯错,每个挑战都是成长的机会,相信您会逐渐建立起自己的 AI 知识体系,并取得成就。
2024-08-19
老照片修复
以下是关于老照片修复的相关内容: 使用 AI 给老照片上色及修复的步骤: 1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下,将图片放大到足够的倍数。 辅助工具: 1. 本地工具放大:https://www.upscayl.org/download 2. SD 放大:扩散模型可以增加更多细节 3. 开源工作流: 4. stability.ai 的 https://clipdrop.co/tools 5. 画质增强 magnific 遥遥领先:https://magnific.ai/ 6. Krea https://www.krea.ai/apps/image/enhancer 7. Image Upscaler:https://imageupscaler.com/ 8. 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 9. 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 10. 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 11. 在线测试地址:https://replicate.com/tencentarc/gfpgan 12. 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 13. Imglarger:https://imglarger.com/ 14. Let's Enhance:https://letsenhance.io/ 15. Waifu2x:http://waifu2x.udp.jp/ ,Waifu2x 能够提供图片的放大和降噪功能,通过使用深度学习技术可以提高图像的质量,同时保留细节和纹理。 在最近新上线的 controlnet 模型中,新增的 Recolor 模型可将黑白图片重新上色,可用于修复老照片。
2024-08-19
OpenAI 是 AGI吗?
OpenAI 目前尚未实现完全的 AGI(通用人工智能)。GPT7 原计划在 2026 年发布,但因埃隆·马斯克的诉讼而暂停。2027 年计划发布的 Q 2025(GPT8)有望实现完全的 AGI。AGI 通常被定义为能够完成任何聪明人类所能完成的智力任务的人工智能。 在性能预测方面,特斯拉训练的“Optimus”机器人通过人类示范学习抓取物体,可快速扩展到许多任务。当在互联网上所有可用数据基础上训练一个比 GPT4 大 100 倍、与人类大脑大小相当的模型时,可能会有惊人表现。例如,能生成具有准确物理效果的图像和视频,意味着具备常识推理和理解能力。 此外,关于 OpenAI 所开发的 AI,存在诸多讨论,如工程师们在公司自助餐厅里辩论其新能力的意义、可能导致的工作过时问题,以及是否有道德义务告知世界更多或更少相关信息等。同时,还存在关于如何防止 AI 及其后继者造成破坏的思考。
2024-08-19
langchain
LangChain 是一个用于构建高级语言模型应用程序的框架,具有以下特点和功能: 旨在简化开发人员使用语言模型构建端到端应用程序的过程,提供了一系列工具、组件和接口,使创建由大型语言模型(LLM)和聊天模型支持的应用程序更易实现。 核心概念包括组件和链,组件是模块化的构建块,可组合创建强大应用程序,链是一系列按顺序执行以完成复杂任务的组件或其他链。 主要特点有: 模型抽象:提供对大型语言模型和聊天模型的抽象,便于开发人员选择合适模型并利用组件构建应用程序。 提示模板和值:支持创建和管理提示模板,引导语言模型生成特定输出。 链:允许开发人员定义一系列处理步骤。 代理:支持构建代理,可使用语言模型做决策并决定调用工具。 支持多种用例,如针对特定文档的问答、聊天机器人、代理等,能与外部数据源交互,还提供内存功能维护状态。 LangChain 与 RAG(检索增强生成)的关系: LangChain 是用于构建高级语言模型应用程序的框架,提供一系列工具和组件。 RAG 是一种结合检索(检索外部知识库中相关信息)和生成(利用 LLM 生成文本)的技术,能为 LLM 提供附加信息,使生成更精确和上下文相关的答案,减少幻觉现象。 LangChain 在 RAG 应用开发中的作用: 是专注于大模型应用开发的平台,提供一系列组件和工具帮助构建 RAG 应用。 数据加载器:从数据源加载数据并转换为文档对象,包含页面内容和元数据。 文本分割器:将文档对象分割成多个较小的文档对象,方便检索和生成。 文本嵌入器:将文本转换为嵌入,用于衡量文本相似度实现检索功能。 向量存储器:存储和查询嵌入,通常使用索引技术加速检索。
2024-08-19
AI 生成PPT的工具
以下是为您介绍的 AI 生成 PPT 的工具及相关信息: 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,可能提供智能文本生成、语音输入、文档格式化等功能,旨在提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 目前市面上大多数 AI 生成 PPT 通常按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 为您推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》 另外,还有以下 AI 生成 PPT 的工具: 1. MindShow 2. 爱设计 3. 闪击 4. Process ON 5. WPS AI 不同工具具有各自的特色和适用场景,您可以根据实际需求进行选择。对于追求高度专业和个性化展示的群体,如软件实施人员和销售人员,可选择功能丰富且模板专业的工具;对于偶尔涉足 PPT 制作的人群,如软件工程师,简洁、直观的工具可能更适合。选择合适的工具并非一成不变,试用和体验比盲目跟风更明智。
2024-08-19
LLM 能胜任的场景
LLM 能胜任的场景包括以下方面: 提示执行/推理: 开发初期,通常使用 OpenAI API 启动新的 LLM 应用,如 gpt4 或 gpt432k 模型,其在广泛输入领域运行,无需微调或自托管,能为应用性能提供最佳场景。 项目投入生产并规模化时,有更多选择。例如,切换到 gpt3.5turbo,它比 GPT4 便宜约 50 倍,速度更快,适用于不需要 GPT4 级别准确性但需要低延迟推理和对免费用户成本有效支持的应用。 与其他专有供应商(如 Anthropic 的 Claude 模型)进行实验,Claude 提供快速推理、GPT3.5 级精度、针对大客户的更多定制选项以及高达 100k 的上下文窗口,但精度会随长度增加而降低。 将一些请求分流到开源模型,在高流量的 B2C 用例(如搜索或聊天)中可能尤其有效,适用于查询复杂性差异大且需要为免费用户提供便宜服务的情况。 赋予模型使用工具的能力:通过从知识挖掘转向行动导向,增加“手臂和腿部”的能力,有望在消费者和企业领域实现一系列用例。如消费者方面,LLMs 可能给出菜谱建议并订购食材、推荐早午餐地点并预订餐桌;企业领域,创始人可通过接入 LLMs 使应用程序更易用,如在 Salesforce 等应用中,用户用自然语言进行更新,模型自动更改,减少维护 CRM 所需时间。 作为多模态 Agent: 优点:高度的灵活性和扩展性,可根据任务需求调用最合适模型处理任务,适应多样化任务和数据类型,优化资源使用,提升效率;无需训练,系统开发周期快,成本低。 局限性:调试和工程化难度较高,维护和升级可能需要更多成本和技术投入;多个组件紧密耦合,单点故障可能导致整个系统风险增加;没有涌现出新的能力。 适用场景包括多种任务和数据类型的处理。
2024-08-19
在导入前,先对知识库文档内容进行标注处理,要怎么处理
在导入前对知识库文档内容进行标注处理,主要有以下要点: 为提升召回准确性,一方面在导入前,先对知识库文档内容进行标注处理,另一方面对于切割后的 chunk 进行标注,如标注 chunk 来源哪个文档的哪个段落。 对于本地 word 文件,每个章节都要按照固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。
2024-08-19