直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
API服务是什么意思?
API 服务是指一种接口服务,它就像是一个信差。其作用是接受一端的请求,将请求传达给对应的系统,然后把系统返回的信息再发回给请求方。 例如在 Docker Compose 多容器管理的示例中,提到了包括数据库、AI 模型服务、MySQL 数据库以及一个 API 服务(oneapi)。在网络应用中,通过 API 服务可以实现不同系统或组件之间的通信和数据交互。 在网页访问的例子中,如搜索“奥本海默”的页面,网址中的一些参数和路径的设置就是通过 API 服务来实现的。用户发起请求,API 服务获取相关数据并返回给用户。要了解如何进行请求以及查询参数的编写,需要寻找 API 文档。
2025-01-28
deepseek是免费的吗?
DeepSeek 目前网页登录很方便,国内能访问。其官方目前提供的服务完全免费,任何人随时随地可用,比如通过网页(https://www.deepseek.com/zh )即可使用。但需要注意的是,官方 App 免费,而 API 服务需按量付费。
2025-01-28
人工智能设计拜年PPT的软件
以下是一些可以用于人工智能设计拜年 PPT 的软件: 1. Gamma:在线 PPT 制作网站,可通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式,如 GIF 和视频,增强演示文稿吸引力,网址:https://gamma.app/ 2. 美图 AI PPT:由美图秀秀开发团队推出,通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素,适用于多种场合,网址:https://www.xdesign.com/ppt/ 3. Mindshow:AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能,还可能包含互动元素和动画效果,网址:https://www.mindshow.fun/ 4. 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术优势,提供智能文本生成、语音输入、文档格式化等功能,网址:https://zhiwen.xfyun.cn/ 此外,还有以下相关内容: 1. 2024 年 6 月 22 日更新的一批研究报告,如《》等。 2. 熊猫 Jay 编写的超全的 AI 工具生成 PPT 的思路和使用指南,介绍了 MindShow、爱设计、闪击、Process ON、WPS AI 等工具,并因该培训获得 1000 元奖励。原文:https://mp.weixin.qq.com/s/uVoIIcePa7WTx7GNqkAPA 公众号:熊猫 Jay 字节之旅
2025-01-28
如何从零到一学习LLM上层AI应用开发
从零到一学习 LLM 上层 AI 应用开发,您可以参考以下步骤: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 以下是一些相关的学习资源: 面向开发者的 LLM 入门课程: 提示工程指南: LangChain?️?中文网,跟着 LangChain 一起学 LLM/GPT 开发: LLMs 九层妖塔: 在课程方面,欢迎来到针对开发者的 AIGPT 提示工程课程。该课程将分享软件开发最佳实践的提示,涵盖常见用例,包括总结、推理、转换和扩展,并指导使用 LLM 构建一个聊天机器人。在大型语言模型或 LLM 的开发中,大体上有基础 LLM 和指令调整后的 LLM 两种类型。基础 LLM 已训练出根据文本训练数据预测下一个单词,通常在大量数据上训练,以找出接下来最有可能的单词。
2025-01-28
如何学习利用ai工作
以下是关于如何学习利用 AI 工作的一些建议: 1. 获取信息和学习东西: 免费选项:可以使用。 付费选项:通常必应是较好的选择。对于儿童,(由 GPT4 驱动)能提供良好的人工智能驱动辅导。 注意事项:使用人工智能作为搜索引擎时要谨慎,因其存在幻觉风险,且多数未连接互联网。但有研究表明,在特定情况下(如技术支持、决定吃饭地点或获取建议),必应可能比谷歌更好。 教育方面:人工智能可用于自学,能解释概念并获得较好结果。例如,。但要根据其他来源仔细检查关键数据。 2. 写东西: 草拟初稿:包括博客文章、论文、宣传材料、演讲、讲座、剧本、短篇小说等,只需给出提示,人工智能就能完成,且通过提高提示和与系统互动能获得更好效果。 优化写作:将文本粘贴到人工智能中,要求其改进内容、提供针对特定受众的建议、创建不同风格的草稿、使内容更生动或添加例子,以激发自己做得更好。 完成任务:把 AI 当作实习生,让其处理没时间做的事情,如写邮件、创建销售模板、提供商业计划的下一步等。 保持动力:当在任务中遇到困难挑战而分心时,AI 能提供保持动力的方式。
2025-01-28
100 万 tokens 什么概念
100 万 tokens 具有以下重要意义和影响: 算法视角:更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力经历了从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token 的发展历程。 产品视角:长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化。 具体应用:Gemini1.5 支持 100 万 token,可以一次性处理大量信息,比如 1 小时的视频,11 小时的音频,超过 30,000 行代码或超过 700,000 个单词的代码库。Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 Token。ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 Token;ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 Token。Token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时,会遗忘最前面的对话。若想直观查看 GPT 如何切分 token,可以打开。此外,英文的 Token 占用相对于中文较少,因此很多中文长 Prompt 会被建议翻译成英文设定,然后要求中文输出。
2025-01-28
从零到一的 LLM 学习教程
以下是从零到一学习 LLM 的教程: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 了解 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 运用 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 进行模型评估和可解释性研究。 实现模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为您推荐以下 LLM 开源中文大语言模型及数据集集合的学习资源: 1. 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。 2. 提示工程指南: 地址: 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 3. LangChain?️?中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。 4. LLMs 九层妖塔: 地址: 简介:ChatGLM、ChineseLLaMAAlpaca、MiniGPT4、FastChat、LLaMA、gpt4all 等实战与经验。 关于 LLM 的预测原理: LLM 接触了包括教科书、文章、网站等在内的庞大数据集。在训练阶段,它们学会了理解语言的上下文和流动性,掌握了包括语法、风格,甚至是文本的语调等方面。当您用一个句子或问题来指导 LLM 时,它便利用自己所学的知识,预测接下来最可能的一个或几个词。这不仅是基于它在训练期间观察到的模式和规则的推测。 在提示工程方面,鉴于 LLM 的概率本质,提示工程师面临的挑战是如何引导 LLM 向着高度可预测和准确的结果方向发展。在相关课程中,您将学习许多技巧,这些技巧将帮助您掌握高度可预测的 LLM 输出结果的艺术和科学。但在深入学习之前,可以先从一些简单的练习开始,激活思维。
2025-01-28
如果让提示词变成模板, 每次输入需要的参数就好。
要将提示词变成模板,每次输入需要的参数即可。以下是一些相关的方法和要点: 在 Stable Diffusion 中,下次作图时先选择模板,点击倒数第二个按钮可快速输入标准提示词。描述逻辑通常包括人物及主体特征(如服饰、发型发色、五官、表情、动作)、场景特征(室内室外、大场景、小细节)、环境光照(白天黑夜、特定时段、光、天空)、画幅视角(距离、人物比例、观察视角、镜头类型)、画质(高画质、高分辨率)、画风(插画、二次元、写实)等,通过这些详细提示词能更精确控制绘图。新手可借助功能型辅助网站书写提示词,如 http://www.atoolbox.net/ (通过选项卡快速填写关键词信息)、https://ai.dawnmark.cn/ (每种参数有缩略图参考),还可去 C 站(https://civitai.com/)抄作业,复制每张图的详细参数粘贴到正向提示词栏,注意图像作者使用的大模型和 LORA,也可选取部分好的描述词使用。 简单的提示词模板最终目标是把需求说清楚,如 GPTs 提示词模板:Act like a 输入最终结果),并给出了示例。 提示词母体系列(2)中,在掌握人物设计整体框架后编写提示词,可借鉴替换方式替换模板。模板构成包括:先看约束部分,规则放顶部加强约束,底部也有相应约束,整个约束包裹具体提示词以提示模型专注性;模板结构有基本信息(姓名、性别、年龄、职业)、外貌特征、背景和经历、性格和价值观、爱好特长和语言风格、人际关系和社交活动、未来规划和目标。
2025-01-28
数字人制作
以下是一些制作数字人的工具及相关介绍: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色。使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。优点是人物灵活,五官自然,视频生成快;缺点是中文人声选择较少。使用方法为点击网址注册后,进入数字人制作,选择 Photo Avatar 上传照片,然后按步骤操作。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,只需上传人像照片和输入内容,平台的 AI 语音机器人会自动转换成语音并合成逼真的会开口说话的视频。优点是制作简单,人物灵活;缺点是免费版下载后有水印。使用方法为点击网址,点击右上角的 Create vedio,然后按步骤操作。 4. KreadoAI:优点是免费,功能齐全;缺点是音色较 AI。使用方法为点击网址注册后,选择“照片数字人口播”功能,然后按步骤操作。 5. 剪映:在剪映右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,添加数字人,还可增加背景图片等进行美化。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。内容由 AI 大模型生成,请仔细甄别。
2025-01-28
用 ai 来分析数据,附件大小有限制吗
使用 AI 来分析数据时,附件大小通常是有限制的。 对于代码解释器(一种 GPT4 模式),您可以将文件上传到 AI,它可用于执行程序、运行数据分析等,但使用时需要充分了解统计数据和数据以检查其工作。 在 ChatGPT 助力的数据分析中,文中所提到的个性化分析示例使用的均是假数据。在实际业务中处理大量数据时,除了长类型字段有限制外,还需指定允许查询或解析的字段告诉 ChatGPT,结果数据要进一步校验是否符合要求,超长数据可以截取关键字段的内容丢给 GPT 总结分析。 需要注意的是,不同的 AI 工具和应用场景可能会有不同的附件大小限制和数据处理要求。
2025-01-28