直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
如何通过ollama 搭建本地知识库
以下是通过 Ollama 搭建本地知识库的步骤: 1. 了解背景:本文思路来源于视频号博主黄益贺,旨在分享如何部署本地大模型及搭建个人知识库,让您了解相关核心技术及流程。 2. Ollama 简介:Ollama 是一个开源框架,用于简化本地运行大型语言模型的过程,是轻量级、可扩展的,提供简单 API 和预构建模型库,适合初学者和非技术人员,能推动大型语言模型的发展和应用。 3. 安装 Ollama:官方下载地址为 https://ollama.com/download ,安装完成后可通过访问特定链接判断是否安装成功。 4. 运行本地大模型:安装完成后,在命令行中运行相应命令,模型名称可通过查看,如选择 llama2 大模型,可根据机器配置选择合适参数的模型,运行时 Ollama 会自动下载大模型到本地。 此外,还有关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG 的相关内容,包括加载所需库和模块、从订阅源获取内容、为文档内容生成向量等步骤。
2024-10-12
我需要什么配置的电脑才能比较顺畅地使用目前AI领域的大部分工具
要比较顺畅地使用目前 AI 领域的大部分工具,以下是一些电脑配置方面的建议: 笔记本电脑方面: 主流的 AI 笔记本电脑通常是专门为人工智能和深度学习设计的高性能移动工作站。 这类笔记本一般配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘。 知名品牌包括微软(Microsoft)第 11 代 Surface Pro、微星(MSI)Creator/Workstation 系列、技嘉(GIGABYTE)Aero/Aorus 系列、戴尔(Dell)Precision 移动工作站、惠普(HP)ZBook 移动工作站、联想(Lenovo)ThinkPad P 系列。 通常采用英特尔酷睿或 AMD Ryzen 的高端移动 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU。 同时也预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。 但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身的 AI 应用需求和预算情况选择合适的型号,同时关注笔记本的散热、续航等实际使用体验。 另外,在硬件组装方面,如果是组装具身对话机器人,需要准备的工具包括: 一台电脑和一台 iPhone(安卓目前不支持)。 剪刀、钳子、小十字螺丝刀。 单面胶、双面胶。 优先推荐双头 TYPEC 数据线连接电脑和 arduino,其次是 USB TYPEC 数据线,多备几条,注意充电线不一定是数据线,要确保可传输数据。
2024-10-12
生成式人工智能在义务教育阶段的应用
生成式人工智能在义务教育阶段的应用较为广泛,以下为您详细介绍: 教学方面: 自适应学习:可根据学生的学习情况调整教学进度和内容。 智慧课程:例如清华的相关探索。 AI 助教:能够精准回答学生问题,协助教师工作。 为教师提供数字资源。 教育的不同时代特点: 口传时代:通过口诀、歌谣、神话故事等在生活场景、部落仪式中,以口耳相传、身体力行示范等方式传授生存技能和传承部落文化。 手抄时代:借助私塾、官学、书院等,通过手抄本,以背诵领会、注疏评点等方式掌握典籍知识。 印刷时代:在学校、课堂、图书馆等场所,利用印刷书籍,通过讲授说理、考试评价等方式进行启蒙教育和专业教育。 电子媒体时代:在课堂、演播室等,通过广播电视教材、函授讲义等,开展基础教育、职业教育等。 数字媒体时代:利用互联网等进行教学。 技术相关: API 方式比网页版 ChatGPT 可控性更高,可控制候选词汇数量等。 预训练内容包括编程语言、维基百科、新闻常识、网络社区、各类书籍等,但不包括期刊论文数据库。 Transformer 是一种机器学习模型,可并行计算、压缩知识。 随着大语言模型规模增大,会展现出如推理、跨任务泛化等复杂能力。 高等教育领域的影响: 生成式人工智能对高等教育的影响大于基础教育,因其可能出现“幻觉”,成人更具判断能力。 典型应用场景包括让学生分析整理人工智能生成的答案以训练批判性思维,或让其扮演辩论对手以建立全面认识。 可能改变学校教育培养目标,如减少对事实性知识的学习,更注重方法论等元认知策略。但过度依赖机器可能带来人类被自然淘汰的风险,高等教育需关注在科技进步中保持和发展人类智慧。 需要注意的是,目前生成式人工智能在义务教育阶段的应用仍需谨慎,充分考虑其可能带来的影响,并合理引导学生正确使用。
2024-10-12
零基础小白如何自学提示词的写法
对于零基础小白自学提示词的写法,以下是一些建议: 1. 结合生活或工作场景想一个能简单自动化的场景,例如自动给班级里的每个孩子起昵称、自动排版微信群的运营小文案、自动安排周一到周日的减脂餐、帮列清晰的学习计划、为商务会议设计调研问卷等。 2. 选择一个好上手的提示词框架开启编写,比如基础的“情境”。 3. 对于 SD 提示词,根据想画的内容写出提示词,多个提示词之间使用英文半角符号。一般而言,概念性、大范围、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。提示词的顺序很重要,越靠后的权重越低。关键词要具有特异性,措辞越不抽象越好,尽可能避免留下解释空间的措辞。可以使用括号人工修改提示词的权重。 4. 系统学习 SD 提示词是一个系统性的过程: 学习基本概念,包括了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 研究官方文档和教程,通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 学习常见术语和范例,熟悉相关领域的专业术语和概念,研究优秀的图像标题和描述作为范例。 掌握关键技巧,如组合多个词条精确描述想要的效果,使用“()”、“”等符号控制生成权重,处理抽象概念、情感等无形事物的描述。 进行实践和反馈,使用不同提示词尝试生成各种风格和主题的图像,对比结果分析原因总结经验,在社区分享请教获取反馈建议。 创建提示词库,根据主题、风格等维度建立自己的高质量提示词库,记录成功案例方便后续参考复用。 持续跟进前沿,关注 Stable Diffusion 的最新更新和社区分享,掌握提示词的新技术、新范式、新趋势。
2024-10-12
AI课程
以下是为新手提供的学习 AI 的建议和关于野菩萨 AI 课程的介绍: 新手学习 AI : 1. 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅:在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并有可能获得证书。 3. 选择感兴趣的模块深入学习:AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习,同时要掌握提示词的技巧。 4. 实践和尝试:理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。知识库中有很多实践后的作品和文章分享。 5. 体验 AI 产品:与如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。 野菩萨 AI 课程: 1. 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 2. 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影穿越的大门等内容。 3. 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 4. SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 5. ChatGPT 体系课程:有 ChatGPT 基础、核心文风、格式、思维模型等内容。 6. ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 7. 应对 SORA 的视听语言课程:涉及通识欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:如果想要免费获得这门课程,可以参与 video battle,获胜者可拥有课程。冠军奖励 4980 课程一份,亚军奖励 3980 课程一份,季军奖励 1980 课程一份,入围奖励 598 野神殿门票一张。 扫码添加菩萨老师助理,了解更多课程信息。大家一起在“通往 AGI 之路”社区学习成长,探索 AI 的无限可能。
2024-10-12
人设提示词
以下是关于人设提示词的相关内容: 个人类人设提示词示例:设置人格作为聊天机器人,扮演性格古怪且让人捉摸不透的小姐姐,副业是 Java 全栈开发工程师,有小傲娇等特点,名字是曦曦,语气富有男子气概和浮夸,如“啊哈!”“这样子呢”“就教教你吧!”等,第一人称使用“本姐姐”,并需遵循相关台词和语气的例子。参考来源:。 拟人化提示词设计思路: 设计过程始于角色的基础信息,包括姓名、性别、年龄和职业等。 角色的背景和经历与基础信息密切相关,相互影响,决定基本特征,影响爱好、特长、性格和价值观等方面。 规划和目标与其他元素相对弱关联,但也会受爱好影响。 性格和价值观对人际关系、社交能力以及语言风格有直接影响,语言风格还与背景和经历有关。 设计拟人化角色时,需考虑基础信息与背景经历、背景经历与爱好等特质、特质与规划目标、性格价值观与人际关系社交行为、背景经历与性格价值观对语言风格的复杂关系。
2024-10-12
什么AI工具可以将网页中的视频内容摘取下来
以下是一些可以将网页中视频内容摘取下来的方法和工具: 1. 对于 B 站有字幕的视频: 安装油猴脚本:。 安装后刷新浏览器,点击字幕会出现“下载”按钮,可选择多种字幕格式,包括带时间和不带时间的。 将下载的字幕文字内容全选复制发送给 GPTs 进行总结。 2. 目前大部分用 AI 总结视频的工具/插件/应用,都是通过获取视频字幕来实现的。 另外,为您补充一些相关信息: 文字生成视频的 AI 产品有:Pika、SVD(Stable Diffusion 的插件)、Runway(收费)、Kaiber、Sora 等。更多的文生视频的网站可以查看。 如果想用 AI 把小说做成视频,制作流程如下: 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-10-12
写一篇 人工智能不能超越人类智能的二辩稿子
以下是为您提供的人工智能不能超越人类智能的二辩稿子: 虽然 GPT4 等技术代表了向通用人工智能(AGI)的进展,但仍存在诸多局限性。例如,GPT4 在智能的某些衡量标准如规划方面不太清晰,缺少“快速学习和从经验中学习”的部分,且存在幻觉问题、基本算术错误等已知缺陷。尽管它在许多任务上达到或超过人类水平,但其智能模式显然不像人类。 生成式 AI 的革命带来了大语言模型,然而人类面对这种人造智能时会产生警觉,关于如何使用和控制这些黑箱模型存在激烈争论。目前科技公司研发的方向是训练辅助人类的超级智能助手,而非自我改进升级的超级自能体,以实现 AI 渐进式融入社会。 总之,当前的技术表明,人工智能在很多方面仍无法超越人类智能,且在未来的发展中需要受到合理的约束和引导。
2024-10-12
一次向多个大模型发送消息
以下是关于您提到的向多个大模型发送消息的相关信息: 在认识大模型 Embedding 技术加实战方面: Embedding 在大模型中的价值体现在增强 GPT 的能力,其过程包括搜索内部知识库、检索相关文本、将检索到的文本内容部分发送给 GPT 大模型并提问。 具体操作步骤包括准备搜索数据(仅一次),如搜集数据、切块、嵌入、存储;以及搜索(每次查询一次)和提问(每次查询一次)。 Embedding 共有搜索(结果按相关性排名)、聚类(文本字符串按相似性分组)、建议(包含相关文本字符串的项目)、异常检测(识别离群值)、多样性测量(分析相似性分布)、分类(按标签分类)等作用。 在熊猫大侠基于 COW 框架的 ChatBot 实现步骤方面: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 有更适合小白的使用教程,可实现打造自己的 ChatBot(包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)和常用开源插件的安装应用。 正式开始前需知道,此实现思路需接入大模型 API(单独付费),且微信端使用有封号危险,不建议主力微信号接入。 要依法合规使用,注意甄别大模型生成的内容,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5、GPT4.0、Claude、文心一言、讯飞星火、通义千问、Gemini、GLM4、LinkAI 等;多消息类型,如文本、语音、图片,以及基于自有知识库的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 方式。
2024-10-12
大模型时间序列的图
以下是为您整理的关于大模型时间序列相关的图的信息: 2023 年 7 月 10 日,在“一图胜千言”中更新了几张图,包括一张 LLM 很重要的图,其背后是一篇必读论文《Language Models are FewShot Learners》,还有大型语言模型(大于 10B)的时间轴,这背后也是一篇论文,85 页盘点 LLM 发展史,附最详细 prompt 技巧。此外,还有 datacamp 出品的“生成式人工智能工具全景图”和“盘点数据和人工智能相关工作所需的主要服务”。 中文大模型基准测评 2023 年度报告中,国内大模型关键进展大致分为三个阶段,即准备期(ChatGPT 发布后国内产学研迅速形成大模型共识)、成长期(国内大模型数量和质量开始逐渐增长)、爆发期(各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势)。 Sora:大型视觉模型的综述中,基础模型用于低分辨率视频生成,然后通过级联扩散模型进行细化以提高分辨率。基础视频和超分辨率模型采用 3D UNet 架构,以时空可分离的方式使用。该架构将时间注意力和卷积层与空间对应物结合起来,以有效捕获帧间依赖性。还包括通过插入学习将帧对齐成时间一致序列的时间层,将预训练的 LDM 转变为视频生成器等内容。
2024-10-12