Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

部署AGI

Answer

安全部署 AGI 可以考虑以下几个方面:

  1. 进行大量的模拟部署测试,如红队测试,测试应比实际部署中的操作更极端和易失败,以确保模型最终操作的安全性。
  2. 建立有效的监控系统,能在部署的系统出现问题时迅速发现,建立专门监督已部署 AI 模型的机制,观察其行为并寻找异常迹象。
  3. 采取多层次的防御措施,要求模型本身表现规范,具备良好的道德信念,同时确保系统能抵御严重的误用风险。
  4. 在训练模型过程中进行大量评估,检测有无不当行为,确保模型充分对齐,防止出现背离预期的行为,警惕模型能力的跳变式跨越。
  5. 对于执行复杂操作的模型,要防止其为达目标做出不合理行为,保证其主要动机是产出高质量结果。
  6. 有可能通过友好协商实现平衡,一旦达到平衡则问题不大。
  7. 若能让所有相关方协调一致并解决技术问题,可将高智能水平的 AI 作为人们意志的延伸并防止过度滥用,实现安全有效地部署,促进科学进步和社会繁荣。
  8. 更安全稳妥的方式是渐进式部署更智能的模型,形成持续迭代、逐步推出性能更优产品的过程,确保每个迭代的安全性和对齐性,出现状况可及时放慢步伐。
  9. 若 AGI 比预期来得更快,需要更加谨慎,可能需要放慢训练和部署脚步,对 AGI 有清晰认识。
  10. 若 AGI 出现且其他公司也有类似能力,各公司之间需要协调一致,对部署或未来训练的限制达成共识,否则可能牺牲安全性。可以暂停模型训练、部署,避免高风险训练,制定合理规则或提供行动指南。
Content generated by AI large model, please carefully verify (powered by aily)

References

OpenAI联创:RLHF是超级智能的秘密武器

如果模型能力出现了很明显的跳变式跨越,就会带来一个问题,即“我们要如何保证产品已经足够安全到可以发布了?”,我没办法给出一个适应所有情况的答案,但为了让这种风险更可控,就需要进行大量的模拟部署测试,比如红队测试。这样的测试应该设计成比实际部署中计划的操作更极端和容易失败的情况,来确保模型最终操作的安全性。还需要建立一个有效的监控系统,能够在部署的系统出现问题时迅速发现。这可能得建立一个机制来专门监督已经部署的AI模型,观察它们的行为,并寻找可能的异常迹象。然后还需要多层次的防御措施,这需要模型本身表现得非常规范,具备无可挑剔的道德信念,同时也要也要确保系统能够抵御任何严重的误用风险。Dwarkesh Pa tel:开始进行连续任务的强化学习时,应该跟踪哪些关键指标和信号来及时发现系统的跨越式进展,并确保能够安全部署?该怎么在广泛部署模型之前及时发现这种跳变式跨越?John Schulman:在训练模型的过程中我们需要做大量评估,尤其是潜在智能水平非常高的AI模型。现在我们还不需要太担心,因为现在让模型执行连续任务还是个挑战,但一旦模型的智能到了高水平的时候就必须谨慎,包括对模型做大量评估,检测有没有不当行为,确保模型充分alignment,防止出现背离预期的行为。另外,还需要警惕模型能力有没有出现跳变式跨越。在训练AI模型时,还要确保数据或训练方式不会让模型出现相反的行为。在用RLHF方法训练模型的时候,我们能感觉到模型在非常智能时还是很安全,因为它的主要目标是生成令人满意的文本,除此之外并不“关心”世界上的其他事情。如果模型需要执行一系列很复杂的、涉及工具的操作,那它可能就会做一些对人类来说不合理的行为来达到目标,但它的主要动机仍然是能最终产出高质量的结果。

OpenAI联创:RLHF是超级智能的秘密武器

John Schulman:我现在还没有一个很好的答案,如果能像我说的那样友好协商肯定是最好。毕竟搭建这些模型需要大量的资本投入,而且有很多复杂的东西要考虑,并不是每个人都能在家里造这些东西,有能力去训练最大型模型的公司也很少,所以这种协商我感觉是有可能实现的,只是我不知道该怎么在长时间内维持这种平衡。不过一旦达到平衡,就没什么大问题了。Dwarkesh Pa tel:如果未来有了很多智能体能够上云统一部署、集中协调,那时人类将怎样从中受益?John Schulman:如果我们能让所有相关方都协调一致,并且alignment的技术问题也解决好了,那时我们就可以部署高智能水平的AI,把这些AI作为人们意志的延伸,同时也防止它们被过度滥用,这样就能让AI得到安全有效地部署,帮助科学进步和社会的繁荣。Dwarkesh Pa tel:让我们做一个最好的假设,假如所有相关方在那时都决定暂停部署AI,先确认好我们部署的模型价值观和人类完全对齐,不会突然搞一场政变,或者煽动其他人来这么做,那么我们该怎么证明模型确实是安全且对齐的呢?John Schulman:我觉得更安全稳妥的方式是能渐进式地部署更智能的模型,而不是要求所有相关方都必须协调一致,然后严格控制研究的进展,保证最后安全发布,因为这种情况下模型的潜能会被束缚,没办法充分释放。所以最好是能形成一个持续迭代,逐步推出性能更优的产品的过程。在这个过程中,我们要确保对每一个迭代的安全性和alignment都充满信心,这种信心与系统能力的提升也是匹配的。这样如果在过程中出现了让人担忧的状况,我们就可以及时放慢步伐,这是我希望的发展方向。

OpenAI联创:RLHF是超级智能的秘密武器

Dwarkesh Pa tel:如果明年或者之后实现了AGI,你们接下来会有什么计划?John Schulman:如果AGI比预期来得更快,我们肯定需要更加谨慎地对待,比如在非常确信可以安全处理这些问题之前,可能需要在训练和部署上放慢脚步。我们需要对AGI要做什么、能做什么有一个非常清晰的认识。在很多方面,我们对模型的理解仍然处于初级阶段。我所说的“谨慎”是指,暂停训练更聪明的模型,或者在训练环节下一代模型是要相当小心,比如需要确保模型在沙盒环境中是安全的,另外,在模型的部署规模上要十分审慎。Dwarkesh Pa tel:我们假设这么一个情形:AGI明年就出现了,并且AGI的发展不只是在OpenAI,所有其他公司也拥有类似的能力,这也是我们假设AGI这么快出现的原因。在这种情况下会发生什么?除了OpenAI之外的其他公司可能会做什么?John Schulman:这个涉及到博弈论,一下想清楚还是挺难的。首先,我不认为这种情况会在明年发生,当然提前讨论一下也是好事,我猜可能需要两到三年的时间。然后是需要各个公司之间协调一致,尤其是大厂之间,大家需要对部署或未来训练的限制达成共识,否则就会出现竞赛,每个人都想争先,这就可能会牺牲掉安全性。Dwarkesh Pa tel:如果各公司之间的协商需要暂停模型部署的话,这个过程会持续到什么时候?是直到我们搞清楚模型的内部运作和行为机制吗?John Schulman:我们可以暂停对模型做进一步训练,也可以暂停部署,还可以尽量避免可能带来更高风险的一部分训练。我们会制定一些合理的规则,或者提供一个限制相关风险的行动指南。Dwarkesh Pa tel:限制风险是为了什么?AI的智能潜能迟早会被释放出来,假设两年后我们成功开发出AGI,可能会引起大家的普遍恐慌,那个时候公司又不再继续研发和部署AI了,在这个阶段我们是在等什么,需要做好哪些准备?

Others are asking
什么是AGI
AGI 即人工通用智能,通常被定义为一种能够完成任何聪明人类所能完成的智力任务的人工智能,其能力不局限于特定领域。 例如,OpenAI 的相关计划中,Q2025(GPT8)将实现完全的 AGI,但因一些原因有所推迟。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步。 在关于 AGI 实现后未来 20 年人类社会的变革的研究中,AGI 的出现被视为人类历史上具有转折意义的事件。 Sam Altman 认为,呈现人工通用智能特征的系统正浮现,人工通用智能通常指一种能够在许多领域内以人类水平应对日益复杂的问题的系统,它是人类进步脚手架上的另一个工具。
2025-04-18
什么是AGI
AGI 即人工通用智能,通常指能够完成任何聪明人类所能完成的智力任务的人工智能,其能力不局限于特定领域。例如,能够在许多领域内以人类水平应对日益复杂的问题。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步。AGI 的出现被视为人类历史上具有转折意义的事件,当 AGI 真正实现并可能迅速发展为超人工智能(ASI)时,人类社会将在随后的二十年里经历深刻变革,包括社会结构、价值观、权力格局、人类角色等多个方面。我们的使命应是确保 AGI 造福全人类,从某种意义上说,AGI 是人类进步脚手架上的另一个工具。
2025-04-15
waytoagi 简单介绍
“通往 AGI 之路”(WaytoAGI)是一个致力于人工智能学习的中文知识库和社区平台: 旨在为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助用户有效地获取 AI 知识,提高自身能力。 由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 其品牌 VI 融合了独特的设计元素: 选择彩虹色作为主要的配色方案,代表多样性、包容性和创新。 标志性图案是一只鹿,与“路”谐音,象征着通往 AGI 未来的道路,寓意优雅与智慧。 选用简洁现代的非衬线字体,强调信息传达的清晰度和直接性。 此外,WaytoAGI 里有个离谱村: 是由 WaytoAGI 孵化的千人共创项目,让大家学习和接触 AI 更容易、更感兴趣。 参与者不分年龄层,一起脑洞和创意,都可以通过 AI 工具快速简单地创作出各种各样的作品。 离谱村是一个没有被定义的地方,每个人心中都有自己想象中的离谱村,是灵魂的避风港,激励着每一个生命体发挥其无限的想象力,创造属于自己的独特生活方式。 如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。在这里,您可以获取最新的 AI 知识,参与实践活动,与志同道合的学习者共同成长。
2025-04-14
我想将常用的AI入口手机放在一张网页上,该如何设置waytoAGI页面
以下是关于将常用的 AI 入口放在一张网页上设置 WaytoAGI 页面的方法: 1. 点开链接就能看:不用注册,不用花钱,直接点击。 2. 想看啥就看啥:比如您想学 AI 绘画,就去看“AI 绘画”部分;想找 AI 工具,就去“工具推荐”部分。内容分得清清楚楚,想学啥都能找到。 3. 有问题还能问:如果看了还有不懂的,或者想跟别人交流,可以加入社群,大家一起讨论。 另外,关于使用 Cursor 制作您的第一个主页: 1. 在搞定一个非常简单的小游戏之后,可以做一个自己的个人介绍网站。可以先看看官网,比如 allinagi.com.cn、sboat.cn。假设要做一个《全 AI 自动驾驶的火星登陆飞船》项目,首先会有一个初步简单的项目介绍,比如 WaytoMars 是一个制造、运营全 AI 自动驾驶的火星登陆飞船公司品牌,有着领先全球的技术实力、人才优势,预计在 2030 年推出可承载上千人,五星豪华级的全 AI 自动驾驶的火星登陆飞船。有了项目介绍后,让 AI 帮助生成一个具有前端大师级审美、极富科幻感的网站首页。首先,新建一个 waytomars 文件夹并打开,在 AI 对话框中输入上述的话,一路等待 AI 制作以及加入您的修改意见即可。 2. 如何让别人看到您的作品预览:通过将项目文件夹整体上传,就可以生成一个临时浏览链接,在不需要域名和服务器的情况下让外部也能够看到您的作品。注意:如果发现 cursor 有所卡顿,注意是不是 AI 让您在终端区或者对话区确认重要操作,左下角将 ask every time 修改为 auto run 就可以全自动化了。 WaytoAGI 就是一个帮您快速入门 AI、学会用 AI 搞事情的“武器库”。不管您是完全不懂 AI 的小白,还是想用 AI 赚钱的普通人,它都能帮到您。AI 是未来的趋势,现在学一点都不晚,如果您想了解 AI、用 AI、甚至靠 AI 搞钱,WaytoAGI 就是您最该看的“AI 宝典”。
2025-04-14
WaytoAGI:找到了AI知识付费的免费源头,让更多人因AI而强大!
WayToAGI(通往AGI之路)是一个由热爱AI的专家和爱好者共同建设的开源AI知识库。它具有以下特点和优势: 1. 整合了各种AI资源,让大家能轻松学习AI知识,应用各类AI工具和实战案例。 2. 提供了一系列开箱即用的工具,如文生图、文生视频、文生语音等的详尽教程。 3. 时刻追踪AI领域最新进展并更新,每次访问都有新收获。 4. 涵盖丰富的内容,包括AI视频、AI绘画、AI音乐、AI艺术、AI即兴戏剧、AI Agent共学等。 5. 为用户提供全面系统的AI学习路径,辅助思考,让学习过程少走弯路。 6. 自 2023 年 4 月 26 日诞生,在无推广情况下,一年已有超 70 万用户和超千万次访问量。社群的口号是让更多的人因 AI 而强大,有很多学社和共学共建的活动。访问“waytoagi.com”即可找到社群。
2025-04-12
身份是小学语文老师,如何自学waytoAGI
以下是为您整理的相关内容: 1. 10 月 9 日小作业中提到:熟悉 waytoagi 知识库,并找到 Prompt 提示词框架文章,给出两个提示词框架和生成结果。框架一是“CRISPE 框架”,处理小学六年级同学丢钱引发的同桌纠纷,给出三种解决方式,包括调查真相、教育双方,全班寻找失物、避免误解,引导调解与反思。生成结果为详细的解决步骤。同时提到人工智能时代的三个基石是数据、算法、算力,数据和算法可在开源数据库等找到,算力可在云计算平台如 AWS、Google Cloud、Microsoft Azure 找到。 2. 6 月 11 日 AI 秒学团队中,有人分享了搭建聊天功能工作流的经历,提到在实践中不断迭代、调整和优化。一位纯社科背景的高校老师感谢 way to AGI 带文科生进入 agent 的“坑”,并提到小团队给予的帮助。 3. 问卷中,刘翔宇表示自己是国内一线互联网 AI 产品经理,愿意共同维护 WaytoAGI 开源社区,学习目标是了解 Comfy 基础理论等多方面,所在城市为北京。
2025-04-12
如何本地部署大模型,如何选择是否使用云服务商
以下是关于本地部署大模型以及选择是否使用云服务商的相关内容: 本地部署大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 以 SDXL 为例的本地部署步骤: 1. SDXL 的大模型分为两个部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 以 LLM 大语言模型为例的本地部署步骤: 1. 下载并安装 Ollama,点击进入根据电脑系统下载 Ollama:https://ollama.com/download ,下载完成后,双击打开,点击“Install”,安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 总的来说,部署大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-14
本地部署
SDXL 的本地部署步骤如下: 1. 模型下载:SDXL 的大模型分为两个部分,第一部分 base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化以生成细节更丰富的图片。此外,还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。这三个模型可通过关注公众号【白马与少年】,回复【SDXL】获取云盘下载链接。 2. 版本升级:要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:完成上述步骤后启动 webUI,即可在模型中看到 SDXL 的模型。正常使用时,先在文生图中使用 base 模型,填写提示词和常规参数(如尺寸设置为 10241024)进行生成。然后将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点再次点击生成。 5. 插件辅助:若觉得操作麻烦,可在扩展列表中搜索 refine 安装插件并重启,启用插件后可在文生图界面直接使用 refine 模型进行绘画。 另外,关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG,步骤包括导入依赖库(如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型)、从订阅源获取内容(通过指定函数从 RSS 订阅 url 提取内容,并将长文本拆分成较小的块附带相关元数据)、为文档内容生成向量(使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储),最终实现 RAG。
2025-04-13
我有秋叶整合包,然后需要怎么搭建本地部署?
以下是使用秋叶整合包搭建本地部署的步骤: 1. 下载整合包:可以从。 2. 复制启动器到下载仓库的目录下。 3. 打开启动器,可一键启动。如果有其他需求,可以在高级选项中调整配置。 显存优化根据显卡实际显存选择,不要超过当前显卡显存。xFormers 能极大地改善内存消耗和速度,建议开启。 4. 准备工作完毕后,点击一键启动即可。等待浏览器自动跳出,或是控制台弹出本地 URL 后说明启动成功。 如果报错提示缺少 Pytorch,则需要在启动器中点击配置。 5. Stable Diffusion webui 的更新比较频繁,请根据需求在“版本管理”目录下更新,同时注意插件的更新。 在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。 具体安装方法: 1. 打开整合包链接(https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru),下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘(避免 C 盘被占满),点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择。 8. 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等待 SD 的主界面在网页上自动弹出。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。
2025-04-12
如何部署自己私人AI
部署自己私人 AI 可以参考以下几种方式: 通过云服务器、dify、智能微秘书来免费搭建微信机器人: 1. 在宝塔面板的终端安装相关命令,这些命令位于/root/dify/docker 目录下。 2. 检查运行的容器数量,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 以解决。 3. 在浏览器地址栏输入公网 IP(去掉后面的:8888),进入后邮箱密码随便填,建立知识库并进行设置。 4. 选择模型,国内模型有免费额度可选,如智谱 ai,获取钥匙并复制保存,创建应用进行测试和发布。 基于 Hook 机制的微信 AI 机器人: 1. 将 Administrators 改成“wxid_dna83ykqawl222”。 2. 若有 FastGPT 或者 OpenAI 的 key,将 Ai_Lock 修改成“1”,并在 OpenAI 处添加模型 key;若没有,保持 Ai_Lock 为 0。 3. 修改后点击保存。 4. 返回 NGCbot 文件夹下,找到 main.py 文件双击运行。 5. 运行后会弹出微信登录框,正常登录微信,等待系统自动初始化必备文件。 6. 运行成功后,用“大号”给机器人发消息,拿到 wxid 并返回替换。 7. 添加完后,用小号登录,大号可对小号发号施令。 部署和训练自己的 AI 开源模型: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身资源、安全和性能需求选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,如开源的 BERT、GPT 等,也可自行训练基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-11
DEEP SEEK 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)
以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容: 一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库 1. 将 Ollama 部署的模型接入 GARFlow 返回 RAGFlow 中,打开右上角设置,进入模型提供商,配置 Ollama 相关信息,基础 URL 按要求设置,设置完成后点击确定。 导入一个 embedding 模型用于文本向量化,导入成功后设置系统模型设置,然后返回知识库创建知识库。 进入数据集,导入文件(可设置文件夹当作知识库),导入完毕后解析文件,解析速度取决于本机 GPU 性能,解析好后进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。 2. 使用 Ollama 本地部署 DeepSeek 模型 先下载 Ollama 程序,官方网址:https://ollama.com/ 。 下载默认到 C 盘(一般为固态盘,运行速度快),若想修改安装目录到 D 盘,后续会有说明。 下载完右下角会出现 Ollama 图标,打开命令行输入相关命令回车。 若显卡是英伟达 2060Super,可选择 Deepseekr1:14b 的模型,根据自身独立显卡性能下载。 下载速度慢可按 Ctrl+C 强制退出重新下载。 下载完毕后再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相关命令,下载好后直接退出终端。 二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |||||| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|| |满血版自部署 DeepSeekR1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21||
2025-04-10
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10