以下是关于本地部署大模型的详细步骤:
此外,还有一篇思路来源于视频号博主黄益贺的相关内容,作者按照其视频进行了实操并附加了一些关于 RAG 的额外知识。文中提到读完本文可以学习到如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 软件搭建完全本地化的数据库等内容。虽然大多数人不需要自己部署大模型,但期望通过本文的指导能够折腾一遍,从而做到知其然且知其所以然。
我们需要进行部署的有三大部分1、本地部署大语言模型2、本地部署FastGPT+OneAPI3、本地部署HOOK项目或COW[heading1]一、部署大语言模型[content]一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。
先下载ollama安装安装好了不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到之后再去下载对应的模型选择模型,复制对应的命令打开命令行界面,输入对应的模型获取命令等待下载完成,就可以看到[heading3]设置目录[content]下载的模型后面就会保存到D:\ollama\blobs[heading3]docker安装[content]安装会下载一些文件安装后,改下这个目录,不要放在c盘[heading3]Open webui安装[content]输入下面命令安装成功后,回到docker点击,会自动打开网页第一次使用,需要注册一个账号选择一个下载好的模型就可以开始使用了模型的安装sk-btYGWrHmHbd8zf5kB6D97241DfEc4b5a8576E1Ce9d9fB006[heading3]错误解决[content]端口的占用,有时候也可能没有占用,但是在Windows上也会出现。运行下面两条命令可以解决。[heading3]相关链接:[content]comfyui-ollamahttps://github.com/stavsap/comfyui-ollama?tab=readme-ov-fileOllamahttps://ollama.com/dockerhttps://www.docker.com/Open webuihttps://openwebui.com/
本文的思路来源于视频号博主:黄益贺我按照他的视频进行了实操,并且附加了一些关于RAG的额外知识[heading1]一、引言[content]大家好,我是大圣,一个致力使用AI工具将自己打造为超级个体的程序员。目前沉浸于AI Agent研究中无法自拔今天给大家分享的是手把手教你如何部署本地大模型以及搭建个人知识库读完本文,你会学习到如何使用Ollama一键部署本地大模型通过搭建本地的聊天工具,了解ChatGPT的信息是如何流转的RAG的概念以及所用到的一些核心技术如何通过AnythingLLM这款软件搭建完全本地化的数据库虽然我们大多数人不需要在自己部署大模型,但是我期望在本文的帮助下,能够带你手把手折腾一遍。这样在使用任何软件的时候,可以做到知其然,知其所以然。