以下是部署 Ollama 的详细步骤:
1. 下载并安装 Ollama:
根据您的电脑系统,点击进入 https://ollama.com/download 下载 Ollama。
下载完成后,双击打开,点击“Install”。
安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/
2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型):
如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车。
如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。
复制以下命令行,粘贴进入,点击回车。
回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)
下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。
3. 部署 Google Gemma:
首先进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。
查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26,cls 清空屏幕,接下来直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。
完成以后就可以直接对话了,2 个模型都安装以后,可以重复上面的指令切换。
4. 安装 Docker Desktop:
点击/复制到浏览器去下载 https://docs.docker.com/desktop/install/windowsinstall/ 。
下载后,双击下载项目,出现下图,点击 ok,开始加载文件。注意!!!!这里下载相对比较快,下载完成后,不要点击“close and restart”,因为这样会直接重启,导致 llama3 下载中断。
这里先不点击,等待终端的模型下载完成后,再点击重启。
重启后,点击:“Accept” 。
选择第一个,点击"Finish" 。
然后会提示您注册账号,如果打不开网页,就需要科学上网了。
按照正常的注册流程,注册账号,并登录 Docker 即可。登录后会进入 Docker Desktop。此处完成。
5. 下载 Open WebUI:
回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)。
如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车。
如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。
将以下命令输入,等待下载。
出现上图,即是下载完成。
点击或复制下方地址进入浏览器:http://localhost:3000/auth/ 。
点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。
登入后,看到如下页面,点击顶部的 Model,选择“llama3:8b”。
完成。您已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦!ps.他的回复速度,取决于您的电脑配置。
2025-01-13