以下是关于 Ollama 配置的详细步骤:
另外,还有一种部署 Ollama 的方式:
作者:吵爷Google刚刚发布了家用版的小模型Gemma,分别为2b(20亿参数)和7b(70亿参数)版本。相对千亿参数的大模型,这种小模型可能不适合解决特别复杂的任务,但是从趋势上看应该是模型本地化提升基础操作效率的模板。类似之前国内发布的ChatGLM-6B。现在的部署环境比一年前要友好多了,首先提一下Ollama,Ollama是一个开源的大型语言模型服务,可以非常方便地部署最新版本的GPT模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。除了Gemma,像小型的llama也支持本地部署。环境准备首先进入ollama.com,下载程序并安装(支持windows,linux和macos)查找cmd进入命令提示符,输入ollama-v检查版本,安装完成后版本应该显示0.1.26cls清空屏幕,接下来直接输入ollama run gemma运行模型(默认是2b),首次需要下载,需要等待一段时间,如果想用7b,运行ollama run gemma:7b完成以后就可以直接对话了,2个模型都安装以后,可以重复上面的指令切换。2b的反应速度非常快,但是能够互动的话题有限。7b我也试了下,能跑是能跑(我是3050显卡),但是会有明显的卡顿,输出内容的质量相对会高不少,但无论2b还是7b,对非英文语种的反馈都不是很稳定。2b测试7b测试另外模型里一些常用的内部指令/set显示设置界面可调整的设置项/show显示模型信息
我们需要进行部署的有三大部分1、本地部署大语言模型2、本地部署FastGPT+OneAPI3、本地部署HOOK项目或COW[heading1]一、部署大语言模型[content]一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。
和第一个方案相比,Ollama的安装和使用,简直不要太简单,两步就搞定了步骤:1.打开Ollama https://ollama.com,下载应用并安装2.在Mac系统搜索terminal或终端,点击回车,弹出的那个简洁的框框就是。输入想要运行的大模型(例如:ollama run llama2),并回车。等待下载完成,即可输入内容,和llama2愉快的聊起来。当然,这个过程中,对于非技术同学最难的部分可能是「我不知道我的favorite terminal是啥」[heading3]超级简单模式:GPT4All[content]最简单的方案就是这个了,应该没有更简单的了,全程不用考虑「最喜欢的terminal是什么」GPT4All是一个用于运行大模型的浏览器,可安装、运行、管理本地大模型。步骤:1.打开GPT4All官网https://gpt4all.io,下载安装器,并按步骤完成安装。支持Windows、Mac、Linux2.打开安装好的GPT4All.app,选择或搜索任意一个大模型,即可下载并运行。在GPT4All官网有各个大模型的评测得分,选得分最高的下载,例如目前平均得分最高的是Nous-Hermes2。好了,现在可以愉快的在电脑上运行大模型了,从此「电脑」真正成为「电脑」了。是不是非常简单,欢迎分享你运行成功后的截图。如有疑问,欢迎加评论讨论。BGM:[New Boy](https://music.163.com/#/song?id=28996919)官网:waytoAGI.com知识库:[通往AGI之路](https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e)我们的目标是让每个人因AI而强大