以下是本地部署大模型的一般步骤:
我们需要进行部署的有三大部分1、本地部署大语言模型2、本地部署FastGPT+OneAPI3、本地部署HOOK项目或COW[heading1]一、部署大语言模型[content]一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。
SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!
先下载ollama安装安装好了不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到之后再去下载对应的模型选择模型,复制对应的命令打开命令行界面,输入对应的模型获取命令等待下载完成,就可以看到[heading3]设置目录[content]下载的模型后面就会保存到D:\ollama\blobs[heading3]docker安装[content]安装会下载一些文件安装后,改下这个目录,不要放在c盘[heading3]Open webui安装[content]输入下面命令安装成功后,回到docker点击,会自动打开网页第一次使用,需要注册一个账号选择一个下载好的模型就可以开始使用了模型的安装sk-btYGWrHmHbd8zf5kB6D97241DfEc4b5a8576E1Ce9d9fB006[heading3]错误解决[content]端口的占用,有时候也可能没有占用,但是在Windows上也会出现。运行下面两条命令可以解决。[heading3]相关链接:[content]comfyui-ollamahttps://github.com/stavsap/comfyui-ollama?tab=readme-ov-fileOllamahttps://ollama.com/dockerhttps://www.docker.com/Open webuihttps://openwebui.com/