以下是关于不同场景下部署的相关信息:
AutoDL 部署 One-2-3-45
【保姆级】Meta Llama 3 部署到电脑上(Ollama+Open WebUI)
在 Amazon SageMaker 上部署 Llama 3
https://github.com/One-2-3-45/One-2-3-45通过图片/文字生成模型sudoAI用的就是One-2-3-45的升级版one-2-3-45++(未开源)[heading2]部署条件[content]Hardware requirement:an NVIDIA GPU with memory>=18GB(e.g.,RTX 3090 or A10).Tested on Ubuntu.翻译为人话:需要有英伟达GPU显卡,且运行内存大于18G,建议使用RTX3090及以上显卡注意:本文需要您有Ubuntu系统操作基础(不会但很想学的,可以在交流群@龚涛这里是试玩DEMO:https://huggingface.co/spaces/One-2-3-45/One-2-3-45[heading2]AutoDL部署[heading3]①挑选设备[content]在知道设备要求后,我们在AutoDL上挑选一下设备这里的RTX4090/24GB符合我们的需求,我们选择它进行购买[heading3]②镜像选择[content]原作者对环境的要求:PyTorch 2.0.1与cuda_11.8我们在这里基础镜像中选择和它一样的版本,选择好后购买即可[heading3]③控制台打开设备[content](刚刚购买完是正在开机,开机后是这样的:)关机后想开机,直接点就行[heading3]④打开终端,部署环境+代码[content]tips:代码请在数据盘中进行操作,不然一会系统盘就爆了Conda activate报错输入conda init bash,然后重启终端安装步骤原文见:https://github.com/One-2-3-45/One-2-3-45注意:Huggingface需要代理
1、回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、将以下命令输入,等待下载:3、出现上图,即是下载完成。4、点击或复制下方地址进入浏览器:http://localhost:3000/auth/5、点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。6、登入后,看到如下页面,点击顶部的Model,选择“llama3:8b”。7、完成。你已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦!ps.他的回复速度,取决于你的电脑配置。[heading2]五、联系方式[content]
要将[Llama 3 70B](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)部署到Amazon SageMaker,我们创建一个HuggingFaceModel模型类,并定义我们的端点配置,包括hf_model_id,instance_type等。我们将使用一个p4d.24xlarge实例类型,该类型具有8个NVIDIA A100 GPU和320GB的GPU内存。Llama 3 70B指令是一个经过优化的对话AI模型,这使我们能够启用TGI的[消息API](https://huggingface.co/docs/text-generation-inference/messages_api)与llama交互,使用常见的OpenAI格式messages。注意:Llama 3是一个有门槛的模型,请在提交此表单前访问[模型卡](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)并接受许可条款和可接受的使用政策。创建HuggingFaceModel后,我们可以使用deploy方法将其部署到Amazon SageMaker。我们将使用ml.p4d.24xlarge实例类型部署模型。TGI将自动在所有GPU上分发和分片模型。SageMaker现在将创建我们的端点并将模型部署到其中。这可能需要10-15分钟。