Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Comfy Ui部署教程与配置要求

Answer

Comfy Ui 的部署教程与配置要求如下:

线上部署: 可以线上部署的平台很多,如飞桨、liblib、揽睿星舟等。以 liblib 为例,流程为:注册账户➡️进入️ComfyUi➡️输入关键词➡️参数设置➡️开始生图。模型选择麦橘写实 V7,正向提示词输入:1girl,face,white background,反向提示词输入:worst quality,low quality,normal quality,lowres,watermark,步数 30,CFG 6.0。完成后选择右上角开始生图。但线上部署存在资源紧张、花钱且有时需排队充会员的情况,有些平台使用完要记得关闭,否则会一直扣钱。

本地部署: ComfyUi 相比 WebUi,配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 可流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SD-webui 和 ComfyUi 建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。如果电脑能顺畅清晰地玩 3A 游戏,那运行 WebUi 和 ComfyUi 通常也没问题。配置上不封顶,根据自己的需求和预算来即可。

此外,在 8 月 13 日的 ComfyUI 共学中,提到了关于康维 UI 部署及工作流搭建的分享会,包括云部署和本地部署,中间小田老师会带大家实操云部署平台流程,且为新用户争取了一周的使用时长。还介绍了 AI 绘画底模及秋叶整合包,特定文件下载及电脑配置要求等相关内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

阿澄:小白comfyui学习日记-01解决篇线上部署,和线下部署配置需求

comfyui相比webui:comfyui配置更低;系统资源占用更少;出图速度更快;最低可在小于3G的GPU上运行。甚至没有GPU,光用CPU也可以运行,缺点是速度极慢。SDXL出来后提高了运行配置:最低需要8GB显存+32GB运行内存,12GB流畅运行,推荐16GB以上。运行内存最低32GB,越高越好,最低配会经常爆显存。玩SD-webui和comfyui建议使用6GB以上的显存的NVIDIA显卡,也就是N卡,内存在16G以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在SSD(固态硬盘)上,这样速度更快。我之前的电脑2060N系8G显存,16g内存。把webui和模型装在2t固态硬盘上,打开速度极快,出图速度也还可以,4张512x768的图不到一分钟就可出来。如果你的电脑能顺畅清晰地玩3A游戏,那玩webui和comfyui也没问题。配置上不封顶,根据自己的需求和预算来即可。以我为例,新需求:做AIGC视频+建模渲染+炼丹(lora)预算2W。起先用2060生图,后发现做AIGC视频比较费时间,且还有做建模渲染的需求。

阿澄:小白comfyui学习日记-01解决篇线上部署,和线下部署配置需求

可以线上部署的平台很多,价格和体验略有差别。飞桨、liblib、揽睿星舟、等。据好些群友反馈说飞桨的体验不错,交互较为简单友好。选一个即可,以liblib为例,对于我来说线上部署是笔记本和在外工作对本地部署的临时替代,本地部署最大的好处就是免费,私密。流程为:注册账户➡️进入️comfyui➡️输入关键词➡️参数设置➡️开始生图模型选择麦橘写实V7正向提示词输入:1girl,face,white background,反向提示词输入:worst quality,low quality,normal quality,lowres,watermark,步数30,CFG6.0完成后选择右上角开始生图,线上部署的comfyui资源紧张,花钱不说有时候还得排队要充会员。有些平台使用完,要记得关闭,否则会一只持续不断地扣钱,时间和金钱的关系,最后以本地部署快速生成。

8月13日ComfyUI共学

[00:04](https://waytoagi.feishu.cn/minutes/obcn4w986vn7d5kc9tg2zy69?t=4000)关于康维UI部署及工作流搭建的分享会介绍本章节AJ表示在做前期准备,担心算力并发问题找了多个平台,佑萌老师将带着大家学习康维UI部署及工作流搭建,包括云部署和本地部署,中间小田老师会带大家实操云部署平台流程,且为新用户争取了一周的使用时长。[06:58](https://waytoagi.feishu.cn/minutes/obcn4w986vn7d5kc9tg2zy69?t=418000)关于AI绘画底模及秋叶整合包的介绍本章节郭佑萌介绍了所发文档中的三个链接,其一为dream shaper的SD 1.5底模,需装在CONFIUI里出图,新手本地部署可先下载。还提到秋叶的两个整合包,分别在跨客盘和百度盘,二者内容相同。[09:03](https://waytoagi.feishu.cn/minutes/obcn4w986vn7d5kc9tg2zy69?t=543000)关于特定文件下载及电脑配置要求的说明

Others are asking
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
怎样用ai创建精美的ui/ux原型图
以下是一些利用 AI 创建精美的 UI/UX 原型图的方法: 1. 利用 Agent 构建:通过基本的产品和运营概念,利用 Agent 构建完整的产品、架构、UX 设计文档集,并通过多次的 rerun 输出,进行多个 UI 方案的概念探索。一个 flow 能帮助产品经理一次性完成 idea 的脑暴、打磨、市场调研、竞争力分析、功能设计、架构、UE/UI 规范,到完成可交互的高保真原型,并且可以不断产出不同的 UX 原型供内部比较和概念用研。 2. 使用 Midjourney 进行 UI 设计: 直播礼物风格图标:在素材网站上找到喜欢的 icons 风格,然后喂图给机器人,并加上关键词,如“Gift icon, cartoon style, solid color background luminous effect, 3d –iw 1 –v 5 –q 2”,其中“Gift icon”可替换为其他关键词,如“beer icon”“Headphone icon”等。 主题应用 icons:关键词如“icon design, light texture, glow, Dribbble, 3D, frosted glass effect, 3D, ui, ux, –upbeta –q 2 –v 4”。 B 端图标:关键词如“喂图+A data icon, blue gradient frosted glass, frosted glass building, white transparent technology sense white city building scene, data line link, chip, OCrenderer, big data, industrial machinery, high detailight gray background with simple linear details, studio lighting, 3d, c4d, pure white background, 8k”。
2025-04-12
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12
如何本地部署大模型,如何选择是否使用云服务商
以下是关于本地部署大模型以及选择是否使用云服务商的相关内容: 本地部署大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 以 SDXL 为例的本地部署步骤: 1. SDXL 的大模型分为两个部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 以 LLM 大语言模型为例的本地部署步骤: 1. 下载并安装 Ollama,点击进入根据电脑系统下载 Ollama:https://ollama.com/download ,下载完成后,双击打开,点击“Install”,安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 总的来说,部署大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-14
本地部署
SDXL 的本地部署步骤如下: 1. 模型下载:SDXL 的大模型分为两个部分,第一部分 base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化以生成细节更丰富的图片。此外,还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。这三个模型可通过关注公众号【白马与少年】,回复【SDXL】获取云盘下载链接。 2. 版本升级:要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:完成上述步骤后启动 webUI,即可在模型中看到 SDXL 的模型。正常使用时,先在文生图中使用 base 模型,填写提示词和常规参数(如尺寸设置为 10241024)进行生成。然后将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点再次点击生成。 5. 插件辅助:若觉得操作麻烦,可在扩展列表中搜索 refine 安装插件并重启,启用插件后可在文生图界面直接使用 refine 模型进行绘画。 另外,关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG,步骤包括导入依赖库(如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型)、从订阅源获取内容(通过指定函数从 RSS 订阅 url 提取内容,并将长文本拆分成较小的块附带相关元数据)、为文档内容生成向量(使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储),最终实现 RAG。
2025-04-13
我有秋叶整合包,然后需要怎么搭建本地部署?
以下是使用秋叶整合包搭建本地部署的步骤: 1. 下载整合包:可以从。 2. 复制启动器到下载仓库的目录下。 3. 打开启动器,可一键启动。如果有其他需求,可以在高级选项中调整配置。 显存优化根据显卡实际显存选择,不要超过当前显卡显存。xFormers 能极大地改善内存消耗和速度,建议开启。 4. 准备工作完毕后,点击一键启动即可。等待浏览器自动跳出,或是控制台弹出本地 URL 后说明启动成功。 如果报错提示缺少 Pytorch,则需要在启动器中点击配置。 5. Stable Diffusion webui 的更新比较频繁,请根据需求在“版本管理”目录下更新,同时注意插件的更新。 在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。 具体安装方法: 1. 打开整合包链接(https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru),下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘(避免 C 盘被占满),点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择。 8. 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等待 SD 的主界面在网页上自动弹出。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。
2025-04-12
如何部署自己私人AI
部署自己私人 AI 可以参考以下几种方式: 通过云服务器、dify、智能微秘书来免费搭建微信机器人: 1. 在宝塔面板的终端安装相关命令,这些命令位于/root/dify/docker 目录下。 2. 检查运行的容器数量,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 以解决。 3. 在浏览器地址栏输入公网 IP(去掉后面的:8888),进入后邮箱密码随便填,建立知识库并进行设置。 4. 选择模型,国内模型有免费额度可选,如智谱 ai,获取钥匙并复制保存,创建应用进行测试和发布。 基于 Hook 机制的微信 AI 机器人: 1. 将 Administrators 改成“wxid_dna83ykqawl222”。 2. 若有 FastGPT 或者 OpenAI 的 key,将 Ai_Lock 修改成“1”,并在 OpenAI 处添加模型 key;若没有,保持 Ai_Lock 为 0。 3. 修改后点击保存。 4. 返回 NGCbot 文件夹下,找到 main.py 文件双击运行。 5. 运行后会弹出微信登录框,正常登录微信,等待系统自动初始化必备文件。 6. 运行成功后,用“大号”给机器人发消息,拿到 wxid 并返回替换。 7. 添加完后,用小号登录,大号可对小号发号施令。 部署和训练自己的 AI 开源模型: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身资源、安全和性能需求选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,如开源的 BERT、GPT 等,也可自行训练基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-11
DEEP SEEK 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)
以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容: 一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库 1. 将 Ollama 部署的模型接入 GARFlow 返回 RAGFlow 中,打开右上角设置,进入模型提供商,配置 Ollama 相关信息,基础 URL 按要求设置,设置完成后点击确定。 导入一个 embedding 模型用于文本向量化,导入成功后设置系统模型设置,然后返回知识库创建知识库。 进入数据集,导入文件(可设置文件夹当作知识库),导入完毕后解析文件,解析速度取决于本机 GPU 性能,解析好后进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。 2. 使用 Ollama 本地部署 DeepSeek 模型 先下载 Ollama 程序,官方网址:https://ollama.com/ 。 下载默认到 C 盘(一般为固态盘,运行速度快),若想修改安装目录到 D 盘,后续会有说明。 下载完右下角会出现 Ollama 图标,打开命令行输入相关命令回车。 若显卡是英伟达 2060Super,可选择 Deepseekr1:14b 的模型,根据自身独立显卡性能下载。 下载速度慢可按 Ctrl+C 强制退出重新下载。 下载完毕后再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相关命令,下载好后直接退出终端。 二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |||||| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|| |满血版自部署 DeepSeekR1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21||
2025-04-10
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10