直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

关于Stable Diffusion,个人本地附属,对机器的配置要求

回答

Stable Diffusion 本地化部署对机器配置有一定要求:

  1. 电脑系统:需为 Win10 或者 Win11,避免使用更低版本的系统。查看电脑系统的方法为在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。
  2. 电脑性能:
    • 运行内存:8GB 以上。查看方法为鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,只要看图中划线的参数即可。8GB 勉强达到标准,16GB 可正常使用,32GB 能非常自由地使用。
    • 显卡:需为英伟达(俗称 N 卡)的显卡,显卡内存 4GB 以上。查看方法为在任务管理器中先看右上角显卡的名字或型号,确认是 NVIDIA 后,再查看显存,4GB 显存可运行 SD,推荐 8GB 以上显存。

如果电脑配置不够,可选择云端部署(Mac 也推荐云端部署),或者先试试简单的无界 AI。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】软件原理傻瓜级理解

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-04-27 23:00原文网址:https://mp.weixin.qq.com/s/C-F6ARIMHotl6siAfQ9wig目前市面上主流的AI绘图软件有两个:Stable Diffusion和Midjourney。Stable Diffusion的优势在于开源免费、可以本地化部署、创作自由度很高,缺点是需要比较好的电脑配置,尤其是显卡;Midjourney的优势是操作简单方便,创作内容相当丰富,但是需要科学上网并且付费,目前的使用费大概在每月200多元左右。如果可以融入工作流,这个月费也不算高,毕竟它带来的效率是惊人的,当然前期想要了解玩一玩的,可以试试Stable Diffusion,关于具体的安装方法可以去看看B站的【秋葉aaaki】这个Up主的视频。很多还没有接触过AI绘画的朋友会觉得这个东西很神秘,哪怕装好了软件也会看着一堆英文和参数而一头雾水。今天我就用最傻瓜的方式来讲述一下Stable Diffusion的工作原理和基本功能。

教程:超详细的Stable Diffusion教程

为了大家能够更加顺利的安装和使用Stable Diffusion(简称“SD”)在正式安装之前希望大家先一起查看一下自己的电脑配置,需要注意的是以下两点:01.电脑系统是Win10或者Win11为了避免一些奇怪的兼容性问题,不要选择更低版本的系统。查看电脑系统的方法:在桌面上找到“我的电脑”——鼠标右键点击——点击“属性”——查看Windows规格02.检查电脑性能这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求:电脑运行内存8GB以上是英伟达(俗称N卡)的显卡显卡内存4GB以上检查方法:①鼠标右击桌面底部任务栏——点击“任务管理器”②查看电脑的运行内存在“性能”里面找到“内存”,这里的内存不是电脑的存储内存,而是运行内存噢!只要看图中划线的那一个参数就可以8GB:那就说明你的电脑配置内存是勉强达到标准的16GB:那就说明你的内存配置可以正常使用32GB:那么你就可以非常自由的使用SD啦!③查看“GPU”GPU就是显卡的意思首先先看右上角显卡的名字或者型号必须确认的第一个是NVIDIA,代表的是英伟达的显卡(俗称N卡),这里是N卡我们才可以进行下一步,

0. SD的安装

①系统需为Win10、Win11②Win系统查看配置③配置达标跳转至对应安装教程页[1.Win系统SD安装](https://qa3dhma45mc.feishu.cn/wiki/D5nawAs1fivF4ykx88ucRIYwn1d)④配置不够可选择云端部署(Mac也推荐云端部署)[3.SD云端部署](https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd)⑤备选:SD好难,先试试简单的无界AI:[图像类-无界AI使用教程](https://qa3dhma45mc.feishu.cn/wiki/LRdOw75tQiN3wAkU43ucwb5Ondd)[heading2]Win系统查看配置[content]Win10和Win11一样没区别[heading3]查看电脑系统:[content]在桌面上找到“我的电脑”一鼠标右键点击一一点击"属性”一一查看Windows规格[heading3]查看电脑配置:[content]这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求(推荐):电脑运行内存8GB以上是英伟达(NVIDA)的显卡显卡内存4GB以上①打开任务管理器:同时按下ctrl+shift+esc②查看电脑运行内存8GB运行内存可以勉强运行SD推荐16GB以上运行内存③查看电脑显卡内存(显存)4GB显存可运行SD,推荐8GB以上显存

其他人在问
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
stable diffusion是runway和goole联合开的吗
Stable Diffusion(简称 SD)不是由 Runway 和 Google 联合开发的,而是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。 Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型,其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于这两位开发者之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中根据文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高的分辨率。 围绕 Stable Diffusion 等基础模型的兴奋和关注正在产生惊人的估值,但新研究的不断涌现确保新模型将随着新技术的完善而更替。目前,这些模型在法律方面也面临挑战,例如其训练所使用的大量内容数据集通常是通过爬取互联网本身获得的,这可能会引发法律问题。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。在文生图任务中,将一段文本输入到模型中,经过一定迭代次数输出符合文本描述的图片;图生图任务则在输入文本基础上再输入一张图片,模型根据文本提示对输入图片进行重绘。输入的文本信息通过 CLIP Text Encoder 模型编码生成与文本信息对应的 Text Embeddings 特征矩阵,用于控制图像生成。源代码库为 github.com/StabilityAI/stablediffusion ,当前版本为 2.1 稳定版(2022.12.7),其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 Stability AI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion 。
2025-04-15
有stable diffusion的学习教程吗
以下为您提供一些 Stable Diffusion 的学习教程: 1. 超详细的 Stable Diffusion 教程: 介绍了为什么要学习 Stable Diffusion 及其强大之处。 指出 Stable Diffusion 是能根据输入文字生成图片的软件。 强调学习目的是快速入门,而非深入研究原理,通过案例和实际操作帮助上手。 2. 深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎: 包含 Stable Diffusion 系列资源。 零基础深入浅出理解 Stable Diffusion 核心基础原理,如模型工作流程、核心基础原理、训练全过程等。 解析 Stable Diffusion 核心网络结构,包括 SD 模型整体架构、VAE 模型、UNet 模型等。 介绍从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的流程。 列举 Stable Diffusion 经典应用场景。 讲解从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型。 3. 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?:
2025-03-28
社群机器人
以下是关于社群机器人的相关内容: 制作 Coze 社群机器人的大致流程看似步骤繁多,但由于 Coze 本身的设计和强大的社区力量,实际操作并不复杂,关键是要“迈出第一步”。在制作过程中,与社区成员设计方案时的深入讨论、在 Coze 平台上灵活组装功能时的高效畅快以及在不断调试优化中见证机器人成长,都充满乐趣。未来会有更多社区加入制作社群机器人的行列,让更多人感受 AI 智能体的魅力,那时的社群机器人不仅是助手,更是凝聚社区集体智慧的伙伴。目前的社区机器人还有不足,作者会继续优化,看其能否更好地服务社区。 如果对学习 Coze 和 AI Agent 有兴趣,可以加入免费的 AI Agent 共学群,该群组会基于 WaytoAGI 社区等高质量信息源分享相关玩法、经验和前沿资讯。可搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学以便被拉入群。 此外,以综合服务的社群机器人为例,一个好的文章或复杂任务不是一次 AI 工作就能完成的,需要任务拆解,比如对用户问题做意图判断,根据意图将线路转接到正确的专属 AI 机器人那里,整个过程称为工作流,通过搭建工作流来完成复杂任务。
2025-04-15
MacBook 如何做一个 RPA 机器人
以下是在 MacBook 上制作 RPA 机器人的详细步骤: 搭建前准备: 硬件准备: MacBook(需能科学上网) 一部 iPhone 手机 主板 Arduino UNO R4 Wifi(200RMB) 舵机 9g(32RMB) 杜邦线,公对公 7 条(手残党可多备) (可选)八爪鱼支架(10RMB) (二选一)usbtypeC 转接头,或一根两头 typeC 的线 Arduino UNO R4 WIFI 开发板 MG90s/SG90 舵机 9g 云台支架 可选八爪鱼手机支架 杜邦线公对公 搭建步骤: 完成代码: 在 Github 上下载完整代码。 根据需求修改文件: 【必改】在 head.py 中找到填写主板串口的地方,改成串口地址(可通过主板写入的第 3 步里的小字或 Tools>Get Board Info 重新查询,复制 sn 号替换 usbmodem 后面的编码)。 【必改】查询 iPhone 的 ip 地址,填到 talk.py 里(iPhone 设置>无线局域网>点击当前 wifi 旁的感叹号>找到 ipv4 地址里写的 ip 地址)。 【必改】把 open ai key 填到 talk.py 里。 【可选】在 talk.py 里,可以修改: Openai 调用的 model。 system prompt(机器人的人设)。 机器人的音色。 录音的设置。 【可选】在 head.py 里,可以修改不对话后,等待多久恢复人脸追踪。 运行程序: 在 MacBook 上按下 command+space(空格)打开一个新的终端,依次输入如下代码(每一次代码运行完以后再输入下一个),全部完成后,关闭端口。 将 iPhone 的屏幕关闭时间设置为 5 分钟或永不。 打开 iPhone 的 pythonista 并复制 face.py 的代码进去,运行。注意:每一次如果需要重新运行 pythonista,请先杀后台再运行,否则会因为端口已经被占用而无法播放声音。 找到下载下来的 AIinhindsightGPTEmbodimentRobot 文件夹,control+单击文件夹,选择最后一项“新建位于文件夹位置的终端端口”。 将 arduino R4 与 MacBook 相连,在终端中输入以下代码,运行后程序会申请一次摄像头权限,点击允许,然后出现运行失败,再运行一次即可。这个程序一旦运行,无法自然退出,建议直接拔掉 R4 的线或者终端输入 control+c 或者直接关闭终端,但多强制退出几次以后运行就会卡住需要重启或清进程。 再次在 AIinhindsightGPTEmbodimentRobot 文件夹,control+单击文件夹,选择最后一项“新建位于文件夹位置的终端端口”,在终端中输入以下代码,运行后程序会申请一次录音权限,点击允许,然后出现运行失败,再运行一次即可。如果运行中出现任何报错,将本文档,代码,报错信息给到 GPT4,让他帮助你就好~可能是有一些库没有预装。 把 talk.py 的终端放在最前面你能看到,出现 recording...的时候就可以说话了。 三个程序同时运行、iPhone 和 MacBook 在同一 wifi,iPhone 没有调静音的情况下,就可以正常对话啦。
2025-04-11
怎么搭建微信机器人?
以下是搭建微信机器人的步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复,此时表示已通。 2. 如果想为这个 AI 赋予提示词,可以返回相应步骤进行更改。例如在“目录 4 里的第 17 步”或“第三章,第 7 步”,其中双引号内的 value 部分,便是设置 AI 提示词的地方。 3. 此后,进行任何更改,都需要重新打印登陆二维码。并且一个月内,不要上来就加好友、最好不要私聊聊天。 4. 报错"wxsid"是因为微信未实名,实名即可解决。 5. 如果没有手机登录,可以使用夜神模拟器模拟手机登录。 6. 重新在“文件”的【终端】里,直接输入 nohup python3 app.py&tail f nohup.out 重新扫码登录。 7. 多次重新登录后,就在宝塔“首页右上角点击重启,重启一下服务器”,清理进程。 8. 熟悉 linux 操作的话,也可以通过重启进程的方式来重启服务。 9. 如果想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 此外: 1. Link AI 提供的 100 个,合计 3500 万 GPT3.5 Token 的礼品码。可以用来实现画图、搜索、识图等功能,COW 插件里几乎都支持使用 LinkAI 平台。完成机器人搭建,机器人拉群里,领兑换码。 2. 添加微信,拉您进机器人群,先行体验。 如果您仍旧遇到问题,可以先查询社区知识库,或者加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可以加 Stuart 个人微信询问。
2025-04-11
创建飞书ai机器人
创建飞书 AI 机器人的步骤如下: 1. 工作流搭建: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻。 2. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg 。
2025-04-11
微信机器人如何配置
微信机器人的配置步骤如下: 1. sum4all 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 sum4all 插件目录下的 config.json.template,复制并粘贴重命名为:config.json 注册并获取 sum4all key:https://pro.sum4all.site/register?aff=T6rP ,新用户注册有送免费额度,大家先使用这个进行试用,后续可改为自己的 openAI key。 把复制的 key,粘贴到 sum4all 的 config.json 文件内。(上方有功能阐述,你想要哪个,就把哪个改成 ture) 2. Apilot 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 Apilot 文件下的 config.json.template,复制并粘贴重命名为:config.json 去 https://admin.alapi.cn/account/center 注册,并复制 key 把复制来的 key,粘贴进入。保存。 3. 分段对话配置替换 找到这个路径:/root/chatgptonwechat/channel/wechat,直接下载以下文件进行替换。 此外,微信的配置相对较简单,只需要主项目的 config.json 文件看看是否有"channel_type"参数,参数值为:"wx",即:"channel_type":"wx"。完成以上所有配置部分后,可以准备启动步骤了: 使用 nohup 命令在后台运行程序。 执行完启动脚本,等待 30s 左右,会看到终端有一个微信登录的二维码,微信扫码登录。 如果您想使用更多辅助功能,比如使用总结文件能力,总结网页内容能力,此时需要安装各种插件。这部分配置查看插件配置管理部分。
2025-04-10
利用飞书多维表格,做一个类似于客服机器人 可以怎么做?
利用飞书多维表格做一个类似于客服机器人,可以按照以下步骤进行: 1. 创建一个拟人化的 bot,比如起名叫青青,设定其为人设是一个可爱有趣的少女,擅长回答各种刁钻的问题。完成 BOT 捏好后点击发布。 2. 发布时配置飞书多维表格: 输出为文本时,第一步配置为文本。 配置多维表格输入表单,选择用控件的字段选择器,给字段标题随便起个名字如“question”。 在完善捷径的商家信息这里,可以选择全量发布,也可以选择仅自己可用。为了审核快一些,可以选择仅自己可用。等审核通过之后,就可以在飞书多维表格里面看到发布成功。 3. 还可以探索字段捷径的各种玩法(不含 bot),比如直接创建一个多维表格,第一列是几个成语,第二列是 AI 字段捷径生成的对成语的解释。左边输入一列,比如一列成语,右边配置 AI 字段。 此外,还有一些相关信息供您参考: “Show Me 扣子 AI 挑战赛大消费行业专场圆满落幕,探索 AI 与大消费行业的深度结合”中提到了一些相关作品,如帮助企业快速建立产品智能客服体系、ERP 高智版:扣子销售订单管理大师、亚马逊商品评论智析、AI 电商设计师等。 2024 年历史更新(归档)中包含了关于飞书多维表格字段捷径配置 COZE 的 BOT 青青的相关内容。
2025-04-08