直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

stable diffusion 绘画

回答

以下是关于 Stable Diffusion 绘画的相关内容:

如果您是运营网店的女装店主,在没有资金请模特的情况下,可以用 Stable Diffusion 来制作商品展示图。具体步骤如下:

  1. 真人穿衣服拍照,并获取具有真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。
  2. 选好底模,一定要是 realistic 的、真人照片风格的底模,如 majicmixRealistic_v7。
  3. 进行换头操作,根据不同平台需求更换,如面向海外市场换白女头,面向中老妇女换妈妈头。
  4. 在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置好 prompts 和 parameters,如“breathtaking cinematic photo, masterpiece, best quality, (photorealistic:1.33), blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands”。

关于 Stable Diffusion 的工作原理,就像学习画画临摹梵高的作品一样。您花四十年学习的梵高风格相当于 Stable Diffusion 的大模型——Checkpoint。人们将成千上万美术风格的作品练成模型放入 AI 中,AI 就能依照模型画出类似风格的作品。要画出符合心意的作品,首先要选对合适的大模型。大模型可在 C 站(https://civitai.com/)下载,但需要科学上网。有真实系的(Chillmixout)、二次元的(anything)、游戏 CG 风(ReV Animated)等。

用 Stable Diffusion 时,可以把自己想象成画家。在起笔前要确定照片风格,如二次元动漫、三次元现实照片或盲盒模型。确定风格后切换大模型,不同模型代表不同照片风格,即 SD 界面左上角的“Stable Diffusion 模型”。若想生成真人 AI 小姐姐,可选用 chilloutmix 的大模型。关于模型的获取和存放位置,后续会详细介绍。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

我用Stable Diffusion做电商!

如果你要开淘宝网店,那么在淘宝网页上展示的商品就要漂亮精致,紧紧抓住消费者的心♥!我们可以借助AI作图工具,简单地代替请模特特地搞拍摄的过程啦!这里介绍很简单的利用AI绘画局部逐渐美化女装商品展示图的方法。我是运营网店的女装店主,我没有钱请模特了。。。我可以用stable diffusion来初步制作自己的展示商品!比如我这里要卖这个绿色的淑女裙。(左图)我尝试了直接拿真人穿的衣服抠出来生成,效果很不好。(右图)借鉴了一些视频和方法,我总结了一些我觉得实用性较高,也比较简单的步骤。我觉得局部重绘是比较合适和真实的方法。真人穿衣服拍照。拿到穿衣服的比较真实质感的照片。【如果是身材方面有点难处那就借助美图秀秀or ps吧】ok,比如我(不具有做模特资质的小美女)穿好了我卖的漂亮衣服摆好pose摆几张啦!选好底模!一定要是realistic的,真人照片风格的底模。我这里选的是很经典的majicmixRealistic_v7。换头,根据不同平台换头!比如面向海外市场的,就得换白女头吧。面向中老妇女的,换妈妈头。ok,我这里换白女头,比如我要放在亚马逊上卖。操作就是图生图下的局部重绘选项卡下涂抹自己替换的部分。prompts & parametersbreathtaking cinematic photo,masterpiece,best quality,(photorealistic:1.33),blonde hair,silver necklace,carrying a white bag,standing,full body,detailed face,big eyes,detailed hands,

【SD】软件原理傻瓜级理解

首先是关于Stable Diffusion的工作原理,就好比你现在想学画画,学梵高的风格,那么你肯定要先去看梵高的画,然后一幅幅的临摹。一幅画起码要临摹个一百遍吧,从一开始完全不像,到慢慢找到要领,要想画到出神入化以假乱真的地步,一个月的时间够短了吧。梵高一生有接近500幅画,全部学完大概四十年吧,然后你就可以开始接单画梵高风格的画了。当然,客户的要求肯定不是让你画一模一样的梵高《向日葵》,而是说我要一幅梵高的《西瓜》,并且考虑到你已经很熟练了,给你半个小时的时间画出来,应该不难吧。于是,你吭哧吭哧地画完,客户看完之后立马给了你一个大嘴巴子,说你这个画的是神马东西,立马再给我画一幅。然后你强忍着泪水继续画,好不容易画完了,客户看完之后略有所思,说这一稿还行,但是这个颜色不太好,你再用黄色、紫色、粉红色各微调一版给我。于是,你又花了两个小时,改了三稿给客户,客户看完沉吟了许久,说我可能不太喜欢梵高了,你给我来一幅毕加索风格的吧。。。。。。于是,我打开了AI,花了一分钟的时间画完了这两幅画。如果把上文中的你换成是AI,这大概就是AI绘画的逻辑了。你花了四十年的时间所学习的梵高风格,就相当于是Stable Diffusion的大模型——Checkpoint。人们把成千上万的美术风格的作品练成一个模型放在AI里面,AI就能依照这个模型画出风格类似的作品。所以你想要画出符合你心意的作品,首先就是要选对合适的大模型。大模型的下载,可以去咱们大名鼎鼎的C站(https://civitai.com/),有真实系的(Chillmixout)、有二次元的(anything)、有游戏CG风(ReV Animated)的等等,但是需要科学上网。

教程:超详细的Stable Diffusion教程

用stable diffusion可以把自己想象成一个画家在起笔画画之前,我们要先确定我们画的是什么风格的画,是二次元动漫、三次元的现实照片、还是盲盒模型。因此,在我们确定了我们照片风格之后我们就要去切换大模型,不同的模型就代表着不同的照片风格。也就是SD界面左上角的“Stable Diffusion模型”假如现在我想生成一个真人AI小姐姐,就选用chilloutmix的大模型那么问题来了,我们这些模型从哪来呢?下载的模型放在哪里呢?在我分享给大家的链接里面,有部分比较常用的大模型(后续还有比较好的模型也会分享给大家)大家可以根据文件夹名称找到需要的模型。另外,这篇文章的第三部分会跟大家详细介绍去哪里下载模型,模型存放的位置,所以一定要看到最后!

其他人在问
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
stable diffusion是runway和goole联合开的吗
Stable Diffusion(简称 SD)不是由 Runway 和 Google 联合开发的,而是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。 Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型,其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于这两位开发者之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中根据文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高的分辨率。 围绕 Stable Diffusion 等基础模型的兴奋和关注正在产生惊人的估值,但新研究的不断涌现确保新模型将随着新技术的完善而更替。目前,这些模型在法律方面也面临挑战,例如其训练所使用的大量内容数据集通常是通过爬取互联网本身获得的,这可能会引发法律问题。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。在文生图任务中,将一段文本输入到模型中,经过一定迭代次数输出符合文本描述的图片;图生图任务则在输入文本基础上再输入一张图片,模型根据文本提示对输入图片进行重绘。输入的文本信息通过 CLIP Text Encoder 模型编码生成与文本信息对应的 Text Embeddings 特征矩阵,用于控制图像生成。源代码库为 github.com/StabilityAI/stablediffusion ,当前版本为 2.1 稳定版(2022.12.7),其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 Stability AI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion 。
2025-04-15
有stable diffusion的学习教程吗
以下为您提供一些 Stable Diffusion 的学习教程: 1. 超详细的 Stable Diffusion 教程: 介绍了为什么要学习 Stable Diffusion 及其强大之处。 指出 Stable Diffusion 是能根据输入文字生成图片的软件。 强调学习目的是快速入门,而非深入研究原理,通过案例和实际操作帮助上手。 2. 深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎: 包含 Stable Diffusion 系列资源。 零基础深入浅出理解 Stable Diffusion 核心基础原理,如模型工作流程、核心基础原理、训练全过程等。 解析 Stable Diffusion 核心网络结构,包括 SD 模型整体架构、VAE 模型、UNet 模型等。 介绍从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的流程。 列举 Stable Diffusion 经典应用场景。 讲解从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型。 3. 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?:
2025-03-28
我想找一个好用的ai绘画,有什么推荐吗
以下是为您推荐的一些好用的 AI 绘画平台: 1. Midjourney:综合体验较好,尤其是其 v6 版本。 2. 可灵 AI:成熟的综合类工具。 3. 即梦 AI:成熟的综合类工具。 4. Krea:集成平台。 5. MewXAI:操作简单,功能丰富,包括 MX 绘画、MX Cute、MJ 绘画、边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等。访问地址:https://www.mewxai.cn/
2025-04-15
给我写适应于AI绘画的提示词
以下是一些适用于 AI 绘画的提示词示例及相关说明: 内容型提示词: 选择 anythingV5 这个专门用于二次元绘画的大模型,输入例如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”这样的描述,并使用翻译软件翻译成英文。 标准化提示词: 例如“,绘图,画笔”,能让画面更趋近于某个固定的标准。 其他提示词示例: 远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1 远景,中心对称构图,俯视视角,摄影风格,云雾中的山谷,山峦在云雾中若隐若现,山谷中隐约可见的河流蜿蜒流淌,云雾的流动感和山的静态形成对比,现实主义风格特征,使用长焦镜头和景深控制技术ar 3:2v 6.1 远景,对角线构图,俯视视角,水墨画风格,云雾缭绕的山谷,山峦线条流畅,云雾以墨色深浅表现,山谷中的云雾仿佛在流动,给人以动态的视觉感受,中国山水画风格特征,使用毛笔和水墨渲染技术ar 2:3v 6.1 在设置参数方面: 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但绘画速度越慢。 常用的采样方法有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++SDE Karras、DDIM 等,有的模型会有指定的算法,搭配起来更好用。 比例设置为 800:400 为宜,尺寸并非越大越好,因为模型的练图基本按照 512x512 的框架去画。若想要高清图,可同时点选高清修复来放大图像倍率,高宽比主要控制画面比例。 请注意,不同的 AI 绘画工具可能对提示词的要求和效果有所差异,您可以根据实际情况进行调整和尝试。
2025-04-12
绘画提示词
以下是一些关于绘画提示词的相关信息: 绘画提示词网站: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库,网址: MidJourney Prompt Tool:类型多样的 prompt 书写工具,点击按钮就能生成提示词修饰部分,网址: OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便您快速可视化生成自己的绘画提示词,网址: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器,网址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器,网址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney,网址: OpenArt:AI 人工智能图像生成器,网址: img2prompt:根据图片提取 Prompt,网址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用,网址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板,网址: 提示词语法: 根据自己想画的内容写出提示词,多个提示词之间使用英文半角符号。 一般而言,概念性的、大范围的、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。大致顺序如:。 不过在模型中,每个词语本身自带的权重可能有所不同,如果模型训练集中较多地出现某种关键词,我们在提示词中只输入一个词就能极大地影响画面,反之如果模型训练集中较少地出现某种关键词,我们在提示词中可能输入很多个相关词汇都对画面的影响效果有限。提示词的顺序很重要,越靠后的权重越低。 关键词最好具有特异性,措辞越不抽象越好,尽可能避免留下解释空间的措辞。 可以使用括号人工修改提示词的权重,方法如:字符。 画小二:Prompt 提示词关键词整理(双语版): 视角_:Select/Deselect All_true、LowAngle(仰视) 介质_:abstract expressionist art style(抽象表现主义艺术风格) 镜头_:superresolution microscopy(超分辨率显微镜) 灯光_:ambient lighting(环境照明) 颜色_:white(白色的) 描述_:classical realism(古典现实主义) 艺术家_:抽象主义 19401950、Henri Matisse(亨利·马蒂斯) 电影_:2001 A Space Odyssey(2001 太空漫游) 游戏_:Age of Empires(帝国时代) 其他:doodle(涂鸦)、vacuum tube bulb(真空管灯泡)、polka dot color(圆点颜色)、microsoft paint(微软画图)
2025-04-12
我应该如何开始0-1学习AI绘画?当前最好用的工具是什么?
以下是一些关于 0 1 学习 AI 绘画的建议和当前好用的工具: 您可以通过观看相关视频教程来入门,比如: “10 分钟教会你如何手把手撰写提示语,全网最细 ChatGPT 对话指南,保姆级教程!” ,视频使用到的 AI 工具包括 AI 提示语,平台链接: 。 “零基础 AI 绘画入门,Midjourney、Stable Diffusion,小白速成,一站式使用和最强入门教程” ,视频使用到的 AI 工具包括 AI 提示语,一个无需魔法上网的 AI 绘画工具,平台链接: 。 目前,Midjourney 和 Stable Diffusion 是比较受欢迎的 AI 绘画工具。
2025-04-10
入门:Ai绘画
以下是为您提供的 AI 绘画入门相关的资源和教程: 在“通往 AGI 之路介绍.pdf”中,有关于 AI 绘画入门的部分,包括产品工具与案例实战,开箱即用。 以下是一些 B 站的视频教程链接: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 还有 SD 新手从 0 入门的 AI 绘画教程,包括以下章节: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,你的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa|Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教你玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet! 您可以通过以上资源进行学习,祝您在 AI 绘画领域学有所成!
2025-04-10
AI绘画学习
以下是关于 AI 绘画学习的相关内容: 二师兄的 AI 绘画学习经历: 二师兄来自上海,房地产行业从业二十年,计算机零基础。 2024 年 2 月,在七彩虹售后群老哥的分享下,要了 SD 秋叶安装包,下载教学视频,迈出 AI 学习第一步。 3 月,啃完 SD 的所有教程,开始炼丹,但因图片数据集质量一般,lora 仅供自嗨。 4 月,与小伙伴探讨 AI 变现途径,尝试相关项目,过程中练了一些绘本风格的丹。 5 月,因工作变动,开启了长达五个月无硬件支持的 AI 学习之路,加入 Prompt battle 社群,开始 Midjourney 的学习。 AI 绘画助手: 是一位专业且贴心的 AI 绘画学习导师。 能为新手小白和进阶爱好者提供优质实用的指导。 能用通俗易懂的语言讲解复杂的神经网络、生成对抗网络等知识。 熟悉市面上流行的 AI 绘画工具,如 DALLE、MidJourney、Stable Diffusion 等,并介绍其使用步骤和独特之处。 擅长风格迁移技术、生成对抗网络在图像生成和编辑中的应用,以及获取高分辨率精美图像的方法。 拥有丰富实战案例经验,能为学习者答疑解惑并规划学习路径。 Nenly 的 Stable Diffusion 零基础入门课学习资料汇总: 4 月份发布零基础入门课,超 100 万朋友跟随学习。 编辑配套学习文档作为后备“知识库”,基本内容包括随堂素材、生成信息、内容修订。 提供安装攻略和素材下载的相关指导。 希望以上内容对您学习 AI 绘画有所帮助。
2025-04-10