直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
小七姐的提示词课程 双证班 是干什么的?
小七姐的提示词课程双证班主要内容如下: 课程形式:以视频课+知识星球作业+社群答疑的授课形式,自由学习时间包含 22 节视频课。 课程内容: 提示词基础:包括“Hello,大模型”“提示词基础方法”“开始编写你的第一条提示词”“按需求设计和迭代提示词”等课程。 元能力:涵盖“AI+学习能力”“AI+逻辑思维”“AI+表达能力”等课程。 提示词实践:包含“需求分析”“结构框架”“反馈迭代”“结构化提示词”“思维链”等课程。 提示词工具化:包括“工作流”“提示词封装”“GPTs 基础教程”“GPTs 实战案例”等课程。 2024 更新:涵盖“GPT 新版本指南”“GPTs 基础教程”“GPTs 设置方法”“GPTs 实战案例”“提示词学习综述”“知识库场景”“知识库工具”“知识库有效语句”“知识库方法论”“知识库思维方式”“优秀提示词拆解”“提示词编写常见误区”等内容。 社群答疑:学员有问题随时在学习群提问,老师和助教会详尽答疑。针对复杂问题,小七姐会录制 1 分钟左右的短视频帮助理解。 小七姐是一名优秀的产品经理,也是【?通往 AGI 之路】知识库的共建者,发布了很多自己对于 prompt 用法的心得,相关链接如下: B站干货也很多在持续更新,链接为:https://space.bilibili.com/128712813?spm_id_from=333.337.searchcard.all.click 报名方式:(扫码可以查看课程详细内容和介绍),咨询课程助教(请注明来自 waytoAGI)
2024-10-10
ai控制骨骼动画
以下是关于 AI 控制骨骼动画的相关信息: 在 Stable Diffusion 中,使用 ControlNet 插件进行姿态约束时,对于国风 3 模型,点击生成可能得到相应姿势,但 AI 识别可能不准确,会出现骨骼错位等问题,需要耐心刷图和调整参数。作者还收集了不同 pose 的骨架图,可在公众号【白马与少年】回复【SD】获取以作人物动作参考。 Tripo AI 的模型详情页提供丰富工具和选项,可对模型进行编辑和下载等操作。模型工具包括收藏、分享、动态旋转或暂停、删除等按钮,在模型区域按住鼠标并拖动可自由旋转模型。编辑工具中的 Auto Rigging 可自动绑定骨骼,后续可在 Blender 里做动画。风格化选项有原始、乐高、像素化、沃罗诺伊图等,Custom 设置可根据特定软件或用途进行定制,Retopologize 提供不同精度的拓扑网格选项,Format 提供多种模型文件格式,选择“Download”可下载模型,使用“Refine”可进一步精修。 晨然在其 AI 作品《Devices》的创作中,工作流是使用 Blender 制作白模动画,导出深度图、线框图帧序列,使用 ComfyUI 进行风格迥异的渲染。他认为 AI 视频与传统工作流制作视频各有优缺点,不是替代关系。AI 内容生成速度快、成本低但不可控、画面粗糙;传统工作流可控性强但慢、成本高。应让 AI 与传统工作流结合,在随机性中寻找可控性,平衡两者以创造新的艺术创作流程。
2024-10-10
小七姐的提示词课程,双证班、第一期、第二期,内容有何不同,我有必要全部学习吗?
小七姐的提示词课程包括双证班的第一期和第二期,以下是课程内容的介绍: 自由学习时间包含 22 节视频课,授课形式为视频课+知识星球作业+社群答疑。 提示词基础:包括“Hello,大模型”“提示词基础方法”“开始编写你的第一条提示词”“按需求设计和迭代提示词”等课程。 元能力:涵盖“AI+学习能力”“AI+逻辑思维”“AI+表达能力”等课程。 提示词实践:包含“需求分析”“结构框架”“反馈迭代”“结构化提示词”“思维链”等课程。 提示词工具化:包括“工作流”“提示词封装”“GPTs 基础教程”“GPTs 实战案例”等课程。 2024 更新:包括“GPT 新版本指南”“GPTs 基础教程”“GPTs 设置方法”“GPTs 实战案例”“提示词学习综述”“知识库场景”“知识库工具”“知识库有效语句”“知识库方法论”“知识库思维方式”“优秀提示词拆解”“提示词编写常见误区”等内容。 社群答疑:学员有问题可在学习群随时提问,老师和助教会详尽答疑,针对复杂问题,小七姐会录制短视频帮助理解。 对于是否有必要全部学习,取决于您的具体需求和基础。如果您是初学者,建议系统学习以打下扎实基础;如果您已有一定基础,可以根据自身薄弱环节有针对性地选择学习。
2024-10-10
有没有照片生成卡通形象的AI工具
以下为您介绍一些可以将照片生成卡通形象的 AI 工具: Midjourney: 之前有制作过相关的视频教程,教大家从零开始使用并通过简单的提示词生成图片。 利用其以图绘图功能生成迪斯尼卡通风格的头像。具体操作是先选一张满意的照片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,上传文件选取图片并发送(记得点击回车或发送按钮)。然后获取图片链接,加上 prompt 提示词发送给 Midjourney 即可。 出门问问: 这是一家以生成式 AI 和语音交互为核心的人工智能公司,提供面向创作者的 AIGC 工具等。 仅需上传一张照片,输入一段文字或者上传一段音频,就可以生成短视频让“照片开口说话”。不同风格的照片如真人、卡通、有胡须遮挡、有眼镜装饰等都可以驱动尝试。 如果您想用真人照片来生成卡通头像,就用“真人照片”+“照片描述”+“方法 1 的关键词”来处理。在使用过程中如果生成了满意的图,记得存起来,下次同种类型可直接拿来喂图,效果更好。
2024-10-10
AI的历史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但这种方法因从专家提取知识并以计算机可读形式表现的复杂性和高成本,在很多情况下不适用,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 AI 技术的发展历程可概括为: 1. 早期阶段(1950s 1960s):专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括: 1. 大模型:如 GPT、PaLM 等。 2. 多模态 AI:视觉 语言模型如 CLIP、Stable Diffusion 及多模态融合。 3. 自监督学习:自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习:元学习、一次学习、提示学习等。 5. 可解释 AI:模型可解释性、因果推理、符号推理等。 6. 机器人学:强化学习、运动规划、人机交互等。 7. 量子 AI:量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 最初,查尔斯·巴贝奇发明计算机,用于按明确程序运算数字。现代计算机虽先进,但仍遵循相同受控计算理念。但有些任务如“根据照片判断一个人的年龄”无法明确编程,因不知具体步骤,这类任务正是 AI 感兴趣的。
2024-10-10
生图后,人物的模样及服装等统一,用哪一款
在保持人物模样及服装等统一方面,如果使用 Midjourney ,有以下相关信息: 1. Midjourney 有新功能 Cref ,可以先跑一张主角的定妆照,在需要出现主角人物的地方,扔进去 Cref 以保持发型、人脸、衣服。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,比对欧美的人脸的一致性效果差,年轻人的效果相对较好,亚洲老人的效果惨不忍睹。而且 Cref 的效果在画面的审美和构图上有一定的破坏性,所以原则上能不用 Cref 就不用,比如只有背影的时候,写个短发男人黑卫衣就可以。 2. 对于人物一致性,还有两个取巧的方式,一个是生成动物,动物会比较容易保持一致性,另一个方式是特定的名人或有特殊属性的人物。 3. 在使用 Cref 时,您可以在提示词后添加 cref URL 并附上人物图像的 URL ,还可以使用 cw 来修改参考强度,强度 100(cw 100)为默认值,会使用人物的脸、头发和衣服,强度 0(cw 0)时则只关注脸(适合改变服装或发型等)。Cref 不仅适用于 Niji 和普通的 Midjourney 模型,还可以与 sref 结合使用。在网页版 alpha 中,您可以通过拖拽或粘贴图像到想象栏,选择相应图标来设置图像为图像提示、风格参考或人物参考,Shift + 选择一个选项可以将一张图像用于多个类别。
2024-10-10
哪一款AI 好用且好学
以下为一些好用且好学的 AI 推荐: 必应:是获取信息和学习东西的一个不错选择。如果作为搜索引擎使用,在某些情况下(如技术支持、决定吃饭地点或获取建议)可能比谷歌更好,但使用时需注意幻觉风险。免费选项中表现较好,也有付费选项。 Khanmigo:来自可汗学院,由 GPT4 驱动,适合儿童进行人工智能驱动的辅导。 Kimi 智能助手:是 ChatGPT 的国产平替,上手体验好,适合新手入门学习和体验 AI。不用科学上网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,对长文理解表现出色。PC 端可通过下载。 此外,以下人员在工作中使用了不同的多模态 AI 用于特定用途: yangzec:学习多模态 AI 的使用和开发应用 凯叔 AI:插画设计 清墨.SALEX:日常工作 above:批量作图 ehhe:绘画,视频,人像,电商背景图 kone:AI 商业应用 xman:自媒体创作 Alan:绘画和视频处理 在野:视频创作 tang:照片处理等 阿鲁:生产 大大大松树:视频工作流 BigPeng:好玩 冻奶味:工作+娱乐休闲 Lily:视频和电商,写真 tim:能用在生产中 木兰:广告推广素材制作 吴:电商 马化腾:Ai 绘画 蔡徐坤:Ai 视频,Ai 绘画,Ai 音乐 吴林林:爱好,家人做写真 初尘:文生视频,做自媒体 ning:工作流 OTTO:转绘图片
2024-10-10
文本到图像的生成工具
以下是一些常见的文本到图像的生成工具: Stable Diffusion:这是一种强大的文本到图像生成模型,利用了潜在扩散模型、OpenCLIP 编码器、超分辨率放大器等技术。它还可以进行深度引导和结构保留的图像转换和合成,能根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。 Midjourney:可以从文本生成高质量的 2D 图像,在游戏生命周期的多个阶段都有应用。 DallE 2:能够从文本生成高质量的 2D 图像。 PIXARTα:基于 Transformer 的文本到图像生成模型,图像生成质量与当前最先进的图像生成器相媲美。 Shortbread.ai:一键漫画生成平台,可根据文字描述快速转化为完整漫画页面,并提供高度控制面板,能调整场景、角色姿态、表情等。
2024-10-10
图片的前后一致性,如何实现
要实现图片的前后一致性,可以参考以下步骤: 1. 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 2. 确定前后图的构图风格:出第二张图时,描述其内容并在提示词中加入第一张图的构图风格(使用 iw 参数)。需注意,输入 ar、iw 等参数时,要与前面的提示词用空格隔开,否则会报错。例如:“a dog 空格 ar 16:9 空格 iw 1”。将生成的多张图中选择一张图作为垫图,通过右键图片获取其地址。按照格式将提示词、垫图关键词写入。通过微调提示词,得出满意图。 3. 确定图片角色一致性:在得到构图相同后,利用 MJ 重绘功能对画面里的角色重绘。在重绘提示词里输入 cref cw 来保证角色一致性,cref 所垫图还是用之前的图,因为它包含构图和人物两个内容。如果出现黑边,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 由于 MJ 存在不可控因素,如果要保证前后两张图画风、构图等都保持一致,可以按照上述三个确定来处理。需要注意的是,MJ 在重绘时,相较于改变整个画面结构,固定位置重绘局部内容会容易很多。先保证构图再确认角色一致性,就好比美术课画画,把背景风格做好了在固定位置添加内容,比将整个页面内容全部重绘且保证画面主题内容与参考图一样要容易,后者随机性更大。
2024-10-10
stable diffusion
稳定扩散(Stable Diffusion)的运作原理如下: 消除图像中的噪点:如果拍照太暗会产生噪点,而稳定扩散能“清理”图像。它比手机图像编辑器的噪点消除滑块复杂得多,它了解世界的样子和书面语言,并以此指导噪点消除过程。例如,给它一幅以 H.R. Giger 风格描绘的外星人弹吉他的初始图像,它能像熟练的平面艺术家一样进行清理和创作。 推理步骤:稳定扩散是逐步去除噪点的,通过“推理步骤”滑块可以控制。 起始方式:为生成艺术,给稳定扩散提供的初始图像实际上只是纯噪点,然后谎称这是一幅特定风格的画让其清理。从简单层面看,它作为计算机程序会执行任务;从深层次看,它基于统计数据,估计所有选项的概率,即使没有正确答案,每次给不同的纯噪点图像都会创作出不同的作品。 此外,UNET 是从噪音中生成图像的主要组件,在预测过程中通过反复调用 UNET,将其预测输出的 noise slice 从原有的噪声中去除,得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数,以 float32 的精度编码大概需要 3.4G 的存储空间。CLIP 将用户输入的 Prompt 文本转化成 text embedding,UNET 进行迭代降噪,在文本引导下进行多轮预测。稳定扩散最初称为潜在扩散模型,在传统扩散模型中存在计算效率问题,稳定扩散是为解决此问题提出的。ComfyUI 中存放路径为 models/checkpoints/,有 SD 基础预训练模型,如 SD1.5、SDXL 以及微调模型,训练方法有 DreamBooth 等,格式有 EMAonly & pruned 和 Full 两种。
2024-10-10