「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
sd 教程
以下是关于 SD 的一些教程: 1. 用 SD 做二维码: 方法原文地址:https://stablediffusionart.com/qrcode/ 好看的二维码欣赏:第一个就是 qrbtf 最近新出了融合二维码教程 按照以下方法试验出了几个 waytoAGI.com 的二维码 微信的二维码需要转一下 https://cli.im/weixin 最近的一篇帖子展示了一系列使用 Stable Diffusion 创建的艺术二维码。这些二维码是使用模型生成的。 2. 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering 如果希望有景深效果,也可以打开 depth(增加阴影和质感) 打开高清修复,分辨率联系 1024 以上,步数:2960 3. SD 的其他实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-03-04
想学习coze
以下是关于学习 Coze 的相关内容: 制作 Coze 社群机器人的大致流程看似步骤繁多,但实际操作因 Coze 本身的设计和强大的社区力量并不复杂。关键是要“迈出第一步”,在制作过程中能体会到诸多乐趣,如与社区成员设计方案时的深入讨论,在 Coze 平台上灵活组装功能时的高效畅快,以及见证机器人在社区不断“成长”的成就感。未来会有更多社区加入,社群机器人可能不仅是助手,更是凝聚社区智慧的伙伴。目前的社区机器人还有不足,会继续优化以提供更优质服务。 如果对学习 Coze 和 AI Agent 有兴趣,可以加入免费的 AI Agent 共学群,该群组基于 WaytoAGI 社区等高质量信息源,分享 AI Agent 相关的玩法、经验和前沿资讯。可搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学即可被拉入群。 另外,大圣的文章从非编程人士角度讲清楚了 Coze 中数据库的概念和基本使用,未陷入传统教学讲 SQL 语法的模式,而是通过与 Excel 对比让人了解数据库本质概念,以更好利用 ChatGPT 等工具辅助学习。大圣还正在规划关于 AI 时代应具备的编程基础系列,包括数据库、知识库、变量、JSON、API、操作系统与服务器、Docker 等内容。
2025-03-04
克隆声音
以下是关于克隆声音的相关内容: 开源的数字人组合方案中,克隆声音的步骤如下: 1. 先剪出音频,可使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits(https://waytoagi.feishu.cn/wiki/SVyUwotn7itV1wkawZCc7FEEnGg )克隆声音,做出文案的音频。 2. 使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。产品可参考 https://synclabs.so/ 。 在剪映中克隆声音的步骤: 1. 打开剪映,点击左上角菜单——文本,从默认文本开始,在右边文本框输入文字。 2. 输入文字后,点击上面的菜单栏——朗读,会出现克隆音色和文本朗读两个按钮。 3. 克隆音色步骤:点击克隆音色——点击克隆。如果使用电脑版演示,可能会提示未检测到麦克风,手机版则可直接点击下面的按钮开始录制。 4. 文本朗读:直接把输入的文本转换成剪映系统自带的各种成品音色,选择合适的音色,点击开始朗读即可生成。最后别忘了删除输入的文本。 另外还有配音工具 DubbingX 。
2025-03-04
flux 训练lora 教程
以下是关于 Flux 训练 Lora 的教程: 1. 准备模型:需要下载以下几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 4. 0 基础训练大模型: 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以是包含图片 + 标签 txt,也可以只有图片没有打标文件(之后可以在 c 站使用它的自动打标功能),也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,可以预览到数据集的图片以及对应的标签。 步骤二·Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后就可以等待训练了,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 5. ControlNet 作者张吕敏再出新项目 LuminaBrush:基于数据集在 Flux 上训练 LoRA,并用 LoRA 生成的图像来扩展这个图像数据集。使用均匀光照图像作为中间表示具有一些优势,比如避免来自 3D 反照率的过于锐利的网格边界或过于平坦的表面。而这些图像在细节层面也足够细腻,可以处理皮肤纹理、头发、毛发等细节。接下来,通过合成随机法线,将这些均匀光照图像进行随机再光照,以训练一个可以从任何输入图像中提取均匀光照外观的模型。第一阶段的这个模型目前也提供了在线 demo:https://huggingface.co/spaces/lllyasviel/lumina_brush_uniform_lit 。第二阶段,会从数百万张高质量的自然场景图像中提取均匀光照外观图像,以构建成对数据集,用于训练最终的交互式光照绘制模型。
2025-03-04
介绍AI进阶操作
以下是关于 AI 进阶操作的介绍: 在 Obsidian 中使用 AI 工具的进阶配置方法包括: 1. 笔记仓库嵌入大模型(Copilot) 2. 笔记内容作为 RAG 嵌入大模型(Smart Conections) 3. 笔记内使用大模型编写内容 在 Liblibai 中,有以下进阶概念和功能: 1. 迭代步数:调整图片内容的次数,并非越多越好,效果提升非线性。 2. 尺寸:影响图片生成的大小,需适中选择,高清图可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成的图批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:影响图像与 prompt 的匹配程度,过高会使图像质量下降。 6. 随机数种子:固定后可对图片进行“控制变量”操作。 7. ADetailer:面部修复插件,高阶技能。 8. ControlNet:控制图片中特定图像,高阶技能。 9. 重绘幅度:图生图时,幅度越大,输出图与输入图差别越大。 此外,杭州站的 AI 活动聚焦在动手操作上,共分为 5 天进行,被定义为带领大家进阶玩转 AI 的实操落地活动,从学习写 prompt 到生成图片再到分组成立项目,活动形式丰富多样,难度和节奏层层递进。
2025-03-04
关于换脸的AI
以下是关于 AI 换脸的详细介绍: AI 换脸可以通过以下步骤实现: 1. 选择云服务解决方案,如 AutoDL(官网:https://www.autodl.com/home )。注册完成后,在算力市场中选择能接受价格且 GPU 配置较高的算力服务器。 2. 通过模型镜像启动 GPU 服务器:在算法社区查找 facefusion 镜像,选择合适的镜像启动。 3. 启动实例并打开相关工具:点击右下角的创建实例按钮,创建并启动实例。点击快捷工具中顶部的 JupyterLab 打开工具,新打开一个终端窗口,在终端窗口中输入命令执行相关操作。 4. 打开 facefusion 软件:返回实例列表,点击自定义服务按钮,通过新的浏览器窗口访问 facefusion 提供的 UI 界面。 5. 在 facefusion 软件界面上传准备好的图片、视频,在右侧可看到预览效果,点击下方的开始按钮执行换脸处理。 执行完成后,在输出位置会出现处理后的视频,输出窗口右上角有下载按钮可导出视频到本地。 本次 GPU 服务器的使用花费情况: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 有多个 AI 产品可以实现换脸效果,这里介绍的开源、免费的解决方案是 facefusion,其开源地址:https://github.com/facefusion/facefusion 。但本地化安装需要一定编程知识,且对计算机配置有要求,执行速度可能较慢,因此不推荐本地化安装。
2025-03-04
这个网站有学习AI绘画的教程吗
以下是一些学习 AI 绘画的教程资源: 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 从 0 入门 AI 绘画教程: 线上教程: AI 线上绘画教程:
2025-03-04
AI办公
AI 办公领域目前有以下相关内容: 360AI 办公:核心价值主张为每天 6 毛钱,尽享 200+AI 权益,产品能力包括 AI 图片、AI 文档、AI 写作、AI 音视频、AIPPT、AI 翻译、模版大全、办公工具。 在 toB 领域,智能办公产品价值主要体现在办公垂域场景中,比如快速总结群聊内容或会议信息,为写公文提供结构模板参考等。
2025-03-04
如果我想基于一条视频的视频风格,结合我自己的视频内容创作需求,生成一条新的demo视频,怎么使用AI更加高效和达到我想要的效果?
要基于一条视频的风格结合自己的需求生成新的 demo 视频,您可以参考以下步骤,更高效地达到想要的效果: 1. 准备内容 先准备一段视频中播放的内容文字,比如产品介绍、课程讲解、游戏攻略等。您也可以利用 AI 来生成这段文字。 2. 制作视频 使用剪映 App 进行简单处理。电脑端打开剪映 App,点击“开始创作”。 选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道。 在界面右侧将准备好的文字内容替换默认文本内容,这将为数字人提供语音播放的内容以及生成与文字内容相对应的口型。 另外,如果您想用 AI 把小说做成视频,可以按照以下流程: 1. 小说内容分析 使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述 根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成 使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作 将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作 利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成 使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理 对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整 观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享 完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-04
怎么用飞书搭建一个人工智能知识库
以下是使用飞书搭建人工智能知识库的相关内容: 1. 参考文章: 《这可能是讲 Coze 的知识库最通俗易懂的文章了》:介绍了一系列关于 AI 知识库的知识,包括“通往 AGI 之路”这个使用飞书软件搭建的 AI 知识库,以及相关文章对 AI 时代知识库的讲解,读完可收获 AI 时代知识库的概念、实现原理、能力边界等内容。 《【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档》:其中提到创建知识库时可使用手动清洗数据,包括在线知识库和本地文档的处理方式,如在线知识库需创建飞书在线文档,每个问题和答案以“”分割等;还介绍了发布应用时要确保在 Bot 商店中能搜到。 《「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人》:提到创建知识库的路径为个人空间知识库创建知识库,文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用本地文档,可按照操作指引上传文档、分段设置、确认数据处理,同时提到知识库内容切分粒度的小技巧,如使用特殊分割符“”。 2. 总体步骤: 确定所需的数据清洗方式,如手动或自动清洗。 对于在线知识库,创建飞书在线文档,每个问题和答案以特定方式分割,选择飞书文档、自定义等选项,并可编辑修改和删除。 对于本地文档,注意拆分内容以提高训练数据准确度,按照固定方式进行人工标注和处理。 完成创建后可发布应用,确保在 Bot 商店中能搜到。
2025-03-04