Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

SD好的模型分享

Answer

以下是为您分享的关于 SD 模型的相关内容:

  • 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 1024*1024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。
  • 在 Depth 深度模型测试中,图形尺寸 664*1024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。
  • 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。
  • 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】来了来了!属于SDXL的ControlNet模型它终于来了!(测评)

首先是canny,它有几个不同的型号,体积越大,速度越慢。我使用的是4080ti的笔记本进行的测试,12G显存。模型sdxl base+refiner提示词:masterpiece,best quality,1girl采样方法:euler a尺寸1024*1024使用diffusers的2.5Gfull模型绘制的图片,一张图花了2分57秒,从这个效率上来看,这个大尺寸基本可以弃了。使用diffusers的320Mb的small模型,用时34s,质量上差距不大,主要是时间优势很明显。我们可以再看看其他作者的,这张是kohya的,用时33秒,更接近真实质感。sai的canny分为128lora和256lora,分别用时39秒和1分08秒,这个模型比较偏绘画的感觉。最后还有一个t2i的canny模型,用时34s,也是偏插画一点。你们觉得哪个效果更好呢?时间上基本都在30秒以上,如果关掉refiner的话,能节省一半左右的时间,平均在17秒左右。#Depth深度接下来测试一些depth模型,图形尺寸664*1024。使用diffusers的full模型,用时2分48秒,sdxl给我随机到了一个拼贴画的风格。使用diffusers的small模型,用时23s。使用kohya模型,用时42秒。这……好像和我的图片没什么关系。使用sai模型,用时1分12秒,画质还可以,稍微有点慢。使用sargezt模型,奇奇怪怪,没什么关系,用时1分52秒。

教程:超详细的Stable Diffusion教程

用stable diffusion可以把自己想象成一个画家在起笔画画之前,我们要先确定我们画的是什么风格的画,是二次元动漫、三次元的现实照片、还是盲盒模型。因此,在我们确定了我们照片风格之后我们就要去切换大模型,不同的模型就代表着不同的照片风格。也就是SD界面左上角的“Stable Diffusion模型”假如现在我想生成一个真人AI小姐姐,就选用chilloutmix的大模型那么问题来了,我们这些模型从哪来呢?下载的模型放在哪里呢?在我分享给大家的链接里面,有部分比较常用的大模型(后续还有比较好的模型也会分享给大家)大家可以根据文件夹名称找到需要的模型。另外,这篇文章的第三部分会跟大家详细介绍去哪里下载模型,模型存放的位置,所以一定要看到最后!

【SD】最强控制插件ControlNet(1)附模型下载

可以看到,这个预处理器提炼出了这个室内的结构线。我们输入关键词:木制、简约、无印良品。点击生成4张图,得到了与原图结构一致的设计图。好了,今天我们介绍了ControlNet中关于线条约束类的预处理器和模型。这些模型文件我也整理好了,如果想要这些模型的话,可以添加我的公众号【白马与少年】,回复【SD】即可。最后附上一张图,可以帮助大家理解ControlNet模型的命名规则,以便能够正确地使用模型。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

Others are asking
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
智能体分享
以下为为您分享的两个智能体相关内容: 旅行青蛙智能体 智能体设计思路: 创意来源于多年前的火爆 APP——旅行青蛙,采用旅行明信片的方式与用户互动,激发用户旅游念头,通过大模型进行诗歌和文案创作,可作自媒体素材。 编排方式:采用单 Agent 的多分支模式,通过意图识别确定用户旅行意图,运行流畅稳定,趣味性高,效果惊艳。 功能结构:基础功能包括时间季节提取、目的地景点提取、旅行日记文案、景点诗句、文生图提示词编写、风格固定、自定义 FLUX 插件,相互关联构成完整旅行体验。 智能体功能实现: 随机目的地的旅行模块:青蛙自主选择目的地旅行,发回明信片。 指定季节和目的地的旅行模块:青蛙根据对应时间和指定地点,发回未来旅行邮件。 互动模块:用户可投喂食物,与青蛙亲密互动。 历史上的今天:用户选择宅家时,青蛙返回历史新闻并绘制相关图片。 小细节:使用获取用户 ID、坐标,避免推荐与用户同一地区景点。 作者:二师兄 体验链接:https://tbox.alipay.com/pro/share/202501APoXpG00196792?platform=WebService 智能体简介:我是您的专属旅行青蛙,热爱探险和发现新事物,等着带您踏上奇妙旅程! 应用场景:目标人群为任何人,解决借用曾经风靡卡通角色制作旅游景点盲盒、绘制打卡照片、提供文案和五言绝句的问题,给人身临其境之感,让人对未去过景点充满期待。 主要功能: 玩法一:对它说“世界很美好,请出去走走”,它就会出发探索并寄回明信片。 玩法二:告诉它未来旅行计划,如“去马尔代夫,我想看大海”,它会提前发来 Email 包含旅行小贴士和期待风景。 玩法三:它旅行时担心它饿肚子说“给它吃汉堡”,它会发来微信照片展示享受美食。 玩法四:今天累了在家休息,它会为您找到历史上今天发生的趣事。 汽车栏目主持人(零壹老师)智能体 创作思路: 前期工作:进行行业资料收集,官方提供资料在智能座舱赛道、营销赛道、售后赛道的丰富程度不同,COZE 的插件生态更有利于座舱和营销赛道,售后资料几乎为零。 赛道研判:竞争强度为营销赛道>智能座舱赛道>售后赛道,考虑插件生态支持、官方资料支撑和行业专业性限制。 市场调研:包括线下领克 4S 门店销售资料索取、懂车帝等网络渠道关键词热搜、车主交流购车养车用车经验。 专家调研:队长罗文人脉资源分享,引荐行业专家。 结论:售后智能体搭建需大量数据支撑,当前售后门店有成熟 SaaS 系统,非行业人士在售后方面智能体很难找到突破口。
2025-03-31
我想找你之前分享过的文档,有关提示词批量处理的
以下是为您整理的有关提示词批量处理的相关内容: 在 Coze 上创建工作流、Bot 中,大模型组件的系统级提示词用于定义模型的角色和任务,与外层用户直接交互的提示词不同。系统级提示词侧重于模型的内部工作机制,外层提示词则更多关注根据用户指令进行编排和响应。通过精心设计这两种提示词,可增强模型对用户指令的处理能力,确保工作流顺畅高效。 在大模型组件中,批处理即迭代处理,可对集合或数组中的每个元素进行批量处理。通过依次遍历集合或数组,每个元素都能经过相同处理流程,关键在于通过有限循环实现高效数据处理。批处理中可设置循环次数和并发量,例如 Coze 的大模型组件最多支持 200 次循环,可通过调整并发量在一次循环中同时处理多个元素以提高处理效率。 在 AI 应用到工作场景中制作单词卡片时,提示词编写包括生成符合要求的单词卡内容并填入 Excel 文件中。通过给出基本示例和附加规则限制,输入多个单词可实现同时解析,虽效果可能因方法论不足而有差异,但大体格式符合要求。批量产出时需上传压缩文件并完成套版,即可获得符合要求的卡片。
2025-03-24
1. 利用AI完成技术论文的学习阅读; 2. 结合相关知识体系解读论文,并制作成学习分享PPT。
以下是关于利用 AI 完成技术论文的学习阅读,并结合相关知识体系解读论文制作学习分享 PPT 的一些建议: 在技术论文学习阅读方面: 可以借助 AI 工具,如 Claude 和 Gamma.app。Claude 能够帮助快速寻找符合条件的论文、提取精炼论文中某部分信息。 对于复杂推理,可以利用思维链,谷歌在 2022 年的论文提到其能显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可在问题后加“请你分步骤思考”。 检索增强生成(RAG)能将外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 程序辅助语言模型(PAL)在 2022 年的论文中被提出,对于语言模型的计算问题,可借助其他工具如 Python 解释器作为计算工具。 ReAct 框架于 2022 年在《React:在语言模型中协同推理与行动》的论文中提出,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,可借助 LangChain 等框架简化构建流程。 在制作学习分享 PPT 方面: 可以先对论文进行深入理解,提取关键信息,包括摘要描述、研究问题、基本假设、实验方法、实验结论、文章主要结论、研究展望等。 利用 AI 工具获取相关理论的简单介绍。 了解并使用合适的 PPT 制作工具,如 Gamma.app。 需要注意的是,小白直接看技术论文有难度,需要一定的知识储备。同时,Transformer 是仿生算法的阶段性实现,未来 10 年、20 年可能不再被使用。
2025-03-24
昨天有什么Ai分享活动
昨天的 AI 分享活动有: 1. AI bot 拟人化大赛的最后一天分享日,五个团队带来精彩分享。冠军团队《》无私分享建构 AI bot 的思路和提示词。相关视频回放: 五个团队的嘉宾分享视频回放:https://www.bilibili.com/video/BV1Kr421M7Cb/ 第一名团队分享的视频回放:https://www.bilibili.com/video/BV1ji421a7zJ/ 投稿作品 2. AI 版权分享课,麦橘教大家用 AI 做小游戏编程的跨界活动,包括: 用 AI 做小游戏编程的活动策划和心得。 使用 Poe 制作小游戏的经验分享。 麦橘谈增量游戏、肉鸽游戏及其制作与 AI 交互。 3. 03 0 基础建站相关分享,包括: 银海老师讲解模型基础、AJ 带大家浏览知识库,大宇老师的建站教程。 未来的课程安排,如明天接触编程,后天 Garmon 老师用 AI 手搓机器人。 AIPO 活动 11 天共学内容,含生图、生视频、模型训练,还有应用搭建课及具身智能机器人课。 线下活动规则,包括组队、物料、角色、资本和奖品等。 以 config UI 为主题的活动,有赞助、线下活动、课程及相关交流等内容。
2025-03-17
我是一个普通本科的大二学生,学的是软件工程专业,但是我本身编程能力不是很好,我对ai拥有浓厚的兴趣,喜欢去学习并运用ai,我想未来all in ai并成为一个产品经理,我想给你分享一下我的计划,我想今年下半年考过英语四级,并且参加苹果26年的swift 学生挑战赛,我是零基础但是我愿意学习,希望你帮我制定一个包含实施策略、里程碑和最佳实践的详细框架,以帮助我有效地实现这些目标!
以下是为您制定的包含实施策略、里程碑和最佳实践的详细框架,以帮助您有效地实现目标: 一、英语四级考试 实施策略: 1. 制定学习计划,每天安排一定时间学习英语,包括词汇、语法、听力、阅读和写作。 2. 多做历年真题,熟悉考试题型和难度。 3. 参加英语学习社群或找学习伙伴,互相监督和鼓励。 里程碑: 1. 每月进行一次模拟考试,评估学习进度。 2. 两个月内完成词汇和语法的系统学习。 最佳实践: 1. 利用碎片时间背单词,如在公交车上、课间等。 2. 听力练习时,反复听同一篇材料,直到完全听懂。 3. 写作练习后请老师或同学帮忙批改,总结错误和不足。 二、参加苹果 26 年的 Swift 学生挑战赛 实施策略: 1. 从零基础开始学习 Swift 编程语言,通过在线课程、书籍等资源进行系统学习。 2. 参与相关的编程实践项目,提升实际操作能力。 3. 关注苹果官方网站和社区,了解挑战赛的最新动态和要求。 里程碑: 1. 三个月内掌握 Swift 编程语言的基础知识。 2. 半年内完成一个小型的 Swift 项目开发。 最佳实践: 1. 遇到问题及时在技术论坛或社区寻求帮助。 2. 定期回顾和总结所学知识,加深理解和记忆。 3. 参考优秀的 Swift 项目案例,学习他人的编程思路和技巧。 三、成为 AI 产品经理 实施策略: 1. 学习 AI 相关的基础知识,包括机器学习、深度学习等。 2. 了解产品经理的职责和工作流程,通过实践项目积累经验。 3. 关注行业动态,参加相关的研讨会和培训课程。 里程碑: 1. 一年内掌握 AI 基础知识和产品经理的基本技能。 2. 参与实际的 AI 项目开发,担任产品经理助理角色。 最佳实践: 1. 多与行业内的专业人士交流,获取经验和建议。 2. 不断提升自己的沟通和协调能力,以更好地推动项目进展。 3. 学会从用户需求出发,设计具有创新性和实用性的 AI 产品。 希望以上框架对您有所帮助,祝您顺利实现目标!
2025-03-01
我有什么方法,能够让ai帮我分析我有几篇飞书文档的内容,然后行程一个分享的提纲
目前让 AI 直接分析您的多篇飞书文档内容并形成分享提纲可能具有一定的挑战。但您可以尝试以下方法: 1. 首先,将飞书文档中的关键内容提取出来,整理成较为清晰的文本格式。 2. 然后,使用具有文本分析能力的 AI 工具,如某些自然语言处理模型,输入整理后的文本,让其帮助您总结主要观点和关键信息。 3. 您还可以向 AI 提供一些关于分享提纲的格式和重点要求的提示,以便它能生成更符合您需求的提纲。 需要注意的是,AI 的分析结果可能需要您进一步的审查和调整,以确保准确性和完整性。
2025-02-24
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14