Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

flux-dev提示词

Answer

以下是关于 ComfyUI Flux-dev 提示词的相关信息:

  • Redux 模型:是轻量级模型,可与 Flux.1[Dev]和 Flux.1[Schnell]配合使用,基于 1 个输入图像生成图像变体,无需提示,适合快速生成特定样式的图像。若要往一张图上融合,提示词最好描述图片的背景颜色。将 Redux 模型下载到 comfyui/models/style_models,下载 sigclip_patch14-384.safetensors 到 ComfyUI/models/clip_vision。重绘节点可使用 ComfyUI-InpaintEasy,链接为 https://github.com/CY-CHENYUE/ComfyUI-InpaintEasy。
  • 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成以提高效率,采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux)和图像放大和细化(SDXL),各阶段涉及不同的模型加载、处理和预览步骤。
  • 模型的安装部署:FLUX.1[dev]、FLUX.1[dev fp8]、FLUX.1[schnell]中建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹。若爆显存,可在“UNET 加载器”节点中的 weight_dtype 设置为 fp8 降低显存使用量,但可能稍降质量。t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/文件夹,可使用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率,超过 32GB 内存建议使用 fp16。Vae 下载后放入 ComfyUI/models/vae 文件夹。T5(/t5xxl_fp16.safetensors)的 clip 原本有输入输出,可能导致提示词被吞,短提示效果差,训练 flux 或 sd3 时应尽量用长提示词或自然语言。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI Flux redux

Redux模型是一个轻量级模型,可与Flux.1[Dev]和Flux.1[Schnell]配合使用,以基于1个输入图像生成图像变体,无需提示。它非常适合快速生成特定样式的图像。[heading3]移除背景[heading3]关于提示词[content]这里需要注意的是,如果要往一张图上融合,提示词最好描述下图片的背景颜色。[heading3]Redux模型位置[content]将Redux模型下载到comfyui/models/style_models下载sigclip_patch14-384.safetensors到ComfyUI/models/clip_vision[heading3]重绘节点[content]ComfyUI-InpaintEasyhttps://github.com/CY-CHENYUE/ComfyUI-InpaintEasy[heading3]工作流

ComfyUI FLUX低显存运行

这个方法的目的是让FLUX模型能在较低的显存情况下也能运行.分阶段处理的思路:1.使用Flux模型进行初始生成,在较低分辨率下工作以提高效率2.采用两阶段处理:先用Flux生成,后用SDXL放大,效控制显存的使用3.使用SD放大提升图片质量工作流的流程:初始图像生成(Flux):UNETLoader:加载flux1-dev.sft模型DualCLIPLoader:加载t5xxl和clip_l模型VAELoader:加载flux-ae.sftCLIPTextEncode:处理输入提示词BasicGuider和RandomNoise:生成初始噪声和引导SamplerCustomAdvanced:使用Flux模型生成初始图像VAEDecode:解码生成的潜在图像初始图像预览:PreviewImage:显示Flux生成的初始图像图像放大和细化(SDXL):CheckpointLoaderSimple:加载SDXL模型(fenrisxl_SDXLLightning.safetensors)UpscaleModelLoader:加载RealESRGAN_x4.pth用于放大VAELoader:加载sdxl_vae.safetensorsImageSharpen:对初始图像进行锐化处理UltimateSDUpscale:使用SDXL模型和放大模型进行最终的放大和细化最终图像预览:PreviewImage:显示最终放大和细化后的图像

ComfyUI FLUX

FLUX.1[dev]FLUX.1[dev fp8]FLUX.1[schnell],选一个.建议选择dev版本的,显卡可以的用fp16,显卡不够用的选fp8.模型下载后,放入,这个文件应该放在你的:ComfyUI/models/unet/文件夹中。如果爆显存了,“UNET加载器”节点中的weight_dtype可以控制模型中权重使用的数据类型,设置为fp8,这将使显存使用量降低一半,但可能会稍微降低质量.默认下的weight_type,显存使用比较大.[heading4]clip[content]t5xxl_fp16.safetensors和clip_l.safetensors,放在ComfyUI/models/clip/文件夹里面.https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main可以使用t5xxl_fp8_e4m3fn.safetensors来降低内存使用率,但是如果你有超过32GB内存,建议使用fp16[heading4]Vae[content]下载后,放入ComfyUI/models/vae文件夹https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main[heading3][heading3]T5(/t5xxl_fp16.safetensors)的这个clip,[content]原本是有一个输入输出的。就是有一半是应该空着的。会导致提示词被吞的情况,就是可能会有一半的提示词被吞掉了。所以短提示的效果会比较差。我们在训练flux或者sd3时候,应该尽量的去用长提示词或者自然语言。不要用短提示词。因为T5自带了50%的删标。

Others are asking
如何快速上手Cursor、Windsurf、V0.dev、bolt.new、Devin等AI编程产品的经验,能快速转型为AI产品经理?
以下是关于快速上手 Cursor、Windsurf、V0.dev、bolt.new、Devin 等 AI 编程产品并转型为 AI 产品经理的一些经验: 1. 深入理解用户场景和 AI 能力边界:要构建差异化的 AI Native 体验,需要同时对 AI 能力边界和用户场景有深入洞察。 2. 持续迭代产品:在快速变化的模型能力下,避免在每次的基座模型迭代中掉队或被淘汰。 3. 构建良好的模型产品化能力和基础设施:使得应用可以持续收集用户数据以迭代模型。 对于具体的产品: Cursor: 允许用自然语言描述需求,对上下文有深度理解能力,能理解整个项目的结构和依赖关系,进行跨文件的语义分析。 提供智能的代码重构建议,自动诊断和修复常见错误,基于代码自动生成文档。 但要注意,即使有 AI 辅助,当好产品经理也不容易,需要反复沟通和调整。 Devin:作为 2024 年横空出世的产品,预示着软件开发范式的根本转变。 Windsurf、V0.dev、bolt.new 等: 可以使用如 Cursor Composer 构建产品、使用 Bolt.new 构建产品、使用 V0.dev 生成组件等。 此外,国内知名的 AI 全栈开发者 @idoubi 分享了相关使用经验,包括自动补全代码、Debug&&Fix Error、实时对话&&联网搜索、写提示词、写前端页面、截图生成组件、写常用的代码逻辑/函数、代码重构、多语言翻译等方面。同时,对于零代码基础的人员,也有使用相关工具实现想法的方法,如使用 Cursor Composer、Bolt.new、Claude 等构建不同类型的应用。还可以盘点常用的 AI 辅助编程工具和使用场景,如 AI 编辑器(Cursor、Windsurf、Pear Al 等)、编辑器 AI 扩展(Github Copilot、Continue、Cline 等)、UI 组件生成工具(Cursor、V0.dev、Claude、screenshottocode 等)、完整项目构建工具(Cursor、Bolt.new、Replit Agent、Wordware 等)。
2025-04-10
AI在BizDevOps中的场景落地及应用
以下是关于 AI 在 BizDevOps 中的场景落地及应用的相关内容: AI 在 DevOps 中的应用: AI 可以承担指定计划、拆分任务和调用工具的角色,但目前无法完全评定任务结果的正确性和质量。 现阶段更适合让 AI 辅助完成部分任务,如画原型图、设计表结构、写自动化测试代码等,但需要人类验证后才能进行下一步操作。 完全依赖 AI 可能带来风险,如生产环境出错或被黑客恶意利用漏洞。 AI 的记忆能力: ChatGPT 支持记忆功能,可通过摘要保存对话内容以延续角色和对话风格,但新开会话可能在高推理任务中效果更好。 建议将角色设定和部分对话作为样例(fewshot)放入提示词中,以优化生成质量。 学习 GPT 的妙招: 结合视频教程、文字转录和基础资料,通过 ChatGPT 讲解学习内容。 角色反转,自己当老师,ChatGPT 当学生,通过提问互动和查漏补缺能有效提升学习效果。 AI 对软件工程的影响: 涵盖自动代码生成、智能调试、AI 驱动的 DevOps 和敏捷开发优化。 自动代码生成工具(如 GitHub Copilot)提高编程效率,AI 也助力智能测试与运维。 DevOps 迎来 AI 驱动的 CI/CD 和 AIOps,提升部署自动化和智能监控能力。 AI 让敏捷开发更加高效,通过自动化需求分析、测试优化和团队协作增强生产力。 其他相关动态: OpenAI CEO 宣布开发 AI 设备,目标颠覆智能手机。 OpenAI 推出全新 Deep Research,让 ChatGPT 成为研究助理。
2025-04-01
ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUI-aki(1)\ComfyUI-aki-v1.6\ComfyUI\models\checkpoints\flux1-dev-fp8.safetensors
很抱歉,根据您提供的错误信息“ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUIaki\ComfyUIakiv1.6\ComfyUI\models\checkpoints\flux1devfp8.safetensors”,暂时无法明确具体的问题原因。可能是模型文件格式不被识别,或者文件路径存在错误等。建议您检查文件的完整性和正确性,确保其符合相关软件的要求。
2025-03-07
claude 和 curse 和devin 这些智能编程工具介绍
以下是对一些智能编程工具的介绍: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议,提高编程效率。 2. 通义灵码:阿里巴巴团队推出,具备行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成等多种能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,可为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费编程助手,基于 130 亿参数的预训练大模型,能快速生成代码。 5. Cody:代码搜索平台 Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手,基于自研基础大模型微调的代码大模型。 7. Codeium:由 AI 驱动的编程助手工具,通过提供代码建议、重构提示和代码解释来帮助软件开发人员。 此外,还有以下相关工具: Cursor:在多个编程场景中都有应用,如编辑器、完整项目构建等。 Devin:具有用 LLM 对大量文本做批量处理的能力,在理解图像和数据抓取方面有独特优势。 Claude:在多种开发和写作场景中都能发挥作用,如 API 与开发场景、写作、Chat 等。 每个工具的功能和适用场景有所不同,您可以根据自身需求选择最适合的工具。更多辅助编程 AI 产品,还可以查看:https://www.waytoagi.com/category/65
2025-02-11
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
自定义采样器(高级) Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu!(when checking argument for argument mat2 in method wrapper_CUDA_mm)
以下是关于“自定义采样器(高级)”中“Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu!(when checking argument for argument mat2 in method wrapper\_CUDA\_mm)”错误的解决办法: 错误原因:Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu! 对应插件地址:https://github.com/sipie800/ComfyUIPuLIDFluxEnhanced 资料链接: 百度网盘:通过网盘分享的文件:ComfyUI_PuLID_Flux_ll 链接:https://pan.baidu.com/s/1dMLAb4s0vroO9Zk6ecKb7Q?pwd=cycy 提取码:cycy 来自百度网盘超级会员 v5 的分享 说明文档:https://www.xiaobot.net/post/b98d55699a754b9baac242a3e285be94 由于 AI 技术更新迭代,请以文档更新为准 更多内容收录在:https://xiaobot.net/p/GoToComfyUI 网盘:https://pan.quark.cn/s/129886bbcc61 相关链接: ComfyUI_PuLID_Flux_ll :https://github.com/lldacing/ComfyUI_PuLID_Flux_ll?tab=readmeovfile guozinan/PuLID 模型:https://huggingface.co/guozinan/PuLID/tree/main
2025-02-03
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
我现在是学了一段时间的comfyui+flux,接下来准备学Python开发comfyui节点、对接模型,这样学下去方向有没有问题呢
您学习 ComfyUI 和 Flux 一段时间后准备学习 Python 开发 ComfyUI 节点并对接模型,这个方向是可行的。以下是一些相关的知识和要点供您参考: 工作流方面: 工作流节点可直接拖动单个节点到任意位置,也可按住 Control 键并用鼠标左键滑框选中多个节点,再按 Shift 键一起拖动。 选中节点后右键新建组,可修改组名、颜色等,组被覆盖时可直接拖动组。 选中节点后右键选择对齐方式,如顶部对齐、左边对齐等。 第三方节点的安装方式包括在 customer NODE manager 中安装、在 GitHub 上复制链接安装、通过终端输入指令安装、在秋叶启动器的版本管理中安装。 可通过 group by Parser 节点控制组,也可通过按住节点按 control b 跳过或按 control m 终止执行。 模型方面: 噪声强度由种子调节,种子固定噪声分布方式,噪声与 CLIP 无关,增大噪声设置值会增强模型对图片重绘的程度。 模型版本的提示词差异:1.5 以 tag 为主,XL 论文称以自然语言为主,但实际使用中因模型微调情况可能仍需用 tag。 Flux 模型有时生成黑图,可能有修复方案,需自行查询。图像生成结果为空,可能是 VAE 编码器与大模型未连接,调整连接后问题解决。 安装方面: 自动打标 joy_caption 副本的节点安装地址为 D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes。 安装步骤包括:(Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat,注意 transformers 版本不能太低。 下载模型或者运行 ComfyUI 自动下载模型到合适文件夹,如从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 新版的 PuLID 解决了模型污染的问题,使用新版的节点需要禁用或者删除之前的 PuLID 节点,不然可能会有冲突问题。模型放在 ComfyUI\\models\\pulid 文件夹里面,注意用新版的。 如果使用 PuLID,还需要安装 EVA CLIP 等模型。
2025-03-21
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置随意,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程,完成后提示是否下载 hunyuan 模型,选择 n 不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,选择上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入。 5. 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数。若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 6. 按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择 Lora 和调节参数。
2025-03-15
flux ae.sft放在哪个文件夹
在 ComfyUI 中,flux ae.sft 应放在 ComfyUI/models/vae/ 文件夹下。 Flux 模型在 ComfyUI 中的使用,需要将相关模型放在对应的目录下。具体来说,t5xxl_fp16.safetensors 放在 ComfyUI/models/clip/ 目录下,clip_l.safetensors 放在 ComfyUI/models/clip/ 目录下,ae.safetensors 放在 ComfyUI/models/vae/ 目录下,flux1dev.safetensors 放在 ComfyUI/models/unet/ 目录下。flux1dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
2025-03-07
midjourney_whisper_flux_lora_v01
以下是关于您提到的“midjourney_whisper_flux_lora_v01”的相关信息: 1. XLabsAI 发布了 6 个不同的 Lora,包括 Midjourney 风格、写实风格、动漫风格、迪斯尼风格、风景风格等,并提供了相应示例。 2. 文生图模型排序(从高到低):Imagen 3 真实感满分,指令遵从强;Recraft 真实感强,风格泛化很好,指令遵从较好(会受风格影响);Midjourney 风格化强,艺术感在线,但会失真,指令遵从较差;快手可图 影视场景能用,风格化较差;Flux.1.1 真实感强,需要搭配 Lora 使用;文生图大模型 V2.1L(美感版) 影视感强,但会有点油腻,细节不够,容易糊脸;Luma 影视感强,但风格单一,糊;美图奇想 5.0 AI 油腻感重;腾讯混元 AI 油腻感重,影视感弱,空间结构不准;SD 3.5 Large 崩。 3. 指定 AI 生图里的文字,有 9 种解决方案,其中 2 种快过时了。包括 Midjourney(v6 版本开始支持文字效果,主要支持英文,中文支持有限)、Ideogram(以图片嵌入文字能力闻名,2.0 模型能力得到进一步加强,支持复杂文本和多种艺术风格,文字与图像能够自然融合,支持英文,中文提示词可自动翻译为英文)、Recraft(V3 开始支持文本渲染能力,是目前唯一能在图像中生成长文本的模型,支持精确的文本位置控制,支持图像编辑功能,支持矢量图生成,支持英文,中文渲染能力较弱)、Flux(FLUX.1 是一款高质量的开源图像生成模型,支持复杂指令,支持文本渲染,支持图像编辑,生成图像的质量很高,主要支持英文)。
2025-03-07
生成提示词的提示词
以下是关于生成提示词的相关内容: 生成提示词的思路和方法: 可以根据效果好的图片中的高频提示词去反推效果,结合不同字体效果的描述,打包到一组提示词中。提示词给到 AI 后,AI 会根据给定文字的文义,判断适合的情绪风格,然后给出适合情绪的字体和风格描述、情感氛围等,加上一些质量/品质词,形成输出提示词结构。为了让 AI 更能描述清晰风格,可以先给定多种参照举例。 具体操作步骤: 打开 AI 工具的对话框,将相关提示词完整复制粘贴到对话框。推荐使用 ChatGPT 4o。 当 AI 回复后,发送您想要设计的文字。可以仅发送想要的文字,也可以发送图片(适合有多模态的 AI)让 AI 识别和反推。 将 AI 回复的提示词部分的内容复制到即梦 AI。 对生成提示词的一些观点: 提示词生成提示词并非必要,不一定能生成最好的 Prompt 框架,修改过程可能耗时且不一定能修改好,不如花钱找人写。 一句话生成完整符合需求的 Prompt 非常困难,只能大概给出框架和构思,需要更低成本地调整需求和修改 Prompt。 不同生图工具生成提示词的特点: 即使是简短的描述,生成的提示词也非常细节、专业。 会解析需求,找出核心要点和潜在的诠释点,并给出不同的提示词方案。 提示词构建更多在于增强,而不是发散,生成的内容更符合期望。 同时生成中、英双版本,国内外工具通用无压力。 14 款 AI 生图工具实测对比: 本次实测用到的工具包括国内版的即梦 3.0(https://jimeng.jianying.com/aitool/home)、WHEE(https://www.whee.com)、豆包(https://www.doubao.com/chat)、可灵(https://app.klingai.com/cn/texttoimage/new)、通义万相(https://tongyi.aliyun.com/wanxiang/creation)、星流(https://www.xingliu.art)、LibiblibAI(https://www.liblib.art),以及国外版的相关工具。
2025-04-20
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
调教ai的利器,提示词工程
提示词工程是调教 AI 的重要手段,以下是关于提示词工程的相关知识: 作用:避免 AI 掉入“幻觉”陷阱,引导 AI 生成更可靠的内容。 原理:AI 对提示词的理解能力与幻觉的产生密切相关,清晰、具体的提示词能帮助其更好地理解意图,减少错误。 技巧: 明确要求 AI 引用可靠来源,如在询问历史事件时要求引用权威文献,询问科学事实时要求引用科研论文,询问法律条款时要求引用官方文件。 要求 AI 提供详细的推理过程,如询问数学公式时展示推导过程,询问代码功能时逐行解释含义。 明确限制 AI 的生成范围,如询问名人名言时指定名人姓名和相关主题,询问新闻事件时指定时间范围和关键词。 通过这些清晰、具体、有针对性的提示词技巧,可以引导 AI 生成更准确和可靠的内容。但提示词工程只是辅助手段,从根本上解决 AI 幻觉问题还需从数据、模型、训练方法等多方面努力。 提示词工程就像与博学但有点固执的老教授交流,精心设计输入文本能引导 AI 更好地理解需求并给出更准确有用的回答。比如,问“请用简单的语言,为一个 10 岁的小朋友解释什么是人工智能,并举一个生活中的例子”,AI 更可能给出通俗易懂的解释。 在使用 AI 工具的过程中,可能会出现答非所问、回答格式不标准等问题,为让 AI 更好地服务,需要学习提示词工程。当用户的需求接近 AI 真实范围时,可通过写提示词甚至创建 BOT 来优化使用效果。
2025-04-15
提示词
提示词是让 AI 听懂您的需求并生成想要画面的关键。 基础公式(新手必学):景别+运镜+主体+动作+风格。示例:特写镜头|镜头旋转|发光水晶球悬浮|星尘特效|赛博朋克风格。 进阶公式(提升质感):景别+运镜+主体(细节)+动作(速率)+场景(层次)+氛围+光影。示例:全景俯拍|无人机跟拍|雪山湖泊(镜面倒影)|慢动作|冷色调光线|自然纪录片风格。 在星流一站式 AI 设计工具中,prompt 输入框可输入提示词,使用图生图功能辅助创作。 提示词用于描绘您想生成的画面,支持中英文输入。不同模型对输入语言有不同要求,如通用大模型与基础模型 F.1、基础模型 XL 使用自然语言,基础模型 1.5 使用单个词组。 写好提示词要做到: 1. 内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 2. 调整负面提示词,点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 3. 利用“加权重”功能,让 AI 明白重点内容,可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。还可对已有的提示词权重进行编辑。 4. 借助辅助功能,如翻译功能可一键将提示词翻译成英文,还有删除所有提示词、会员加速等功能。 如果您接触过大量提示工程相关的示例和应用,会注意到提示词由一些要素组成,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。但提示词所需的格式取决于想要语言模型完成的任务类型,并非所有要素都是必须的。
2025-04-15
如何成为提示词工程师
提示词工程师是在与人工智能模型交互时,负责设计和优化提示的专业人员,旨在通过精心构造的提示引导模型产生准确、有用和相关的回答。 其主要职责包括: 1. 设计提示:根据用户需求和模型能力设计有效的提示,考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图并引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式不断优化提示,提高模型性能。 3. 评估提示:使用各种指标如模型的准确率、流畅度和相关性等来评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对所工作的领域有深入了解,以便设计出有效的提示。 2. 自然语言处理(NLP):了解 NLP 的基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 的基本原理和技术,以便理解和使用 AI 模型。 4. 沟通能力:具备良好的沟通能力,与用户、团队成员和其他利益相关者有效沟通。 以下是一些提示词工程师工作的实际案例,比如在市场营销类和商业类中,有自动优化 Prompt 的案例,如 JackeyLiu 熟悉的转化步骤包括: 1. 角色和能力:基于问题思考 chatGPT 最适合扮演的角色,应是该领域最资深的专家,适合解决问题。 2. 上下文说明:思考提出问题的原因、背景和上下文。 3. 任务陈述:基于问题进行陈述。 提示词工程师是一个新兴职业,随着人工智能技术的不断发展,对其需求将会越来越大。
2025-04-15