直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

OpenArt的ComfyUI怎么打开

回答

要打开 OpenArt 的 ComfyUI,您可以按照以下步骤进行操作:

  1. 准备相关模型和工作流:
    • t5xxl_fp16.safetensors 和 clip_l.safetensors 下载地址:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main 。t5xxl 分为 fp16 和 fp8,如果内存超过 32GB,用 fp16 的,没超过则用 fp8 的。
    • ae.safetensors 和 flux1-dev.safetensors 下载地址:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main 。
    • 准备好 dev 的工作流:file:dev 的官方原版 workflow.json ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将图片导入 ComfyUI 就是工作流。
    • 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main 。
    • 相关模型的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ;百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h 提取码:ub9h 。
  2. 打开 ComfyUI,把准备好的工作流或图片拖拽到 ComfyUI 里。
  3. 在处理模型连接时,如果将 refiner 的模型连上提示词导致第一个 base 模型的链接断开,可以通过以下方式解决:加入一个新节点,右键点击 -【新建节点】-【实用工具】-【Primitive 元节点】。这个节点连接谁,就会变成谁的属性。在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上会多一个文本的连接点。将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,负向提示词框也可用元节点代替。再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。最后,能输出两个图像节点,第一个链接 base 模型的 vae,设置为预览图像;第二个链接一个 VAE 加载器的节点,加载 sdxl 自带的 vae,设置为保存图像,即最终输出的图像。设置好两个模型和提示词,点击生成。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【ComfyUI】使用ComfyUI玩SDXL的正确打开方式

[title]【ComfyUI】使用ComfyUI玩SDXL的正确打开方式但是,现在问题来了。如果我将refiner的模型连上提示词的话,第一个base模型的链接就会断开,怎么样才能让两个模型同时起作用呢?我们来加入一个新节点,右键点击-【新建节点】-【实用工具】-【Primitive元节点】。这个节点很有意思,它连接谁,就会变成谁的属性。在文本节点上单击右键,选择【转换文本为输入】。此时,文本节点上就多了一个文本的连接点。将元节点与文本节点相连接,这时元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。再复制出一套正负提示词节点,一套给base模型,一套给refiner模型。然后,base模型的那一套输出给第一个采样器节点,refiner模型的那一套输出给第二个采样器节点。最后,我们能可以输出两个图像节点,第一个链接base模型的vae,可以设置为预览图像;第二个链接一个VAE加载器的节点,加载sdxl自带的vae,设置为保存图像,也就是我们最终输出的图像。使用这个工作流我们来跑一张sdxl模型的图片,设置好两个模型和提示词,点击生成。

工具教程:Flux

https://huggingface.co/comfyanonymous/flux_text_encoders/tree/maint5xxl分为fp16和fp8,如果你内存超过32GB,那就用fp16的,如果没超过,那就用fp8的。[heading4]ae.safetensors和flux1-dev.safetensors下载地址:[content]https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main我随后也准备一下百度网盘和夸克网盘。更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608bflux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h提取码:ub9h如果GPU性能不足、显存不够,底模可以使用fp8的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main最后我们再下载dev的工作流:file:dev的官方原版workflow.json上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png我们打开ComfyUI,把工作流或图片拖拽到ComfyUI里:

工具教程:Flux

https://huggingface.co/comfyanonymous/flux_text_encoders/tree/maint5xxl分为fp16和fp8,如果你内存超过32GB,那就用fp16的,如果没超过,那就用fp8的。[heading4]ae.safetensors和flux1-dev.safetensors下载地址:[content]https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main我随后也准备一下百度网盘和夸克网盘。更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608bflux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h提取码:ub9h如果GPU性能不足、显存不够,底模可以使用fp8的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main最后我们再下载dev的工作流:file:dev的官方原版workflow.json上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png我们打开ComfyUI,把工作流或图片拖拽到ComfyUI里:

其他人在问
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
ai每次使用都要打开一个新对话吗,日常怎么管理ai的对话,让内容不凌乱
在使用 AI 时,开启新对话在大部分情况下几乎是必然的。为了让新对话中的内容尽量准确还原之前的风格,您可以采取以下方式来管理对话,避免内容凌乱: 1. 让 AI 总结当前的美学风格,并记录下来。这可以是一段文字,也可以同时生成一个 CSS 样式并保存。例如记录颜色、布局、字体等方面的信息。 2. 在多次会话中完成一个项目时,保持代码风格和架构的一致性是一个挑战。这可能需要定期回顾和总结已完成的部分,为 AI 提供清晰的编码指南,并在每次新会话开始时重申项目的整体结构。 3. 与 AI 沟通时,要像管理员工一样,前期投入精力清晰简洁地描述具体要求。例如在生成 PPT 样式时,尽量在 5 次对话内得到理想模板,若超过 5 次效果仍差很远,可考虑清除上下文或重新开启新对话。 4. 对于生成的 PPT 模板风格,您可以选择让 AI 记住直接进入下一阶段,或者让其抽象成一种它能理解的风格。前者速度快,适用于临时出几页 PPT;后者能在一定程度上保证风格的精确性,但在单次对话下多次生成对 token 的消耗较大。
2025-03-26
星流一站式 AI 设计工具的打开方式
星流一站式 AI 设计工具的打开方式如下: 无限画布: 图像分享与信息查看: 图像信息查看:滑动鼠标到图像上,点击信息查看按钮后弹出生成信息。 图像分享:点击图像右上角的分享标志可生成分享链接与发送到 LiblibAI。发布到 Liblib 时,需输入与内容匹配的图片标题,选择现有活动标签或自定义个性化标签,提供对图片的详细解释或创作理念。 右键功能: 画布空白区域右键: 放大:点击一次,视图放大较小的比例。 缩小:点击一次,视图缩小较小的比例。 显示画布所有图像:扩大视图直到包含全部图片。 图像上右键: 移动至顶层/移动至底层:调整当前图像层级别,层级高的会覆盖层级低的图像。 复制:复制当前图像。按住键盘快捷键 ctrl/command+V 可以在无限画布中直接粘贴一张图像,也可以粘贴到星流网站外的其他界面中。 复制链接:复制图像的链接,点击链接可查看与调取图像信息。 框选多张图像后右键: 创建组(成功创建后左上角有 Group 字样):创建组后,拖动任意图像位置,整个组的图像都会移动;点击组内图像后,可拖动单一图片。 选中组后右键: 合并为图片(左上角为 Merged Image 标志):将组内所有图片(包括空白区域)合并为一张图片。 下方 prompt 输入框: 图生图: 作用:允许用户上传一张图像,并基于该图像生成新的视觉内容。 使用方法: 应用图生图:在 prompt 输入框下,点击“图生图”上传本地文件;在无限画布中下,图片功能区进行选择。 调整“图生图”功能区参数:参考程度分为更像原图(小幅度修改基底图像,有限的增加元素)、更创意(大幅度修改基底图像,可搭配增强模型加入更多的元素)、自定义(可自定义修改重绘幅度);增加参考纬度(点击添加按钮,会自动的应用并打开“生成器”的图片参考功能);替换图像(鼠标滑动到图像,点击“选择参考图”即可重新选择图片);转换提示词(反推参考图信息填入进提示词框中);同步生图尺寸(同步参考图尺寸到“生成器”的生图尺寸中)。 顶部图像编辑工具: 基础工具: 选择(V):可以选中画布上的图片并移动图片。 平移画布:可以移动画布,但是无法选中图片。 上传图片:上传图片到画布。上传大于 20482048 的图片到画布,将会自动压缩到 20482048 以内。也可以直接拖动图像到画布进行上传图片操作。图像选中:左键点击图像进行选中,才能使用图像智能工具。 帮助专区: 教程板块:跳转到星流的详细的图文教程板块。 快速导览:对各个区域逐步进行高亮并进行解释。
2025-03-10
帮我找出现在成熟的人工智能大模型,列举他们的功能,附上打开链接
以下是一些成熟的人工智能大模型及其功能和链接: 百度(文心一言):https://wenxin.baidu.com 。 抖音(云雀大模型):https://www.doubao.com 。 智谱 AI(GLM 大模型):https://chatglm.cn 。 中科院(紫东太初大模型):https://xihe.mindspore.cn 。 百川智能(百川大模型):https://www.baichuanai.com/ 。 商汤(日日新大模型):https://www.sensetime.com/ 。 MiniMax(ABAB 大模型):https://api.minimax.chat 。 上海人工智能实验室(书生通用大模型):https://internai.org.cn 。 在这些大模型中: 能生成 Markdown 格式的:智谱清言、商量 Sensechat、MiniMax 。 目前不能进行自然语言交流的:昇思、书生 。 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) 。 特色功能:昇思——生图,MiniMax——语音合成 。 此外,还有其他一些大模型: OpenAI 系统:包括 3.5 和 4.0 版本,一个新的变种使用插件连接到互联网和其他应用程序。Code Interpreter 是一个非常强大的 ChatGPT 版本,可以运行 Python 程序。如果未为 OpenAI 付费,只能使用 3.5 。除了插件变种和一个暂时停用的带有浏览功能的 GPT4 版本之外,这些模型都没有连接到互联网。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型,例如可以创建和查看图像,且可以在网页浏览器中阅读文档,并连接到互联网。 谷歌:一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是一个名叫 PaLM 2 的模型。 Anthropic:发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口,本质上是 LLM 的记忆。Claude 几乎可以保存一整本书或许多 PDF,与其他大型语言模型相比,它不太可能恶意行事。
2025-03-03
PixVerse V2怎么打开
要打开 PixVerse V2,您可以在 Home 页面或直接点击 PixVerse V2。 PixVerse V2 的使用包括以下方面: 单个视频生成(8s):8 秒的视频生成需要花费 30Credits,5 秒的视频生成需要花费 15Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 输入提示词和上传图片:PixVerse V2 支持文生和图生视频,如无图片上传,可忽略此步骤。 选择视频时长:PixVerse V2 支持 5 秒和 8 秒的视频生成,选择后,每个 Scene 的时长都会保持这个长度。 添加新片段: 添加 Scene 2:点击“Scene 1”旁边的“+”,为视频添加第二个片段。 编辑 Scene 2:在 Scene 2 中,您可以为 Scene2 输入不同于 Scene 1 的提示词,其它操作与之前相同。 编辑其它 Scene:重复以上步骤,您可以为视频添加多个 Scene,最多支持 5 个 Scene 的同时生成。 生成视频:点击图标,生成视频。该模式下,每次生成需要花费 30Credits,且默认将所有片段拼接在一起,不支持单片段下载。 编辑生成的视频:点击视频进入编辑页面。 编辑视频:视频下方分别为:角色,环境,动作。如生成的视频不满意,您可从相应的下拉选项中选择想要的效果。 编辑多个 Scene:上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。 生成视频:对所有 Scene 编辑完成后,点击“Create”,可重新生成视频。未修改的 Scene,再次生成时也会改变,不会与之前生成的视频保持一致。
2025-02-22
PixVerse V2打开这个
PixVerse V2 是一款强大的视频生成工具,具有以下特点和使用方法: 特点: 革命性更新,赋予普通用户创作惊艳视频内容的能力。 支持生成时长 8 秒的视频,提供更多展示空间。 显著提升视频的分辨率、细节和动作幅度。 在 1 至 5 个视频片段之间保持风格、主体和场景的一致性,提升连贯性和内容一致性。 使用方法: 1. 进入:在 Home 页面或点击 PixVerse V2 进入。 2. 输入提示词:支持文生视频。 3. 上传图片:支持图生视频,如无图片上传可忽略。 4. 选择视频时长:支持 5 秒和 8 秒的视频生成,每个 Scene 的时长都会保持所选长度。 5. 添加新片段: 点击“Scene 1”旁边的“+”添加第二个片段。 所有 Scene 画面风格会与 Scene 1 保持一致,如 Scene 1 有图片,则会参考其图片风格。 6. 生成视频:点击图标生成视频,每次生成需花费 30 Credits,默认将所有片段拼接在一起,不支持单片段下载。 7. 编辑生成的视频: 点击视频进入编辑页面。 视频下方分别为角色、环境、动作,可从相应下拉选项中选择想要的效果。 上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。 对所有 Scene 编辑完成后,点击“Create”重新生成视频。未修改的 Scene 再次生成时也会改变,不会与之前生成的视频保持一致。
2025-02-22
在智能体。目录下的体验地址都打不开。为什么?怎么能打开?
很抱歉,暂时不清楚智能体目录下体验地址打不开的具体原因。可能是网络问题、服务器故障、链接失效等多种因素导致。您可以尝试以下方法: 1. 检查您的网络连接,确保网络稳定畅通。 2. 刷新页面或更换浏览器再次尝试访问。 3. 确认该体验地址是否仍在有效服务期内。 4. 若问题仍未解决,建议您联系相关技术支持人员获取帮助。
2025-01-06