直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

怎么用comfyUI中的视频IC-light

回答

使用 ComfyUI 中的视频 IC-light 的步骤如下:

  1. 在管理器中的节点管理中搜索 ComfyUI-IC-Light 进行安装,安装后重启 ComfyUI。
  2. 模型可以在网盘里下载,然后放入 ComfyUI/models/unet 文件夹。
  3. IC Light 用于处理原视频和新背景之间的光影效果。
  4. 辅助工具 IC-Light 的打光方式有两种:
    • 文本方式:上传 1 张前景图片,自动抠图,填写详细文本提示词,并在几种给定的光源方向选择。
    • 背景+前景方式:上传 1 张背景图+1 张前景图,自动融合,填写简单文本提示词,并在几种给定的光源方向选择。

需要注意的是,IC Light 处理过的图片可能会颜色发黄偏色,不是处理过的就是好的,有时可能会负优化。另外,在进行背景替换时,不同图片合并要考虑光线、色调、边缘细节等问题。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

ComfyUI 视频背景替换工作流

在管理器中节点管理搜索ComfyUI-IC-Light,安装后重启ComfyUI模型可以在网盘里,下载后放入ComfyUI/models/unet文件夹IC Light是用来处理原视频和新背景之间的光影效果的。[heading4]Animatediff[content]这个部分根据实际情况,可以开启或者关闭取决于视频的流畅度。

ComfyUI 图片合并背景替换

背景替换是一个看似简单,但是又难的活,难在于不同图片合并时候要考虑,光线、色调、边缘细节,这个工作流在测试了目前多种技术,选择了表示较好的,将他们流程化。有许多细节是需要注意的[heading3]背景移除[content]模型放在E:\ComfyUI\models\rembg需要下载对应的模型[heading3]填充背景[content]用来移除背景里面的主题,模型需要放在E:\ComfyUI\models\lama下[heading3]ic-light[content]在管理器中节点管理搜索ComfyUI-IC-Light,安装后重启ComfyUI模型可以在网盘里,下载后放入ComfyUI/models/unet文件夹ic处理过的图片,颜色会发黄偏色,这里就需要让做颜色匹配和细节的迁移,注意,不是IC Light处理过的就是好的,有时候反而会负优化。[heading3]

辅助工具:IC-Light“重打光”

1、文本方式:上传1张前景图片,自动抠图,填写详细文本提示词,并在几种给定的光源方向选择即可2、背景+前景方式:上传1张背景图+1张前景图,自动融合,填写简单文本提示词,并在几种给定的光源方向选择即可群友纷纷喊融图神器啊[heading2]测试:小田[content][heading2]测试:歸藏[content][heading2]测试:frankzcy[content][heading2]测试:歸藏[content][heading2]测试:随风起舞[content]但是衣服颜色变了[heading2]测试:Rui测试comfyUI中的效果[content][heading2]测试:L.YAN?[content][heading2]测试:麦橘[content]提示了黑色毛衣,没成功再试一次成功了[heading2]测试:Stuart[content]家居背景抠图重添加背景【Zho】做好了敏神刚放出的打光模型IC-Light的Colab方案!免费层可运行!不用在Demo排队了!另外,我也把作者暂时没给Demo(但给了代码)的背景条件模型也加上了,支持选择背景图片+简单提示词,就可以完美重新打光拿去玩:https://colab.research.google.com/drive/1-pXSpTH-zNhaAKFmMvh-xj7Zp9781L2f?usp=sharing

其他人在问
ai和office软件结合的插件有哪些
以下是一些 AI 和 Office 软件结合的插件: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,可用于数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件,能通过聊天形式完成用户需求,如数据分析和格式创建。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,能进行公式生成、生成相关文本内容、执行情感分析、语言翻译等任务。 随着技术发展,未来可能会有更多 AI 功能集成到 Office 软件中,进一步提高工作效率和智能化水平。内容由 AI 大模型生成,请仔细甄别。
2025-04-01
OpenAI Operator, Anthropic Claude Coder
以下是关于 OpenAI Operator 和 Anthropic Claude Coder 的相关信息: 2025 年 Agent 领域的发展预测: 从对话助手到行动型智能体是 2025 年 Agent 技术的主流发展方向之一。计算机操作能力取得突破,传统大模型更多充当聊天助手,而 2025 年的突破在于让 Agent 直接“动手”操作电脑和网络环境。 Anthropic 在 2024 年底发布的 Claude 3.5 Sonnet 首次引入“Computer Use”能力,让 AI 像人一样通过视觉感知屏幕并操作鼠标键盘,实现了 AI 自主使用电脑的雏形。 OpenAI 在同期推出了代号“Operator”的 Agent 及其核心模型“计算机使用智能体”(CUA),使 GPT4 获得直接与图形界面交互的能力。CUA 通过强化学习将 GPT4 的视觉能力与高级推理相结合,训练 AI 可像人一样点击按钮、填表、滚动页面等。在 OpenAI 的测试中,CUA 在浏览器任务基准 WebArena 和 WebVoyager 上分别达到 38.1%和 87%的成功率,后者已接近人类水平。 其他相关信息: 宝玉日报 1 月 25 日: Deepseek 提示词框架包含四大模块:任务目的(Purpose)、计划规则(Planning Rules)、格式规则(Format Rules)、输出说明(Output)。 Anthropic 的 Claude 可通过屏幕截图获取计算机视觉信息,计算光标移动的像素坐标,并执行点击、滚动等操作。 OpenAI Operator 利用虚拟主机和 Chrome 浏览器,通过 CUA 实现网页实时操作,支持复杂任务导航。 主要的大语言模型: OpenAI 系统包括 3.5 和 4 等,3.5 模型在 11 月启动了当前的 AI 热潮,4.0 模型在春季首次发布,功能更强大。新的变种使用插件连接到互联网和其他应用程序。Code Interpreter 是一个非常强大的 ChatGPT 版本,可以运行 Python 程序。未为 OpenAI 付费只能使用 3.5。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型,连接到互联网。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是 PaLM 2 模型。 Anthropic 发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口。
2025-04-01
monica用来做什么的
Monica 是一款综合性的 AI 助手应用程序,具有以下功能和特点: 1. 基于先进的 AI 模型(如 GPT4、Claude 3、Gemini 等),提供多种功能,包括聊天对话、搜索查询、文本写作、翻译、图像生成、PDF/视频摘要等。 2. 可以在浏览器扩展程序或独立应用程序中使用,支持在 Chrome、Edge 等浏览器中使用,也可以下载独立的 iOS 和 Android 应用程序。 3. 提供免费和付费订阅服务,免费用户每天有 30 次查询限制,付费订阅可以获得无限次数的使用权。 4. 具有“Make It More”等创新功能,可以将图像进一步放大、夸张,生成有趣的视频内容。 总的来说,Monica AI 是一款集聊天、搜索、写作、翻译等多功能于一体的 AI 助手应用,旨在为用户提供便捷、高效的 AI 辅助服务。它的官网地址是:https://monica.im 需注意,以上内容由 AI 大模型生成,请仔细甄别。 此外,Monica 作为浏览器插件,在英文阅读方面也能发挥作用,使用后在英文页面随意刷住任意一段文字会出现相关功能,然后点击可进行翻译。当然这个工具还集成了 GPT 的功能,相当于网页版挂载了一个 GPT+notion,很多场景下可以重写扩写等,感兴趣的小伙伴可以去查询官网了解它的更多用法。
2025-03-24
有哪些像monica一样的集成式ai工具
以下是一些类似于 Monica 的集成式 AI 工具: 1. 通义听悟:在对比多个播客转文字的产品后,阿里出品的通义听悟体验较好。其首页突出转录播客的功能,注册赠送 10 小时免费转录,支持播客链接直接转录,准确率高,还能在转录后自动生成问答回顾。选中文本,音频内容会自动定位到对应位置。 2. Monica:是一款综合性的 AI 助手应用程序,具有以下特点: 基于先进的 AI 模型(如 GPT4、Claude 3、Gemini 等)提供多种功能,包括聊天对话、搜索查询、文本写作、翻译、图像生成、PDF/视频摘要等。 可以在浏览器扩展程序或独立应用程序中使用,支持在 Chrome、Edge 等浏览器中使用,也可以下载独立的 iOS 和 Android 应用程序。 提供免费和付费订阅服务,免费用户每天有 30 次查询限制,付费订阅可以获得无限次数的使用权。 具有“Make It More”等创新功能,可以将图像进一步放大、夸张,生成有趣的视频内容。 集成了非常多的功能,包括聊天对话、PDF 翻译问答、Youtube 摘要、文生图等能力,甚至还集成了一些办公场景的实用工具。值得一提的是,备忘功能(Memo)支持记录用户看过(总结过)的文章、视频,支持剪藏图片,作为个人知识库进行沉淀,这部分的内容也可以在聊天模块进行提问。 不仅从浏览器插件拓展到了桌面应用,还把工具覆盖到了图片、视频、PDF、网页、智能体、翻译、总结、思维导图等等众多最受欢迎的使用场景。近期还发布了 VSCode 编程助手——Monica Code 插件,据说还要发布自己版本的 Cursor。 Monica 的官网地址是:https://monica.im 通义听悟暂无相关官网地址介绍。
2025-03-22
monica
Monica AI 是一款综合性的 AI 助手应用程序,具有以下特点: 1. 基于先进的 AI 模型(如 GPT4、Claude 3、Gemini 等),提供聊天对话、搜索查询、文本写作、翻译、图像生成、PDF/视频摘要等多种功能。 2. 可以在浏览器扩展程序或独立应用程序中使用,支持在 Chrome、Edge 等浏览器中使用,也可以下载独立的 iOS 和 Android 应用程序。 3. 提供免费和付费订阅服务,免费用户每天有 30 次查询限制,付费订阅可以获得无限次数的使用权。 4. 具有“Make It More”等创新功能,可以将图像进一步放大、夸张,生成有趣的视频内容。 总的来说,Monica AI 集聊天、搜索、写作、翻译等多功能于一体,旨在为用户提供便捷、高效的 AI 辅助服务。它基于先进的 AI 模型,在多个领域展现出强大的能力。其官网地址是:https://monica.im 。 此外,在 ShowMeAI 周刊 No.11 中也有关于 Monica 的相关内容,如 Monica 的进化等。同时,有人在利用 VS Code + Monica 来制作 Crossword 小游戏。
2025-03-22
AI Agent和Agentic Workflow的区别
AI Agent 和 Agentic Workflow 存在以下区别: AI Agent: 基本框架:由“LLM + 规划 + 记忆 + 工具使用”构成,大模型 LLM 充当“大脑”。 规划方面:包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标,能对过去行动进行自我批评和反思,从错误中学习并改进未来步骤。 记忆方面:用于存储和调用相关信息。 Agentic Workflow: 驱动角色工作流变革:使用多智能体协作的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。 涉及人机协同关系:生成式 AI 的人机协同分为嵌入式、副驾驶、智能代理 3 种产品设计模式,在不同模式下,人与 AI 的协作流程有所差异。 重塑获取信息的方式:如搜索引擎和基于大模型的聊天机器人在获取信息上目标一致,ChatGPT 的出现被认为将对传统搜索引擎带来颠覆。 包含多种设计模式:如反思、工具使用、规划、多智能体协同等。反思是让 Agent 审视和修正自己生成的输出;工具使用指 LLM 生成代码、调用 API 等工具进行操作;规划是让 Agent 分解复杂任务并按计划执行;多智能体协同是多个 Agent 扮演不同角色合作完成任务。
2025-03-19
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14