Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生视频时,不按照指令行动

Answer

在图生视频过程中出现不按照指令行动的情况,可能有多种原因。以下为您提供一些可能的分析和解决建议:

  • 提示词不够准确清晰:确保提示词详细、具体、明确地描述了您想要的图像和动作,避免模糊或歧义。
  • 模型理解偏差:AI 模型可能对某些复杂或特殊的指令理解存在困难,您可以尝试调整提示词的表述方式。
  • 数据和训练限制:模型的训练数据和能力可能存在一定的局限性,导致无法完全按照指令生成视频。

您可以参考以下的案例来进一步理解和改进:

  • 公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方。
  • 小孩子向画面右侧奔跑,后面腾起一路尘土。
  • 公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着。

同时,您还可以利用一些工具和技巧,例如清影工具中的帮写视频提示词的智能体,来优化提示词。另外,注意提示词的主体、描述细节等方面,如“戴眼镜”的提示词因无主体导致唐僧未能遵从指令戴上墨镜,而“唐僧伸出手,戴上墨镜”这样有主体的提示词则效果更好。

Content generated by AI large model, please carefully verify (powered by aily)

References

Vidu大家测试

[vidu-1-general-4-2024-07-30T04_31_40Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/BpDlbjweYoEcu5xVI7hcTHlGnhc?allow_redirect=1)[heading2]ZZK[heading3]原图&视频效果1[content]原图选择:参考人物角色提示词:公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方[stable--4-2024-08-05T09_15_57Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/VciDb3i8roSQ2gxnnfSczwoSnXd?allow_redirect=1)[heading3]原图&视频效果2[content]原图选择:参考人物角色提示词:小孩子向画面右侧奔跑,后面腾起一路尘土[stable--4-2024-08-05T10_13_58Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JNPjbgUU4oDzKhxg44XckYpInBc?allow_redirect=1)[heading3]原图&视频效果3[content]原图选择:用作起始帧提示词:公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着[stable--4-2024-08-05T09_26_57Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/ViX8b7fUBoogkDxskb2cRWGBnGb?allow_redirect=1)

工具教程:清影

|文生视频|视频(纯享版)|视频(配音版)|PROMPT||-|-|-|-||9、吗喽打工|[9.猴子打工.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/BuvLbuFnIotHz8x3tv8crHPTnFc?allow_redirect=1)|[9.猴子打工(音乐版).mov](https://bytedance.feishu.cn/space/api/box/stream/download/all/MULAbdkR7o0UvsxRYvVcVrJJnef?allow_redirect=1)|Two monkeys in ragged clothes are typing on a computer in a colorful room,their eyes moving exaggeratedly as if telling a humorous story.The room is filled with bizarre decorations and toys,creating a dreamlike atmosphere.The camera uses a whimsical and ethereal style,following the monkeys with a handheld shot to capture their comical movements,occasionally switching to slow motion to highlight their exaggerated expressions.The lighting features a contrast of warm and cool tones,enhancing the playfulness of the scene.The depth of field varies,sometimes focusing on the monkeys and sometimes on the computer screen,creating a light-hearted and humorous visual effect.||10、赛博吗喽黑客<br>(体现指令跟随能力)|[10.赛博吗喽黑客.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/B3XGbCjPfoyzCexFU2YcGFGbn16?allow_redirect=1)|[10.赛博吗喽黑客(音乐版).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/WdIwbtw6ForpmRx8lCpcaT6dnCe?allow_redirect=1)|在霓虹灯闪烁的赛博朋克风格城市夜景中,手持跟拍的镜头缓缓推近,一个机械风格的小猴子正在用高科技工具维修,周围是闪烁的电子设备和未来主义的装修材料。赛博朋克风格,气氛神秘,4K高清。||11、老奶奶|[70岁老奶奶坐着轮椅上班,淡定又从容.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Wcvyb2e08odYQaxYzC9cM3NfnTc?allow_redirect=1)||70岁老奶奶坐着轮椅上班,淡定又从容|

工具教程:清影

为了让大家快速上手,我们还为大家制作了一个帮写视频提示词的智能体。[heading4]使用地址➡️:[清影提示词(图生视频专用)](https://chatglm.cn/main/gde[content]图生视频prompt效果展示|原始图片|提示词|提示词说明|视频效果||-|-|-|-|||无提示词|无提示词|[c1c5f954-64a1-581e-8d73-e42a5a55fa3f_0.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Mk93bFvAUowgAoxpLP7c7W0RnLb?allow_redirect=1)|||戴眼镜|无主体,唐僧未能遵从指令戴上墨镜|[46c24d0c-cf11-5c6f-bd5e-3b62863eaf51_0.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/McEyb4hq8o2PTWxwTtLcbFQknoc?allow_redirect=1)|||唐僧伸出手,戴上墨镜|有主体|[7月22日.mov](https://bytedance.feishu.cn/space/api/box/stream/download/all/VsDIbAw7XoCl79xssxycGNAmnZc?allow_redirect=1)|

Others are asking
我想图生图,生成高清矢量图
以下是关于图生图生成高清矢量图的相关内容: ControlNet 参数: 预处理器:canny,模型:control_v11p_sd15_canny 预处理器:lineart_standard,模型:control_v11p_sd15_lineart 放大高清大图: 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化 Lora 生图: 点击预览模型中间的生图会自动跳转到相应页面 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形) 采样器和调度器新手小白可默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重绘幅度正常在 0.3 0.7 之间调整 高清修复: 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复 SD 放大: 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
2025-04-14
我想要通过建筑草图生成效果图,有什么工具和流程可以使用
以下是使用悠船工具将建筑草图生成效果图的流程和相关介绍: 1. 基础使用: 提示词:在右侧填写提示词,右上可下载对应图片。 参数调整:参数详解参考下方「参数详解」。注意任何点击都会重新生成图片,免费用户可能会提示超出套餐,所以别乱点。最右侧是所有生成图片的略缩图。 2. 图片调整: 变化:分为细微和强烈,细微改变幅度小,强烈改变幅度大。 高清:有“直接”和“创意”两种模式,“直接”表示啥都不变直接出高清,“创意”表示在图片基础上进行微小的优化调整。 风格变化:基于生成的图片作为上传图片(垫图)再创作。 拓展:可上下左右拓展图片。 缩放:指的是镜头,比如 2x 就是镜头拉远 2 倍。 局部重绘:选择区域要大一些,太小的无法进行修改。 3. 图像参考: 在悠船中可以利用垫图和提示词配合生成符合要求的建筑、风景、文物等。只需将图片复制到悠船的提示词框里面,并填写对应的提示词描述。
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
图生 视频
以下是关于图生视频的相关内容: 工具教程:清影 什么是图生视频:输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 两个小技巧: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 提示词要【简单清晰】:可以选择不写 prompt,直接让模型自己操控图片动起来;明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果您不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 视频演示 |首帧图|PROMPT|视频(配音版)|视频(纯享版)| ||||| |1、泳池里的小鸭子|Little yellow duck toy floating on the water in the swimming pool,closeup|| |2、洞穴文明|The primitive man raises his hand.The camera zooms out.|| |3、魔法少女|A woman reaches out to touch the glowing box.Particle effects.|| |4、离别列车上的小狗|a dog with Furry white claws the bus window with reflections on the glass,Furry white claws,closeup,ultrarealistic|| |5、古典美女|celine,classic photograph from Life magazine|| |6、废土黑雨|游戏场景在下雨,人物看起来非常担心|| 工具教程:PixVerse V2 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-04-13
手绘草图生成图片
以下是关于手绘草图生成图片的相关信息: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词,从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高,结束时间也不宜过长。 生成上色后的视频: how2draw Flux lora:分享一个好玩的 flux lora,触发词为 how2draw。 图片生成 3D 建模工具: Tripo AI:在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 Meshy:功能全面,支持文本、图片生成 3D 以及 AI 材质生成。 CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象。 Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域。 VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型。 【SD】真人转二次元: 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,X 轴为提示词相关性(130,每次增加 5),Y 轴为重绘幅度(01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,大于 11 后画面色彩和脸型可能崩坏,重绘幅度大小可控制生成图与原图的相似度。 绘图功能:如增加红色眼镜、去掉衣服图案、局部重绘(手涂蒙版)修改部分等。
2025-04-01
怎么用图生成png格式的新图
以下是用图生成 PNG 格式新图的方法: 使用 Stable Diffusion: 1. 若在网上看到好看的大佬的图,将其导入 SD。若能识别,右边会自动弹出照片的信息,包括正面关键词、负面关键词,还有其他种子、大模型等信息。 2. 复制这一大串信息,来到“文生图”页面,粘贴到关键词的文本框中。 3. 点击“生成”按钮下面的第一个小按钮,SD 会自动分配信息,在有相同大模型和 Lora 的前提下,点击生成,可能得到差不多的照片。 4. 若导入照片后右边未出现生成信息,说明照片不是直接从 SD 下载下来的 PNG 格式照片,此时可使用“标签器(Tagger)”来生成照片的关键词。 使用 OpenAI 的图像生成端点: 1. 图像生成端点允许在给定文本提示的情况下创建原始图像,生成的图像大小可为 256x256、512x512 或 1024x1024 像素,较小尺寸生成速度更快。可使用参数一次请求 1 10 张图像。描述越详细,越有可能获得想要的结果,也可在 DALL·E 预览应用程序中探索示例获取更多提示灵感。 2. 图像编辑端点允许通过上传蒙版来编辑和扩展图像。遮罩的透明区域指示应编辑图像的位置,提示应描述完整的新图像,而不仅仅是擦除区域。上传的图片和遮罩必须是小于 4MB 的正方形 PNG 图片,且尺寸相同。生成输出时不使用遮罩的非透明区域。
2025-03-27
写作指令
以下是关于写作指令的相关内容: 拘灵遣将: 对文章中案例进行脱敏,替换人物姓名、时间和地点。 深化写作时,每次对话输出文章一个部分,各部分字数有规定。 敕代表告诫,明确工作中的禁忌事项和具体要求。 令包括初始化时的欢迎语,牢记符与敕的要求,先请求用户提供案例洞察报告和目标群体,用户提供并输入“依律奉行”后,先输出纲要和写作方案。 熊猫 Jay:万字解读 ChatGPT 提示词最佳实践: 最佳实践 1 是编写清晰的指令。 策略包括在查询中包含详细信息以获得更相关答案,要求模型扮演某个角色,使用分隔符清晰表示输入不同部分,指定完成任务所需步骤,提供示例,指定输出期望长度,提供参考文本。 策略 1 适用于新手,难度为 1 星,价值在于提供更多详细信息可获得更准确具体答案,减少模型猜测和误解,提高交互效率和满意度。 策略 2 适用于新手,难度为 1 星,通过指定角色使模型回答更具特色和针对性,提升输出质量。 OpenAI 官方提示工程指南: 撰写清晰的指令,模型无法读心,可根据输出情况要求调整。 技巧包括在查询中添加详细信息以获得更准确答案,请求模型扮演特定角色,使用分隔符清晰区分输入不同部分,明确指出完成任务需要的步骤,提供实例作为参考,明确指定希望输出的长度。
2025-04-14
我想让DEEPSEEK帮我写一篇论文,题目已经定好了,怎么给他输入指令
以下是给 DeepSeek 输入指令以帮助您写论文的一些建议: 1. 采用结构化提示词: 优先保留专业领域术语和技术词汇,这些术语通常具有高信息价值。 对不同类型的信息设置权重,按优先级排序:任务定义>关键约束>专业术语>定量信息>方法论>背景。 以完整语义单元为基本保留单位,而非单个词语,确保压缩后的内容仍保持语义完整性。 避免详细指导思考过程,让模型自主生成思维链。 2. 高阶能力调用: 文风转换矩阵:例如“用鲁迅杂文风格写职场 PUA 现象”“将产品说明书改写成《史记》列传格式”“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略: 创意内容生成。 技术方案论证。 4. 效能增强技巧: 对话记忆管理:包括上下文锚定(如“记住当前讨论的芯片型号是麒麟 9010”)、信息回溯(如“请复述之前确认的三个设计原则”)、焦点重置(如“回到最初讨论的供应链问题”)。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题,使用相应的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:使用概念脱敏法(如“用经济学原理类比说明网络审查机制”)或场景移植法(如“假设在火星殖民地讨论该议题”)。 在输入指令时,您需要清晰明确地描述论文的题目、研究目的、主要论点、关键论据、期望的结构和风格等重要信息,以便 DeepSeek 能够为您生成符合要求的内容。
2025-04-14
ai降重指令
以下是关于 AI 降重指令的相关知识: Prompt 是用于指挥 AI 生成所需内容的一段指令,每个单独的提示词叫 tag(关键词)。支持的语言为英语(不用担心英语不好的问题,),emoji 也可以用。 语法规则: 用英文半角符号逗号,来分隔 tag,逗号前后有空格或者换行都不影响效果。 改变 tag 权重:tag 的顺序越靠前对于 SD 来说权重越大,可通过两种写法设置权重。一是 括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍。 进行 tag 的步数控制(高级玩法):即 SD 先按输入的 tag1 开始生成,然后在达到设定的步数之后,tag1 停止产生作用,此时 tag2 再参与到对内容生成的影响,可表示为,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2,数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。
2025-04-14
毕业论文的ai指令总结
以下是关于毕业论文的 AI 指令的总结: 1. 可以指定 AI 模仿某位资深人士的风格,如律师的逻辑严谨和言简意赅。 2. 要求 AI 为您提供多个例子,例如针对案件给出至少三种不同的诉讼策略,并分析每种策略的优劣势。 3. 采用 PEMSSC 方法,包括个性化的风格(Personality)、给参考或一定的逻辑结构(Example Inquiry)、从多个角度思考(Multiple Angles)、总结概括(Summarize)、使用区分符号(Separator)、明确能力或者角色(Capacity and Role)。 4. 对于大多数实际应用,建议专注于经过调整的指令语言模型,使用时要给清晰的指令,如指定文本的语气、要求集中讨论的内容,甚至可以提前指定阅读的文本。 5. 可以直接要求 LLM 帮写论文,如提供个人背景信息和指令让其写大学申请论文,但要注意这种使用方式的道德问题。
2025-04-14
使用Deepseek写论文有哪些固定指令模板
以下是使用 DeepSeek 写论文的一些指令模板: 1. 进阶控制技巧: 思维链引导: 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 知识库调用: 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 多模态输出 2. 高级调试策略: 模糊指令优化: 问题类型:宽泛需求 修正方案:添加维度约束 示例对比:原句:“写小说”→修正:“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构” 问题类型:主观表述 修正方案:量化标准 示例对比:原句:“写得专业些”→修正:“符合 IEEE 论文格式,包含 5 项以上行业数据引用” 迭代优化法: 首轮生成:获取基础内容 特征强化:请加强第三段的技术细节描述 风格调整:改用学术会议报告语气,添加结论部分 最终校验:检查时间逻辑一致性,列出可能的事实性错误 3. 核心原理认知: AI 特性定位: 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 系统响应机制: 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 4. 基础指令框架: 四要素模板 格式控制语法: 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 5. 高阶能力调用: 文风转换矩阵: 作家风格移植:“用鲁迅杂文风格写职场 PUA 现象” 文体杂交:“将产品说明书改写成《史记》列传格式” 学术口语化:“把这篇论文摘要翻译成菜市场大妈能听懂的话” 领域穿透技术:行业黑话破解→“解释 Web3 领域的‘胖协议瘦应用’理论” 商业决策支持 6. 场景化实战策略: 创意内容生成 技术方案论证 7. 效能增强技巧: 对话记忆管理: 上下文锚定:“记住当前讨论的芯片型号是麒麟 9010” 信息回溯:“请复述之前确认的三个设计原则” 焦点重置:“回到最初讨论的供应链问题” 输出质量控制: 问题类型:过度抽象 修正指令:“请具体说明第三步操作中的温度控制参数” 问题类型:信息过载 修正指令:“用电梯演讲格式重新组织结论” 问题类型:风格偏移 修正指令:“回归商务报告语气,删除比喻修辞” 8. 特殊场景解决方案: 长文本创作: 分段接力法:“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应” 敏感内容处理: 概念脱敏法:“用经济学原理类比说明网络审查机制” 场景移植法:“假设在火星殖民地讨论该议题”
2025-04-13
用deepseek写一份课题申报书,请提供相关指令
以下是一些用 DeepSeek 写课题申报书的相关指令和要点: 1. 思维链引导: 分步标记法:请逐步思考,如问题分析→方案设计→风险评估。 苏格拉底式追问:在得出最终结论前,先列举三个可能存在的认知偏差。 2. 知识库调用: 领域限定指令:基于特定的标准或文献,如 2023 版中国药典,说明相关内容。 文献引用模式:以特定的论文为参考,解释相关突破。 3. 多模态输出: 模糊指令优化:对于宽泛需求添加维度约束,将主观表述量化标准。 迭代优化法:包括首轮生成获取基础内容、特征强化、风格调整和最终校验等步骤。 4. 在课题申报书的内容方面: 关于提示词编写及 AI 应用的探讨:介绍用于不确定世界中理性决策的提示词编写方法,包括收集信息、重新定义问题、运用 Mini Max Regret 方法等步骤。注意示例的价值,自用与他用提示词在稳定性、经济性、可维护性等方面的区别。 AI 应用于软件开发:未来借助 AI 模型的 API 和编写提示词,可快速实现软件开发。 关于写作与模型:用 DeepSeek 写小说要能引起共鸣和考虑人类共性,文字要感动人。注意模型特点与推荐,如 Cloud 3.5 模型多样性差,DeepSeek R1 有缺陷但也不错。 以上内容仅供参考,您可以根据具体的课题需求进一步调整和完善。
2025-04-11
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
我想要自学AI相关的知识,但不知道从哪里开始,需要一个行动方案,我未来想做一个ai产品经理
以下是为您提供的自学 AI 知识并成为 AI 产品经理的行动方案: 1. 应用方面: 深入了解 Prompt,选择适合自己的 AI 对话、绘画和语音产品,每天使用并用于解决实际问题或提升效率。 2. 分析方面: 大量阅读各类文章、视频以及行业报告,理解各知识之间的关系。 3. 掌握相关技能: 了解目前 AI 提示词工程师岗位的招聘技能要求,例如: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 4. 了解产品经理工作: 调研市场、思考需求、转化需求、思考解决方案、设计解决方案、分配任务、进行测试、实现解决方案。 像善用提示词工程的人一样,将需求抽象再具象成产品。 总之,要成为 AI 产品经理,需要不断学习和实践,适应行业的发展和变化。
2025-04-12
搭建可以自主决策规划和行动的agent
搭建可以自主决策规划和行动的 agent 通常涉及以下几个方面: 一、Agent 的概念 Agent 是一种能够在环境中自主感知、思考并采取行动的实体。可以将其想象成一个具有特定目标和行为能力的智能角色,能根据环境变化做出相应决策和反应。 二、LLM Agent LLM Agent 是结合大型语言模型(LLM)和自主智能体(Agent)特性的系统,能够利用大型语言模型的自然语言处理能力,理解用户输入,并在此基础上进行智能决策和行动。 三、LLM Agent 的组成部分 1. 规划(Planning) 定义:规划是 Agent 的思维模型,负责将复杂任务分解成可执行的子任务,并评估这些子任务的执行策略。 实现方式:通过使用大型语言模型的提示工程(如 ReAct、CoT 推理模式)来实现精准任务拆解和分步解决。 2. 记忆(Memory) 定义:记忆即信息存储与回忆,包括短期记忆和长期记忆。 实现方式:短期记忆用于存储对话上下文,支持多轮对话;长期记忆存储用户特征和业务数据,通常通过向量数据库等技术实现快速存取。 3. 工具(Tools) 定义:工具是 Agent 感知环境、执行决策的辅助手段,如 API 调用、插件扩展等。 实现方式:通过接入外部工具(如 API、插件)扩展 Agent 的能力,例如使用插件解析文档、生成图像等。 4. 行动(Action) 定义:行动是 Agent 将规划和记忆转换为具体输出的过程,包括与外部环境的互动或工具调用。 实现方式:根据规划和记忆执行具体行动,如智能客服回复、查询天气预报、AI 机器人抓起物体等。 四、Anthropic 的建议 随着 LLM 在几个关键能力上的成熟,如理解复杂输入、进行推理和规划、可靠使用工具以及从错误中恢复,智能体开始在生产环境中涌现。智能体通过与人类用户的命令或交互式对话开始工作。一旦任务明确,智能体就会独立进行规划和操作,必要时会向人类寻求更多信息或判断。 在执行过程中,智能体需要在每个步骤从环境中获取“基准事实”(如工具调用结果或代码执行情况)以评估其进展。智能体可以在检查点或遇到障碍时暂停等待人类反馈。任务通常在完成时终止,但也常常包含停止条件(如最大迭代次数)以保持控制。 智能体适用于难以或无法预测所需步骤数量的开放性问题,且无法硬编码固定路径的场景。但智能体的自主性意味着更高的成本和潜在的错误累积。建议在沙盒环境中进行广泛测试,并设置适当的防护措施。 五、实例探究 Generative Agents 是一个有趣的实验,其中 25 个虚拟角色,每个角色都由 LLM 支持的 Agents 控制,在沙盒环境中生活和交互,其灵感来自《模拟人生》。生成 Agents 的设计将 LLM 与记忆、规划和反射机制相结合,使 Agents 能够根据过去的经验进行行为,并与其他 Agents 进行交互。 记忆流是一个长期记忆模块(外部数据库),用自然语言记录智能体经验的完整列表。检索模型会根据相关性、新近度和重要性,呈现上下文以告知 Agents 的行为。反射机制随着时间的推移将记忆合成更高层次的推论,并指导智能体未来的行为。规划与反应将反思和环境信息转化为行动,规划本质上是为了优化当前与时间的可信度。
2025-03-21
角色:你是一名房地产开发公司的总经理 背景:现在要在公司内部推广AI工具的使用,通过具体AI工具解决公司内部各部门具体问题,来提升工作效率。 任务:请你完成年度AI提升工作效率的工作策划, 要求:工作策划要有目标、行动计划、团队人员需求及分工、具体AI工具及对应解决的问题、需要费用明细及资源需求、有哪些风险点
由于您提供的内容中没有具体的相关信息,以下为您生成一份较为通用的房地产开发公司年度 AI 提升工作效率的工作策划示例,您可以根据实际情况进行调整和完善。 一、目标 通过在公司内部推广 AI 工具的使用,在本年度内实现各部门工作效率提升 30%以上,降低人力成本 15%左右,提高项目质量和客户满意度。 二、行动计划 1. 第一季度 进行市场调研,了解适合房地产开发行业的 AI 工具。 组织内部培训,让员工初步了解 AI 工具的应用。 2. 第二季度 针对各部门需求,选择并引入相应的 AI 工具进行试点应用。 建立数据收集和分析机制,为 AI 工具的优化提供支持。 3. 第三季度 对试点部门的应用效果进行评估和总结。 根据评估结果,对 AI 工具进行调整和优化。 4. 第四季度 在全公司范围内推广成熟的 AI 工具应用。 对全年的 AI 应用效果进行总结和评估。 三、团队人员需求及分工 1. 成立 AI 推广小组 组长:负责整体工作的规划和协调。 技术专家:负责 AI 工具的选型、配置和技术支持。 培训师:负责组织员工培训和指导使用。 数据分析师:负责收集和分析数据,为工具优化提供依据。 部门联络人:每个部门指定一名联络人,负责与推广小组沟通本部门的需求和问题。 四、具体 AI 工具及对应解决的问题 1. 智能客服系统 解决客户咨询响应不及时的问题,提高客户满意度。 2. 项目管理 AI 工具 优化项目进度安排和资源分配,提高项目管理效率。 3. 市场分析 AI 工具 精准分析市场趋势和客户需求,为项目定位提供依据。 五、需要费用明细及资源需求 1. 费用明细 AI 工具采购费用:万元。 培训费用:万元。 技术支持和维护费用:万元。 数据采集和分析费用:万元。 2. 资源需求 服务器和存储设备,以支持 AI 工具的运行和数据存储。 足够的网络带宽,确保数据传输的流畅性。 六、风险点 1. 员工对新技术的接受度和适应能力可能较低,需要加强培训和引导。 2. AI 工具的应用效果可能不如预期,需要及时调整和优化。 3. 数据安全和隐私保护可能存在风险,需要建立完善的防护机制。
2025-02-13
构建一个Agent会从计划、记忆、工具、行动,4个方面来描述。那么每个方面具体都包含一些什么内容
构建一个 Agent 通常从计划、记忆、工具、行动这 4 个方面来描述,每个方面具体包含的内容如下: 计划(Planning): 子目标分解:将大型任务分解为较小可管理的子目标,以便有效处理复杂任务。 反思与改进:对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。 记忆(Memory): 短期记忆:将所有的上下文学习视为利用模型的短期记忆来学习。 长期记忆:通过利用外部的向量存储和快速检索来提供长期存储和召回信息的能力。 工具(Tools): Agents 学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 行动(Action): 当接收到任务时,GPT 会先思考决定如何使用工具,然后可能会出现一个小图示,告知用户它尝试使用工具来完成任务。例如在让它搜索、画图时,它会做出相应的行动。
2024-08-15