Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Suno教程

Answer

以下是关于 Suno 教程的相关内容:

  • Suno 是一家研究驱动型的人工智能公司,其专门研发的生成式 AI 模型为创意工作者提供强大的创作工具。公司推出的 Chirp 模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。
  • 去年制作过一期 Discord 版本的 Suno 操作教程(Suno 操作指北 V1),但一些知识点解释的不清楚,可能对新手玩家不够友好,而且官方在 Web 上推出 Chirp V2 版本模型后,之前的一些操作方式也迭代了,所以最近重新整理了一份新的教程(Suno 操作指北 V2)。
  • 目前,Chirp V2 版本模型的最大生成时长为 1 分 20 秒,延续的最大生成时长为 60 秒。
  • 在使用 Suno 生成音乐时,和大语言模型一样具有很强的随机性,输入(prompt/tag)质量往往决定输出(生成音乐)质量,在自定义模式(Custom Mode)下,有音乐风格(Style of Music)与歌词(Lyrics)两个主要的输入窗口。音乐风格窗口需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔,可识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。
  • 相关教程链接:

PS:以下内容需要科学上网,请自行解决。

Content generated by AI large model, please carefully verify (powered by aily)

References

Suno 操作指北 V2

感谢刘润梓、陈浚嘉投稿他们在做AI音乐相关的内容,公众号叫:智音Brook右侧可以扫码关注方便更充分的探讨交流,建立了一个微信群【通往AI音乐之路】,可以填写问卷:https://waytoagi.feishu.cn/share/base/form/shrcnuLtIpBNzE5bcQtZbS8UEjh或添加AJ(微信号AAAAAAAJ)备注你的音乐成就,拉你进群[heading1]简介[content]又是一个大工程!去年制作过一期Discord版本的Suno操作教程[Suno操作指北V1](https://waytoagi.feishu.cn/wiki/PhTwwHp1QiNdoFknip1cLwysntd?from=from_copylink),但一些知识点解释的不清楚,可能对新手玩家不够友好,而且官方在Web上推出Chirp V2版本模型后,之前的一些操作方式也迭代了,所以最近花了些时间重新整理一份新的教程。在编写过程中,也参考了社区大佬做的非官方wiki,并尝试把一些知识点给讲透讲清楚,希望能带给读者们不一样的启发?Suno是一家研究驱动型的人工智能公司,其专门研发的生成式AI模型,为创意工作者提供强大的创作工具。公司推出的Chirp模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。下面是Suno更新信息时间轴?目前,Chirp V2版本模型的最大生成时长为1分20秒,延续的最大生成时长为60秒,下面将详细介绍如何在网页上使用它!PS:以下内容需要科学上网,请自行解决

金属文:AI春晚《西游不能停》创作过程分享

音乐生成使用了大名鼎鼎的文生音乐模型[Suno](https://app.suno.ai/),教程可以参考Keen和陈浚嘉的这两篇教程:[Suno操作指北V1](https://waytoagi.feishu.cn/wiki/PhTwwHp1QiNdoFknip1cLwysntd)[Suno操作指北V2](https://waytoagi.feishu.cn/wiki/D1DOwPS5ei5EkckZHUvcVjpEnff)这里只分享我个人的一些心得。Suno和大语言模型一样都具有很强的随机性,并且输入(prompt/tag)质量往往决定了输出(生成音乐)质量,想要避免无谓的抽卡,让生成结果无限地靠近自己的想法,就需要使用一些提示词技巧。在自定义模式(Custom Mode)下,有两个主要的输入窗口:音乐风格(Style of Music)与歌词(Lyrics),我们分别来讲音乐风格(Style of Music)这里需要你填写一些tag来描述整首音乐的风格和感觉,多个tag之间用“,”进行分隔。根据suno的官方文档和我的测试,可以识别的tag有:音乐类型/流派:如ROCK、FUNK、JAZZ、EDM、K-POP等人声/乐器:如clear female vocal、electric guitar、drums、cello等情绪/氛围:如pure weepery、epic、Christmas Vibes、action packed等节奏:staccato、4/4 time、build up等场景:如movie soundtrack、jingles、wedding band混响:recording studio、concert hall、underwater等其他和声/音效等:如3-part harmony、cartoon sound effects、droning

音乐创作指南

你好?Hi!这是一个共享编辑文档,欢迎大家分享自己喜欢的AI音乐。Suno[教程](https://waytoagi.feishu.cn/wiki/KA1GwEi8yifRmMkOM9icr8EjnAd)[→](https://waytoagi.feishu.cn/wiki/KA1GwEi8yifRmMkOM9icr8EjnAd)[Udio教程](https://waytoagi.feishu.cn/wiki/DSktw8uBniPOdtkt3eeccmdcnct?from=from_copylink)[](https://waytoagi.feishu.cn/wiki/DSktw8uBniPOdtkt3eeccmdcnct?from=from_copylink)[→](https://waytoagi.feishu.cn/wiki/DSktw8uBniPOdtkt3eeccmdcnct?from=from_copylink)[音乐资讯](https://waytoagi.feishu.cn/wiki/UD4uw9qmYiKW9kkxNeXcUDCbnog)[→](https://waytoagi.feishu.cn/wiki/UD4uw9qmYiKW9kkxNeXcUDCbnog)[创作案例→](https://waytoagi.feishu.cn/wiki/AahewcMOBiIQ9vks1XzcVaNange)[风格流派](https://waytoagi.feishu.cn/wiki/NSKGwclQNig6INkGWkKcsLQNnRb)[→](https://waytoagi.feishu.cn/wiki/NSKGwclQNig6INkGWkKcsLQNnRb)以上是大家共建的教程,案例,以及音乐知识,可以快速导航

Others are asking
帮我编写一个suno创作提示词模板
以下是为您编写的 Suno 创作提示词模板的相关内容: 在“离谱村”的案例中,首先收到台词素材和配音,确定“童趣”“欢乐”的风格,将相关描述投喂给 GPT4 生成音乐脚本,再输入给 SunoBeats 生成提示词。但初始提示词过长,后参考论坛网友分享的格式,通过调式变化和情节描述,使用和弦进展推动故事情节发展,这种格式的提示词质量和利用率更好。 在“博物馆文物玩法”的案例中,创作思路是给文物上色,参考攻略玩过变形,利用泼洒颜料玩法为雕像上色并使过程有趣。选择首尾帧模式,尾帧基于文物原图重绘为偏写实形象,通过可灵实现人物漂浮效果。涉及工具包括即梦、可灵、Runway、Suno、剪映,各有其优势。步骤为使用即梦图片生成功能上传图片,选择边缘轮廓或人物姿势,不添加景深,提升精细度并选择竖版切割。使用 GPTs 写 Runway 提示词。 希望以上内容对您有所帮助!
2025-03-27
如何编辑sunoprompt
编辑 Suno prompt 可以参考以下内容: 1. 推荐的 prompt 写法: 可参考很详细的教程。 2. 写 prompt 的建议: 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 提供上下文:若任务需特定背景知识,提供足够信息。 使用清晰语言:简单、清晰描述,避免模糊或歧义词汇。 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 使用示例:有特定期望结果时提供示例。 保持简洁:简洁明了,避免过多信息使模型困惑。 使用关键词和标签:帮助模型理解任务主题和类型。 测试和调整:生成文本后仔细检查,根据需要调整 prompt,可能需多次迭代。 3. Suno 创作音乐的小技巧: 想参考现有歌曲节奏,可在查询歌曲的 BPM 和 Key,作为提示词写进去。 歌词里,在歌词段落前加(引子)更好地告诉 AI 这段歌词应该怎么唱。 4. Suno 操作指北 V1 中的基础操作: 注册官方地址加入 discord。 在消息栏输入/chirp。 按下 Enter,将出现一个弹出窗口。 输入歌曲风格以及歌词到对应框中,或者在 Chirp 提供的 ChatGPT 框中输入关键词让 AI 帮你生成。 点击提交。 Chirp 操作: Chirp v1 更新了类型描述窗口。 提交完成后,等待 2 3 分钟,即可生成两个示例音频,目前 Chirp 最多可生成 40 秒的音频。 生成的两个示例音频,比如喜欢第一个,就点击⏩Continue 1,Chirp 就会弹出 Continue 窗口,可继续填入想要的歌曲风格和歌词,点击提交,Chirp 会根据提示生成新的两个示例音频。 如果觉得生成的两个音频不满意,可以点击?,Chirp 会弹出窗口提供修改,点击提交即可生成新的两个示例音频。 当延续生成足够多的音频,想要将它们连接起来生成一个完整的音频,可以点击最后想要的音频所对应的❤️,Chirp 会自动剪接之前所选的音频并生成完整音频,这个过程不需要消耗次数。延续音频流程:/Chirp 输入→⏩Continue→⏩Continue→❤️。
2025-03-22
比suno更好用的音乐创作工具
目前,Suno 是一款基于人工智能技术的音乐创作工具,其特点包括:无需专业音乐知识,任何人都可用其轻松创作音乐;通过自然语言描述生成旋律、和声、鼓点等音乐元素;支持多种流行音乐风格;提供创作过程的建议和指导;可导出常见音频格式。但它也存在一些不足,如提示词控制方面,除歌词部分外,音乐风格提示词只有 120 个字符,能描述和理解的关键词有限,创作丰富度有限,旋律相对单调。 除了 Suno 之外,还有一些其他的音乐创作工具或相关的人工智能音频初创公司,例如: :前身为‘Definite Technologies’,开发使用 AI 处理/生成声音的 VST/AU/AUv3 插件。 :自适应 AI 音乐平台,通过高质量音频样本进行实时细胞组成。 :基于 AI 的音乐助手,包括歌词写作助手。 :实时音乐、音频和视频创作平台。 :为创意媒体应用提供合成歌声。 :数字宇宙的音乐解决方案,Soundtracks、AI Studio、Music Maker JAM 的制作者。 :AI 音乐创作和制作。 :自由定制高质量免版权费音乐。 :云平台,让音乐人和粉丝在全球范围内创作音乐、协作和互动。 :使用嵌入式软件、信号处理和 AI 帮助艺术家录制、混音和母带处理他们的现场表演。 :开源音乐生成工具。 :旨在通过 AI 赋能真实艺术家的伦理音频 AI 插件、工具和社区,而非取代他们。
2025-02-27
suno
Suno 是一款基于人工智能技术的音乐创作工具,具有以下特点和优势: 1. 任何人无需专业音乐知识即可轻松使用,创作各种风格的音乐作品。 2. 通过自然语言描述生成符合要求的旋律、和声、鼓点等音乐元素。 3. 支持多种流行音乐风格,如流行、嘻哈、电子等。 4. 提供有用的建议和指导,帮助用户完成整个创作过程。 5. 可将生成的音乐导出为常见音频格式。 Suno 利用人工智能技术降低了音乐创作的门槛,为音乐创作带来了新的可能性。在 Suno 时代,版权公司无需焦虑,因为音乐市场虽有大量版权涌入,但这与过去独立音乐人版权涌入类似,版权公司仍可做着类似的事情,只需从海量 AIGC 作品中挑出优质的即可。不过,也存在一些担心,比如人类可能会把想象和思考的权力交给 AI,逐渐退化思考和自主决策的能力。 此外,Suno 作为 AI 音乐创作平台完成了 1.25 亿美元的 B 轮融资,公司估值达 5 亿美元,本轮融资由 Founder Collective、Lightspeed Venture Partners 和 Matrix 参与,前 GitHub CEO Nat Friedman 和前 Y Combinator AI 负责人 Daniel Gross 也参与其中。
2025-02-14
如何使用suno.ai?
以下是关于如何使用 suno.ai 的详细步骤: 1. 简介:Suno AI 是一款革命性的 AI 驱动歌曲生成器,能根据简单提示创造完整音乐作品。 2. 账号要求:需要拥有 Discord、谷歌或微软中的至少一个账号,并确保网络环境稳定。 3. 订阅信息: 免费用户:每天 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成两首歌曲。 Pro 用户:每月 2500 点数(约 500 首歌),按月每月 10 美元,按年每月 8 美元,每年 96 美元。 Premier 用户:每月 10000 点数(约 2000 首歌),按月每月 30 美元,按年每月 24 美元,每年 288 美元。 4. 点击 Create: 有默认模式和个性化模式两种。 默认模式:关闭个性化,可描述歌曲、开关乐器、选择模型 v3。 个性化模式:开启个性化定制,填写歌词、曲风、标题等。 5. 生成歌词:可以使用大模型如 Kimi、GPT、文心一言等来生成。 6. 开始生成:填写好所需内容后点击 Create,等待 2 3 分钟即可。 7. 新功能“Suno Scenes”: 可通过照片或视频生成独特音乐,用户可直接拍摄或上传内容来创建音乐场景。 注意事项:目前只有 iOS 客户端,系统版本需升级到 17.0+,下载需使用美国 ID 并在美国 IP 环境下体验。 8. 基础操作: 注册官方地址加入 discord。 在消息栏输入/chirp,按下 Enter,将出现弹出窗口。 输入歌曲风格及歌词到对应框中,或在 Chirp 提供的 ChatGPT 框中输入关键词让 AI 帮你生成。 点击提交。 Chirp 操作:Chirp v1 更新了类型描述窗口。提交完成后,等待 2 3 分钟,即可生成两个示例音频,目前 Chirp 最多可生成 40 秒的音频。生成的两个示例音频,若喜欢第一个,就点击⏩Continue 1,Chirp 会弹出 Continue 窗口,可继续填入想要的歌曲风格和歌词,点击提交,Chirp 会根据提示生成新的两个示例音频。若不满意,可点击?,Chirp 会弹出窗口提供修改,点击提交即可生成新的两个示例音频。当延续生成足够多音频,想要将它们连接起来生成一个完整音频,可以点击最后想要的音频所对应的❤️,Chirp 会自动剪接之前所选音频并生成完整音频,此过程不消耗次数。延续音频流程:/Chirp 输入→⏩Continue→⏩Continue→❤️
2025-02-11
suno.ai如何使用?
Suno.ai 是一款基于人工智能技术的音乐创作工具,具有以下特点和使用方法: 特点: 无需专业音乐知识,任何人都能使用。 通过自然语言描述生成符合要求的旋律、和声、鼓点等音乐元素。 支持多种流行音乐风格,如流行、嘻哈、电子等。 提供有用的建议和指导,帮助完成整个创作过程。 可将生成的音乐导出为常见音频格式。 利用人工智能技术降低音乐创作门槛,为音乐创作带来新可能。 使用方法: 进入官网:https://suno.com/ 。 新功能“Suno Scenes”: 打开 Suno 应用程序,进入相机模式。 在相机模式下,选择一张图片或视频上传。 通过输入简单的文本提示词,选择音乐风格和歌词,来生成带有人声的歌曲。 注意事项: 目前只有 iOS 客户端,且系统版本需要升级到 17.0+。 下载需要使用美国 ID,需要在美国 IP 环境下体验。 可更新/安装 Suno 客户端:suno.com/ios 体验“Suno Scenes”视频和图像提示功能。
2025-02-11
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12