直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

可灵AI的教程

回答

以下是关于可灵 AI 的教程:

可灵(免费):

  • 支持文生视频、图生视频。
  • 支持图生视频首尾帧功能。
  • 提示词可使用中文。
  • 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。
  • 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。
  • 默认生成 5s 的视频。

相关链接:

使用可灵处理图片生成视频的步骤(以快影为例):

  1. 打开快影(需要先通过内测申请),选择 AI 创作。
  2. 选择 AI 生成视频。
  3. 选择图生视频。
  4. 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频。
  5. 排队等待生成结束,点击下载。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

小歪:AI视频工具合集

https://jimeng.jianying.com/ai-tool/video/generate知识库详细教程:[工具教程:Dreamina](https://waytoagi.feishu.cn/wiki/AxZuwUQmEipTUEkonVScdWxKnWd)简单介绍:支持文生视频、图生视频,视频生视频支持图生视频首尾帧功能提示词使用中文、英文都可以文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持16:9、9:16、1:1、3:4、4:3尺寸,图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同默认生成3s的视频相关界面截图:[heading3]可灵(免费)[content]https://klingai.kuaishou.com/知识库详细教程:[视频模型:可灵](https://waytoagi.feishu.cn/wiki/GevKwyEt1i4SUVk0q2JcqQFtnRd)简单介绍:支持文生视频、图生视频支持图生视频首尾帧功能提示词可使用中文文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持16:9、9:16、1:1尺寸,图生视频除了不可运镜控制以外,其他跟文生视频基本相同默认生成5s的视频相关界面截图:

AI视频:软件教程

[title]AI视频:软件教程[来来:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[AIGC生态和时间轴](https://waytoagi.feishu.cn/wiki/MoDdwqzYzi6PVokeUhPcxe1Gnfc)[工具教程:剪映](https://waytoagi.feishu.cn/wiki/FVAvwUC3Uihl6bkjNlAcMURDn0c)[工具教程:Dreamina](https://waytoagi.feishu.cn/wiki/AxZuwUQmEipTUEkonVScdWxKnWd)[工具教程:Pika](https://waytoagi.feishu.cn/wiki/V150wUonIiHafQkb8hzcO1E5nCe)[工具教程:StableVideo](https://waytoagi.feishu.cn/wiki/Hf1cwooP5iRH2zkJ6RrcAKLunWb)[工具教程:Pixverse](https://waytoagi.feishu.cn/wiki/LPuqwx3kuiTMfIkXDPDckosDndc)[工具教程:morphstudio](https://waytoagi.feishu.cn/wiki/LkN4wiFaJiklVHkDG4Ec5nZpnLb)[工具教程:Runway Gen-3](https://waytoagi.feishu.cn/wiki/Eun9wqDgii1Q7GkoUvCczYjln7r)[视频模型:luma Dream Machine](https://waytoagi.feishu.cn/wiki/EOCmw4SMhiEMMBkvNePcz1Jxntd)[视频模型:可灵](https://waytoagi.feishu.cn/wiki/GevKwyEt1i4SUVk0q2JcqQFtnRd)

AI 带你穿越时空,去拥抱儿时的自己

步骤如下:1.打开快影(需要先通过内测申请哦),选择AI创作1.选择AI生成视频1.选择图生视频1.上传刚才处理好的图片,填写想要的互动动作和效果,然后点击生成视频。1.排队等待生成结束,点击下载。[heading3]八)效果展示[content]只能说因为图片本身效果就差一点,所以一转换视频就更不像了= =可灵处理结果[a75995384c637b42b2d6a22cde182936.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/K559bpuepo9XLVxck2dcUhhrnFg?allow_redirect=1)Luma处理结果[16ac5734.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JgYtbjIj6o1MEXxkmZUciM0wnSd?allow_redirect=1)然后这边使用的换脸软件比较简单操作的一种,下面还有些需要些学习和操作的项目可以参考使用下。比如GitHub上的Fooocus https://github.com/lllyasviel/Fooocus?tab=readme-ov-file

其他人在问
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
可灵api
ComfyUI GeminiAPI 相关内容如下: 用途:用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装: 1. 将此存储库克隆到 ComfyUI 的 custom_nodes 目录。 2. 安装所需依赖: 如果使用 ComfyUI 便携版。 如果使用自己的 Python 环境。 通过 ComfyUI Manager 安装: 1. 在 ComfyUI 中安装并打开 ComfyUI Manager。 2. 在 Manager 中搜索“Gemini API”。 3. 点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。 输入参数: prompt(必填):描述想要生成的图像的文本提示词。 api_key(必填):Google Gemini API 密钥(首次设置后会自动保存)。 model:模型选择。 width:生成图像的宽度(512 2048 像素)。 height:生成图像的高度(512 2048 像素)。 temperature:控制生成多样性的参数(0.0 2.0)。 seed(可选):随机种子,指定值可重现结果。 image(可选):参考图像输入,用于风格引导。 输出: image:生成的图像,可以连接到 ComfyUI 的其他节点。 API Respond:包含处理日志和 API 返回的文本信息。 使用场景: 创建独特的概念艺术。 基于文本描述生成图像。 使用参考图像创建风格一致的新图像。 基于图像的编辑操作。 API key 获取:在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,访问 https://aistudio.google.com/apikey?hl=zhcn 。 温度参数说明:温度值范围为 0.0 到 2.0,较低的温度(接近 0)生成更确定性、可预测的结果,较高的温度(接近 2)生成更多样化、创造性的结果,默认值 1.0 平衡确定性和创造性。 注意事项: API 可能有使用限制或费用,请查阅 Google 的官方文档。 图像生成质量和速度取决于 Google 的服务器状态和您的网络连接。 参考图像功能会将您的图像提供给 Google 服务,请注意隐私影响。 首次使用时需要输入 API 密钥,之后会自动存储在节点目录中的 gemini_api_key.txt 文件中。
2025-04-14
可灵AI近期有哪些重大更新
快手 AI 产品“可灵”近期的重大更新如下: 1. 今年 6 月,凭借“让老照片动起来”、“让照片中的人拥抱”等热点在互联网爆火,以高质量视频效果、低价格和良心免费额度获好评。 2. 9 月更新了 1.5 模型能力,使视频的画面表现力、提示词理解能力、画面清晰度大幅提升,位列视频生成产品第一梯队。 1.0 模型生成一次视频消耗 10 灵感值,1.5 模型消耗 35 灵感值。 免费用户每日免费享 66 灵感值,付费用户享有 1.5 模型、去水印、高清晰度视频生成、视频延长能力、大师运镜、AI 生图画质增强能力。 增加了运动笔刷控制。 1.5 模型在画面表现力、提示词理解能力上有大幅提升,改善了此前将相机运动描述当作实物生成的问题,但视频中文本内容生成仍有待改进。 3. 移动端 APP 为快影,网页版访问地址为:https://klingai.kuaishou.com/ ,使用指南:https://docs.qingque.cn/d/home/eZQDKi7uTmtUr3iXnALzw6vxpsection=h.j6c40npi1fan 。 4. 传统 txt2vid、img2vid 以外,还支持首尾帧控制、延长视频、对口型能力。txt2vid 模式下支持运镜控制,普通用户可使用水平/垂直运镜、推进/拉远、垂直/水平摇镜;另有四种大师运镜仅付费用户可用。
2025-04-08
可灵视频提示词怎么写
以下是关于可灵视频提示词的写法: 1. 上传基础视频: 点击页面下方的【Pikaddition】按钮。 拖拽或点击上传本地视频。 若自己没有视频,可在“templates”板块使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词: 若需要参考角色在视频里的相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 Pika 会提供一段默认 prompt,若无特殊想法,可直接使用。 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。 提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching... 核心逻辑:Pikadditions 的核心功能是用户上传实拍视频和角色图片,AI 将角色动态融入视频中。因此,提示词需要具体描述角色在视频中的动作、互动和场景匹配。 此外,对于 Adobe Firefly 的提示词技巧: 明确且具体描述,尽量使用更多词汇来具体描述光线、摄影、色彩、氛围和美学风格。 提示词公式:镜头类型描述+角色+动作+地点+美学风格。 镜头类型描述:相机的视角是什么?它是如何移动的?示例:“一个特写镜头,缓慢推近。” 角色描述:角色是谁?他们长什么样子?他们穿着什么?他们的情绪如何?示例:“一只体型庞大的北极熊,拥有明亮的白色毛皮,看起来若有所思。” 动作:角色在场景中做什么?示例:“北极熊正轻柔而自信地走向它之前在冰面上打开的一个洞,准备在冰面下捕猎。” 地点:角色在哪里?天气如何?地形是怎样的?示例:“地点是一片荒凉的雪地;远处灰蒙蒙的云朵缓慢移动。” 美学风格:这是什么类型的镜头?氛围是怎样的?景深如何?示例:“电影感、35mm 胶片、细节丰富、浅景深、散景效果。” 构建提示词时,建议限制主题数量,过多的主题(超过四个)可能会让 Firefly 感到困惑。
2025-03-12
可灵ai是什么
可灵 AI 是一款视频生成类的产品,其网址为 klingai.kuaishou.com,所属公司为快手。在第 34 期“Video Battle 视频挑战赛 The Moment”中,由可灵 AI 出题,主题为“The Moment”,要求以该主题进行创作,工具要求使用可灵 AI,视频需带可灵水印。参赛有诸多限制和要求,如提交时间为 12 月 31 日 21:00 前,参赛文件格式为 16:9、不长于 10 秒、30FPS 以上且不含剪辑,作业方式不限等。奖项设置包括金奖 5000 元 + 5800 灵感值、银奖 3000 元 + 2700(2200 + 500)灵感值、铜奖 2000 元 + 1000 灵感值、入围 500 元×40、人气奖 2500 元×4 以及其他意外散落的灵感值。
2025-03-09
我想学习可灵ai的提示词
以下是一些关于可灵 AI 提示词的相关资源和信息: 提示词模板相关网站: 生成新年场景的提示词示例: 戴着醒狮帽,双手抱拳,红色背景,新年喜庆。背景中有金粉,碎花,3d 爆竹显得热闹而喜庆 拿着"福"字,新年气氛,红色背景,新年喜庆。背景中有金粉,碎花,3d 爆竹显得热闹而喜庆 关于律师如何写好提示词用好 AI 的观点: 不能期待设计一个完美的提示词,然后 AI 百分百给到一个完美的符合要求的答案,中间不能有谬误,否则就是一个需要修复的“BUG”。 要给到 AI 的提示词实际上是一个关于此项问题的相对完善的“谈话方案”,真正的成果需要在对话中产生,并且在对话中限缩自己思维中的模糊地带。
2025-02-16
可灵AI视频好用吗
可灵 AI 视频具有以下特点和优势: 1. 今年 6 月爆火,凭借“让老照片动起来”等热点刷了一波好感。9 月更新 1.5 模型能力,使视频的画面表现力、提示词理解能力、画面清晰度上了一个台阶,位列视频生成产品第一梯队。 2. 现阶段免费用户每日免费享 66 灵感值,1.0 模型生成一次视频消耗 10 灵感值,1.5 模型则消耗 35 灵感值。付费用户享有 1.5 模型、去水印、高清晰度视频生成、视频延长能力、大师运镜、AI 生图画质增强能力。 3. 移动端 APP 为快影,网页版访问地址为:https://klingai.kuaishou.com/ ,使用指南:https://docs.qingque.cn/d/home/eZQDKi7uTmtUr3iXnALzw6vxpsection=h.j6c40npi1fan 。 4. 除传统 txt2vid、img2vid 外,还支持首尾帧控制、延长视频、对口型能力。txt2vid 模式下支持运镜控制,普通用户可使用水平/垂直运镜、推进/拉远、垂直/水平摇镜;另有四种大师运镜仅付费用户可用。9 月中,在 1.0 模型中增加了运动笔刷控制。 5. 1.5 模型能力在画面表现力、提示词理解能力上有大幅提升,改善了此前会将相机运动描述当作实物生成的问题,但视频中文本内容生成还做不到。 6. 在评测中,优势在于运动幅度较大,能产生惊喜效果,但在视频清晰度、语义理解、画面表现力上,1.0 比 Runway、Luma 的最新模型弱很多,1.5 进步明显,达到付费产品水平。 在 AI 视频生成领域,可灵的优势主要体现在: 1. 卓越的视频生成质量,在画面清晰度、连贯性、内容丰富性上,达到与国际顶级模型相当的水准,满足普通用户和专业创作者需求。 2. 生成速度表现出色,处理效率高于国外同类产品,能提升用户工作效率。 3. 对于国内用户,可访问性强,提供便捷、稳定的使用体验,降低使用门槛。 此外,快手于 6 月发布“可灵”视频大模型,能生成超过 120 秒 1080P 视频,模拟真实物理特性,准确建模复杂运动场景,采用类 Sora 的 DiT 结构,用 Transformer 代替卷积网络,自研 3D VAE 网络提升视频重建质量。
2025-02-01
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12