直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

你目前使用的是哪个模型

回答

以下是一些关于模型的信息:

  • 在 Cursor Chat、Ctrl/⌘K 和终端 Ctrl/⌘K 中,您可以在 AI 输入框下方的下拉列表中选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:GPT-4oGPT-4Claude 3.5 Sonnet、cursor-small。您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。cursor-small 是 Cursor 的自定义模型,不如 GPT-4 智能,但速度更快,用户可无限制访问。
  • 在 Morph Studio 中,支持以下模型生成视频:
    • Text-to-Video-Morph-0.1:内部文本到视频生成模型,默认具有逼真色调,可通过描述性形容词修改拍摄风格和外观。
    • Image-to-Video-Morph-0.1:内部图像到视频生成模型,用文本提示引导效果更好,使用时可不输入文本,在角色特写和对象动画方面表现较好。
    • Video-to-Video-Morph-0.1:内部风格转换模型,支持在文本提示下进行视频到视频的渲染,可将视频风格更改为预设,同时保留原始视频的字符和布局。
    • Image-to-Video-SVD-1.1:由 Stability.ai 提供支持的图像到视频模型,适用于构图中有清晰层次的镜头(风景镜头、B 卷等)。 文本到视频形态-0.1 被设置为新创建射击卡的默认模型,型号选择会根据是否上传图像或视频而更改,每个模型有自己的一组参数可供调整,如相机运动(支持静态、放大、缩小、向左平移、向右平移、向上平移、向下平移、顺时针旋转和逆时针旋转,未来将支持一次选择多个相机移动选项)、时间(支持最多 10 秒的视频生成,默认持续时间为 3 秒)。
  • ComfyUI instantID 目前只支持 sdxl。主要的模型(ip_adapter.bin)需下载后放在 ComfyUI/models/instantid 文件夹(若没有则新建),地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=true 。InsightFace 模型是 antelopev2(不是经典的 buffalo_l),下载解压后放在 ComfyUI/models/insightface/models/antelopev2 目录中,地址为:https://huggingface.co/MonsterMMORPG/tools/tree/main 。还需要一个 ControlNet 模型,放在 ComfyUI/models/controlnet 目录下,地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true 。上述模型网络环境不好的,可在网盘 https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycy 下载。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Models 模型

With Cursor Chat,Ctrl/⌘K,and Terminal Ctrl/⌘K,you can easily switch between different models of your choice.使用光标聊天、Ctrl/⌘K和终端Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。[heading3][heading3]Model Dropdown模型下拉列表[content]Underneath the AI input box,you will see a dropdown that allows you to select the model you want to use.By default,Cursor has these models ready to use:在AI输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor已准备好使用这些模型:[GPT-4o](https://openai.com/index/hello-gpt-4o/)[](https://openai.com/index/hello-gpt-4o/)[GPT-4o](https://openai.com/index/hello-gpt-4o/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[Claude 3.5 Sonnet](https://www.anthropic.com/news/claude-3-5-sonnet)cursor-smallcursor-small is Cursor’s custom model that isn’t as smart as GPT-4,but is faster and users have unlimited access to it.cursor-small是Cursor的自定义模型,它不如GPT-4智能,但速度更快,用户可以无限制地访问它。You can add additional models under Cursor Settings>Models>Model Names.您可以在Cursor Settings>Models>Model Names下添加其他模型。[heading3]

MorphStudio使用指南(网页UI版本)

我们现在支持以下模型在Morph Studio中生成视频:|Text-to-Video-Morph-0.1|我们的内部文本到视频生成模型,默认情况下,我们的文本到视频模型具有逼真的色调,可以随意添加描述性形容词来修改您拍摄的风格和外观||-|-||Image-to-Video-Morph-0.1|我们的内部图像到视频生成模型,如果您用文本提示进行引导,生成结果会更好,但使用图像到视频时不需要输入文本。与SVD相比,我们的模型在角色特写和对象动画方面表现更好。||Video-to-Video-Morph-0.1|我们的内部风格转换模型支持在文本提示下进行视频到视频的渲染。该模型的主要功能是将视频的风格更改为我们自己的预设,同时保留原始视频的字符和布局。||Image-to-Video-SVD-1.1|这是一个由Stability.ai提供支持的图像到视频模型,最适用于构图中有清晰层次的镜头(风景镜头、B卷等)|更改模型:文本到视频形态-0.1被设置为任何新创建的射击卡的默认模型。您的型号选择将根据您是否上传了图像或视频而更改。每个模型也有自己的一组参数可供调整,如下所示:设置说明相机运动现在我们支持静态、放大、缩小、向左平移、向右平移、向上平移、向下平移、顺时针旋转和逆时针旋转。一次选择多个相机移动的选项将在未来可用。时间我们支持最多10秒的视频生成。默认持续时间设置为3s。运动

ComfyUI instantID

目前只支持sdxl节点地址ComfyUI_InstantID https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file主要的模型(ip_adapter.bin),下载后放在ComfyUI/models/instantid文件夹里,没有这个文件夹就新建一个https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=trueInsightFace模型是antelopev2(不是经典的buffalo_l)。下载模型,解压并将它们放在ComfyUI/models/insightface/models/antelopev2目录中https://huggingface.co/MonsterMMORPG/tools/tree/main还需要一个controlNet模型https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true放在ComfyUI/models/controlnet目录下上述模型网络环境不好的,可以在网盘https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycy

其他人在问
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
如何使用cursor进行编程
以下是关于如何使用 Cursor 进行编程的相关信息: Cursor 旨在让您极其高效,是使用 AI 进行编码的最佳方式。您可以从代码库中获得最佳答案,参考特定文件或文档,一键使用模型中的代码。 它允许您使用指令编写代码,通过简单的提示就能更新整个类或函数。 Cursor 能通过预测您的下一个编辑,让您轻松完成更改。
2025-04-18
怎么使用cursor
以下是关于如何使用 Cursor 的详细介绍: 1. 访问 Cursor 官方网站:您可以通过 https://www.cursor.com/ 下载 Cursor。 2. 注册账号:使用您的邮箱(如 google、github、163、qq 邮箱)直接登录,也可接受二维码登录。 3. 安装中文包插件。 4. 配置相关设置: 在设置中进行 Rule for AI 配置。 按 ctrl/cmd+i 输入需求,例如“帮我做一个贪吃蛇游戏,在网页中玩”。 清晰表达需求,如详细说明游戏规则和逻辑,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等方面。 5. 使用第三方文档: Cursor 附带一组已爬取、索引的第三方文档,可通过@Docs 符号访问。 若要添加自定义文档,可通过@Docs>Add new doc 实现,粘贴所需文档的 URL 后,Cursor 将索引并学习该文档,您即可将其用作上下文。 在 Cursor Settings>Features>Docs 下可管理已添加的自定义文档,进行编辑、删除或添加新文档的操作。 希望以上内容对您有所帮助。
2025-04-18
怎样使用AI做PPT
使用 AI 做 PPT 可以参考以下内容: 1. 信息的 AI 可视化: 优点:节省制作时间、具有优秀的视觉风格、能快速归纳整理信息、可用图形代替文字枯燥的表达。 注意事项: 不要指望复制一段提示词就能得到满意结果,这是与 AI 互动的过程,需要反复尝试。 AI 生成的是基于模型的 HTML 输出,并非真正的 PPT 格式,目前无法在 PPT 里进行二次深度编辑。 模型选择:目前推荐 Claude 3.7 Sonnet,可通过 POE 调用,不建议使用其他效果不佳的模型。 交互流程: 阶段 1 主观描述:通过文字聊天让 Claude 领悟您想要的视觉风格,描述要尽量具体,如颜色、画布、装饰等方面的要求。 2. 好用的 AI PPT 工具: Gamma:在线 PPT 制作网站,支持输入文本和想法提示快速生成幻灯片,可嵌入多媒体格式。https://gamma.app/ 美图 AI PPT:由美图秀秀团队推出,可通过输入文本描述生成专业设计。https://www.xdesign.com/ppt/ Mindshow:AI 驱动的辅助工具,提供智能设计功能。https://www.mindshow.fun/ 讯飞智文:科大讯飞推出的辅助文档编辑工具,利用语音识别和自然语言处理技术,提供智能文本生成等功能。https://zhiwen.xfyun.cn/ 3. 教学案例: 上午的尝试中,Claude + Gamma.app 帮助学生从组会准备工作中解放出来,实现了快速寻找符合条件的论文、提取精炼论文信息、找到适合的 PPT 制作工具并学会使用等目的。 Claude 的用法示例:如通过一系列问题让其搜索权威期刊、论文,提取摘要等,并用于制作 PPT。
2025-04-18
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
装修设计可以使用哪些AI工具
以下是一些可用于装修设计的 AI 工具: 1. 酷家乐装修设计软件:利用图像生成和机器学习技术,为用户提供装修设计方案,用户可根据喜好选择和调整。 2. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 3. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂几何形状和优化设计。 4. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 5. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 6. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供基于 AI 的生成设计工具,可根据输入自动产生多种设计方案。 7. HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 8. Maket.ai:面向住宅行业,在户型和室内软装设计方面有探索,能根据输入自动生成户型图。 9. ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期引入标准和规范约束生成的设计结果。 10. Fast AI 人工智能审图平台:形成全自动智能审图流程,将建筑全寿命周期内信息集成,实现数据汇总与管理。 但每个工具都有特定应用场景和功能,建议根据具体需求选择合适的工具。
2025-04-15
完全免費的AI工具目前有哪些
目前完全免费的 AI 工具包括: 1. 麻省理工学院(MIT)为 8 18 岁孩子推出的 AI 课程 Day of AI,包含在 MIT 的 RAISE 项目中。不过该课程资源主要面向家长和老师群体,大孩子可自学,小孩子可能需要家长辅助。 2. 元子提到的一些能让普通人最低成本直接上手试的 AI 工具,包括聊天工具、绘画工具、视频工具、音乐工具等,但未具体指明具体的工具名称。
2025-04-13
gemini-2.5目前是什么水平
Gemini 2.5 是一款全能思考模型,具有以下特点和优势: 多领域达到 SOTA 水平,逻辑、代码、任务处理能力大幅提升。 支持 100 万 tokens 上下文,具备强大的阅读能力。 统一架构原生多模态支持,图文音码协同处理,并非外挂而是原生融合。 您可以通过以下链接获取更多详细信息:https://www.xiaohu.ai/c/xiaohuai/googlegemini25proexperimental
2025-04-13
AI行业目前的产业链是怎么样的
AI 行业的产业链大致可分为上游的基础设施层(数据与算力)、中游的技术层(模型与算法)、下游的应用层(应用与分发)。 上游基础设施层:布局投入确定性强,但涉及海量资金投入,入行资源门槛高,未来国内可能更多由“国家队”承担重任。普通人若无强资源,可考虑“合作生态”的切入机会。 中游技术层:处于技术爆炸阶段,迭代速度极快。规模不大的团队或个人需慎重考虑技术迭代风险,基础通用大模型非巨无霸公司不建议考虑,竞争激烈,最终赢家通吃。 下游应用层:是广阔蓝海,尽管从业者增加并涌现出一些产品,但针对行业/细分领域的成熟应用产品不多,“杀手级”应用稀少。普通个体和小团队强烈推荐重点布局,拥有超级机会和巨大发展空间。 此外,据 SensorTower 统计,2024 全年全球 AI 移动应用内付费收入预计为 30 亿美元,图像和视频类 AI 应用占据主导地位,对话机器人类别排名第二。从地区分布来看,北美和欧洲贡献了三分之二的市场份额。 美国红杉资本指出,AI 供应链从下到上分为六层,各层盈利能力存在显著差异。第一层的芯片代工厂和第二层的芯片设计商保持高利润水平;第三层的工业能源供应商受益良多;第四层云厂商处于重金投入阶段;第五层的 AI 模型开发商面临亏损;第六层的应用服务商充满潜力,但市场规模有限。大型云厂商是整个供应链的“链主”。行业格局方面,头部阵营基本稳定。
2025-04-13