Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

豆包如何切换deepseekR1大模型

Answer

要切换到 DeepseekR1 大模型,您可以参考以下步骤:

  1. 对于新闻播报自动化工作流:
    • 首先,输入新闻链接,系统会自动提取核心内容。添加网页图片链接提取插件,获取网页里的图片。
    • 接着,利用调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。
    • 然后,使用链接读取节点提取文字内容,并在提取链接后面接上一个大模型节点,使用 DeepseekR1 模型生成有吸引力的口播内容。
    • 注意,DeepseekR1 基础版本限额使用,可在专业版手动接入。手动接入时,先点击 https://www.volcengine.com/experience/ark?utm_term=202502dsinvite&ac=DSASUQY5&rc=A6NPZ83H 领取 375 万 R1 模型的 tokens(手机用户可扫描二维码),再到 https://www.volcengine.com/,根据相关截图自行接入推理点。为了后续批处理,需将输出格式设置为 Array<String>格式。
  2. 对于飞书多维表格相关操作:
    • 可参考教程“用正确的方式,打开更强大的豆包大模型——”。
    • 例如,在制作【AI 书单】时,可把图书的封面图复制到多维表格里,AI 能自动识别【书名和作者】;用字段捷径【AI 搜索】找到豆瓣评分;用字段捷径【自定义 AI 自动填充】识别图书的内容概述、适用人群、推荐理由;用【信息提取】分别把主题、核心观点、故事梗概、适用人群、推荐理由提取出来。
Content generated by AI large model, please carefully verify (powered by aily)

References

伊登:最新Deepseek+coze实现新闻播报自动化工作流

只需输入新闻链接,系统就能自动提取核心内容开始节点,入参:1、新闻链接2、视频合成插件api_key添加网页图片链接提取插件,承接开始节点的新闻链接获取网页里的图片,我们这里以1ai.net的资讯为例子,这里的资讯都比较简单,只有一张主图,标题,内容都齐全,所以适合我们来操作当我们输入1ai.net的一则新闻,发现,提取出很多链接有趣的是,第一条链接就是新闻主图,其他内容都是不重要的icon所有我们就要添加图片链接提取节点,如果我们为了节省写代码时间,直接用大模型节点帮我们提取,只拿提取的链接集合的第一条,这样新闻的主要图片就搞定了。图片链接提取提示词接着利用,调整图片的节点,将url属性的图片内容转化为image属性的图片(因为url节点在画板中是string的格式,所以必须转为img格式)现在到了文字部分,使用链接读取节点,将文字内容提取出来在提取链接后面接上一个大模型节点,用来重写新闻成为口播稿子,这里用到最强的DeepseekR1模型,来生成有吸引力的口播内容小tips,如果想要加上自己的特征,可以在提示词里写:”开头加上‘这里是伊登AI’之类的个性化台词防伪“PS:这里的deepseekR1基础版本是限额使用,我们可以在专业版手动接入DeepseekR1手动接入推理模型

《雪梅 May 的 AI 学习日记》挑战 100 天和 AI 做朋友(持续更新中)

May:研究飞书多维表格+AI教程来源:直接复刻,可以复制后直接看里面的实现细节[用正确的方式,打开更强大的豆包大模型——](https://larkcommunity.feishu.cn/wiki/ZV6Nw2KjUiJHxfkNmNNc5JIWngd?table=blkT4qhpZbRFRVZJ)我的练习:我自己做了一个多维表格:AI书单快速阅读练习的飞书多维表链接:[雪梅-飞书多维表格+AI练习记录](https://getgaoding.feishu.cn/base/C8cIbF4S1aDjfns70InciMRGn1e?table=tblbjilVKpfmPiPX&view=vewGNba19P)【AI书单快速阅读】介绍:1.把图书的封面图复制到多维表格里,AI可以自动识别【书名和作者】2.用字段捷径【AI搜索】找到豆瓣评分3.用字段捷径【自定义AI自动填充】识别图书的内容概述、适用人群、推荐理由4.用【信息提取】分别把主题、核心观点、故事梗概、适用人群、推荐理由提取出来感受:自己制作这个【AI书单】时,我导入了40本书,可以体验一下多行数据用AI来自动识别处理的效果。

伊登:最新Deepseek+coze实现新闻播报自动化工作流

福利领取首先点击这个https://www.volcengine.com/experience/ark?utm_term=202502dsinvite&ac=DSASUQY5&rc=A6NPZ83H领取375万R1模型的tokens(和硅基某某不一样,火山方舟的deepseeR1有很高性能和速度)手机的小伙伴可以扫描二维码然后到https://www.volcengine.com/,根据以下截图自行接入推理点这样,我们就能在扣子使用不限额的使用deepseekR1,但是也会消耗赠送的额度,需要注意。最后,我们为了下面批处理,需要数组类型的句子内容,所以提前做一个格式变化,当然我们可以用代码节点或者文本处理来处理台词分段,但是这里用大模型,下期可以考虑经济型注意这里的输出格式要选Array<String>格式!!因为后面的循环体只能接受数组类型输入

Others are asking
deepseekR1解析
DeepSeek R1 相关的内容主要包括以下方面: 1. 1 月 27 日: 拾象的闭门学习讨论,涉及 DeepSeek 在全球 AI 社区的意义,包括技术突破与资源分配策略,突出了其长上下文能力、量化商业模式以及对 AI 生态系统的深远影响,重点分析了创新路径及中国在 AI 追赶中的潜力与挑战。 关于 DeepSeek 的研究和思考,深入解析其在架构和工程上的创新,如 MoE、MLA、MTP 和 FP8 混合精度训练,强调不是简单模仿,而是在工程和应用平衡中达成高效优化,对开源与闭源竞争进行深刻反思,并指出 AI 生态未来发展方向。 7B Model and 8K Examples: 如何用 8000 个示例炼出自我反思 AI。 2. 1 月 28 日: 拾象的讨论,包括 DeepSeek 对全球 AI 社区的影响,如技术突破、资源分配及其长上下文能力与商业模式,分析了中国在 AI 追赶过程中的潜力与挑战,探讨了创新路径及深远生态影响。 关于 DeepSeek 的研究与思考,重点解析在 MoE、MLA、MTP、FP8 混合精度训练等方面的创新,指出并非简单模仿,而是通过工程与应用的平衡实现高效优化,对开源与闭源的竞争作了深入反思,并展望了 AI 生态未来发展方向。 小模型、大数据:7B Model+8K 示例的自我反思 AI。 3. 1 月 26 日: DeepSeek R1 System Prompt,介绍了其身份、操作指南及能力范围,突出在中英双语处理上的专业性和对中国法律的合规性,强调 AI 辅助输出需以人类主导为前提,并通过特定标签实现逻辑清晰的响应。 公众号文章通过虚构故事结合真实案例,讲述 AI 在日常工作中的效率提升作用,描述 AI 如何分析意图、生成任务说明,并拆分复杂任务成结构化内容,强调最终成果需人工审核、拼接,并以人类主导全流程。
2025-02-06
你能调用deepseekR1的API吗?
DeepSeekR1 的 API 调用步骤如下: 1. 首先到 DeepSeek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。 2. 早期 DeepSeek 有赠送额度,如果没有赠送的余额,可以选择去充值。支持美元和人民币两种结算方式,以及各种个性化的充值方式。 3. 创建一个 API key,注意,API key 只会出现一次,请及时保存下来。 4. 接下来,下载 Cursor(https://www.cursor.com/),或者 VSCode(https://code.visualstudio.com/),只要代码编辑器可以下载插件即可。 5. 以 Cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline。 6. 安装完后,打开三角箭头,就可以看到 RooCline,选中并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek。 API Key:填入已创建的 key。 模型:选择 DeepSeekreasoner。 语言偏好设置。 小贴士:记得把 HighRisk 选项都打开,这样 AI 才能帮您自动生成文件。 7. 最后做完所有不要忘记点击 Done 保存修改。 8. 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-05
豆包如何创建智能体?
创建智能体的方法如下: 1. 通过 Coze 平台创建: 找到灵感:如果没有 Bot 灵感,可以查看获取灵感。 进行 Bot 创建: 打开扣子助手。 修改 Prompt,发送 Prompt1。 让扣子助手帮忙创建 Bot。 点击打开创建好的 Bot。 发布作品: 点击【发布】。 填写发布记录,发布到 Bot 商店。 复制智能体链接。 2. 在一枚扣子平台创建: 第一步,创建一个智能体,使用单 Agent 对话流模式。 编排对话流:点击创建一个新的对话流(记得要和智能体关联),编排相关流程。 测试:找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,查看数据是否成功。回到智能体的编排页面,同样进行测试,确保对话流执行成功。 发布:点发布后,只选择多维表格,然后进行配置。包括输出类型、输入类型等,完善上架信息,提交上架信息后,返回配置界面会显示已完成,即可完成最终的提交。 另外,在教学场景中使用豆包创建智能体时,例如让学生模拟杜甫进行回答,可设置相关 prompt,选择特定声音等,并通过学生小组讨论设计问题来进行教学。
2025-04-11
豆包如何创建智能体?
创建智能体的方法如下: 通过 Coze 平台创建: 找到灵感,可以查看获取。 进行 Bot 创建,通过扣子助手快速进行,包括修改 Prompt、让扣子助手帮忙创建 Bot 以及点击打开创建好的 Bot 等步骤。 发布作品,包括点击【发布】、填写发布记录并发布到 Bot 商店、复制智能体链接。 在一枚扣子平台创建: 第一步,创建一个智能体,使用单 Agent 对话流模式。 编排对话流,点击创建新的对话流并与智能体关联。 进行测试,找到一篇小红书笔记,试运行对话流。 发布,点发布后选择多维表格,进行配置,包括输出类型、输入类型等,完善上架信息并提交。 此外,还有在教学场景中使用豆包创建智能体的示例,如设定为杜甫的角色,并设定相关 prompt 和声音等。
2025-04-11
以DeepSeek R1为代表的推理模型,与此前模型(如 ChatGPT-4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于
以 DeepSeek R1 为代表的推理模型与此前模型(如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。 2. 思考方式:在回答用户问题前,R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,从用户初始问题出发,唤醒所需的推理逻辑与知识,进行多步推导,提升最终回答的质量。 3. 训练方式:在其他模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 4. 模型制作:R1 是原生通过强化学习训练出的模型,而蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。此外,DeepSeek R1 还能反过来蒸馏数据微调其他模型,形成互相帮助的局面。 5. 与 Claude 3.7 Sonnet 相比,Claude 3.7 Sonnet 在任务指令跟随、通用推理、多模态能力和自主编程方面表现出色,扩展思考模式在数学和科学领域带来显著提升,在某些方面与 DeepSeek R1 各有优劣。
2025-03-19
豆包AI有网址吗
豆包 AI 是抖音旗下基于云雀大模型开发的 AI 工具,提供聊天机器人、写作助手以及英语学习助手等功能。其访问网址是:https://www.doubao.com/ 。 此外,为您提供部分其他 AI 网站的信息: 文心一言:yiyan.baidu.com Beacons AI:beacons.ai Hugging Face:huggingface.co ZeroGPT:zerogpt.com Gamma:gamma.app Gauth:gauthmath.com Feedly:feedly.com Loom:loom.com mailchimp:mailchimp.com prezi:prezi.com Poe AI 平台是一个支持与多个智能 AI 机器人进行实时在线交流的聊天网站,包括 GPT4 等。注册账号后可免费使用,部分功能需要付费订阅。其官网地址是:https://poe.com/ ,可在官网帮助中心上找到具体教程。
2025-03-14
豆包如何克隆声音
以下是关于克隆声音的相关信息: ElevenLabs 推出了全自动化的 AI 配音或视频翻译工具。您只需上传视频或粘贴视频链接,它能在几十秒到几分钟内将视频翻译成 29 种语言,还能克隆原视频中的声音进行配音。群友瑞华进行了测试,相关视频链接为: 。另外,有群友测试了豆包的音色模仿,读大概 20 个字的句子,5 秒就能生成非常像的音色,之后可用自己的声音读生成的文字内容。 在 Heygen 等网站可以自助购买声音克隆服务。 MiniMax 有两个适合任务的大模型(豆包的也不错):MiniMaxText01 支持 400 万 token 的上下文,T2A v2(speech01turbo)拥有最好的声音复刻效果。可通过其开放平台 https://platform.minimaxi.com/login 进行注册登录及实名认证。首次注册会赠送 15 元,无需充值就能玩。接着创建 API Key 并保存好,还可以克隆声音,链接为:https://platform.minimaxi.com/examinationcenter/voiceexperiencecenter/voiceCloning 。克隆时有几个地方要填:创建 voice id、上传复刻音频(10 300 秒,尽量安静)、上传音频 prompt(不超过 8 秒的声音)、试听文本(不超过 8 秒声音所念内容),然后勾选用户协议,点击“克隆”选项,过一段时间完成克隆。使用填写的 voice id 生成声音,即为克隆音色生成的声音。
2025-03-11
使用豆包即梦和通义app绘制海报封面都是出现文字不对的情况,有哪些改进的或者是更好的解决方案
以下是针对使用豆包即梦和通义 app 绘制海报封面出现文字不对情况的改进和解决方案: 使用豆包即梦: 1. 为其他城市定制艺术字海报:可以使用豆包来生成个性化设计。豆包会根据城市特色和地标调整提示词,创造符合城市风格的艺术作品。 打开豆包网站 https://www.doubao.com/chat 。 输入对应内容获得城市的 AI 绘画提示词。 2. 优化海报细节: 利用即梦中的消除笔工具修正细节错误。例如,若生成图片中有元素不协调或小细节(如文字笔画、图案)错误,可用消除笔去除不需要的部分。 多抽卡获取更理想设计。AI 绘画核心在于多抽卡,若首次生成效果不佳,可多次尝试或调整提示词细节抽卡,直至找到满意设计。 希望这些方案能帮助您解决问题,创作出满意的海报封面。
2025-03-07
图片风格切换工具
以下是为您提供的关于图片风格切换工具的相关信息: Midjourney V6 风格参考命令: 前期需要测试的细节和使用方法,以及适用场景。 使用方法:在提示框输入提示词描述 + sref URL(链接) + sv 1/2/3/4 + sw 50。 细节:URL 链接为您上传的一张图片地址,sw 50(默认为 100 风格最强,0 为减弱到无,50 取中间值)。 为什么要用这种使用方法:在没有sw 命令的情况下,生成的图片风格变化最强,可能导致某些细节缺失。取 50 作为中间值在测试中效果较好,您也可适当调整。 场景测试:固定动漫场景、真实人物场景、插画场景、3D 角色。测试对比在没添加sw 的效果和添加sw 的效果。 测试例子:Dynamic representation Asuka Langley Soryu from Neon Genesis Evangelion,piloting her EVA unit in battle,wallpaper HD,in the style of vivid energy explosions,realistic and hyperdetailed renderings,precisionist art,photorealistic scenes,epic,glassy translucence,anime art,detailed and intricate environment,Unreal Engine,strong facial expression ar 16:9 sref https://s.mj.run/zZAmLlwiDCc sv 1 niji 6 悠船操作指南: 基础页面操作: 工具首页是一个类似首页的概念。 在此可输入画面描述(如“一个小女孩在跳舞”)并回车生成,“+”可点击上传图片。 可通过“关键词”搜到之前的作品。 中间是生成的作品,默认一次性生成 4 张。 左侧是每组作品的描述和参数。 “想象历史”类似文件夹,可快速找到往期作品。 创作调整: 正常输入提示词。 可调整生成图片的尺寸(长图或宽图)。 风格化:数字越大越艺术,但并非越大越好,取决于创作,人像不用调整过高。 怪异化:数字越大越奇怪,建议新手不用碰。 多样化:数字越大结果越意想不到,越低越接近提示词。建议新手一开始不用怪异和多样化,可做实验测试。 模式:默认标准,朴实 raw 会让图片质感更好,依个人喜好选择。 版本:默认最高 V6,二次元可选 NIJI。 生成图片的速度:默认快速,速度越快对支付套餐要求越高。 图片详情页:打开创作的图片进入详情页,可看到提示词,右上可下载对应图片,可进行参数调整。注意任何点击都会重新生成图片,免费用户可能会提示超出套餐。 【SD】一键切换不同画风,SDXL Styles 汉化版插件: 包含塞尔达传说、童话世界、文艺复兴、GTA、禅绕、印象派、蒸汽朋克等不同风格的示例,如林克骑马、小美人鱼、微笑的少女、拿枪的男人、玫瑰花、海边日出等。通过一个风格的切换,能实现以前需要各种模型和 lora 配合才能实现的效果。想要体验这款汉化插件,可添加公众号【白马与少年】,回复【SDXL】。
2024-10-25
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14