直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
给我一个siliconflow部署deepseek的教程
以下是关于 siliconflow 部署 deepseek 的教程: 基于 FP4 优化的 DeepSeekR1 使用 TensorRTLLM 部署: 模型地址:https://huggingface.co/nvidia/DeepSeekR1FP4 硬件要求:需要支持 TensorRTLLM 的英伟达 GPU(如 B200),并且需要 8 个 GPU 来实现 tensor_parallel_size=8 的张量并行。 性能优化:代码利用 FP4 量化、TensorRT 引擎和并行计算,旨在实现高效、低成本的推理,适合生产环境或高吞吐量应用。 在 Docker+RAGFlow+Ollama 中配置本地部署的 DeepSeek 模型: 返回 RAGFlow 中,打开右上角设置,进入模型提供商。 选择 Ollama,配置相关信息,基础 URL 如下配置。 配置完成后点击确定。 导入一个 embedding 模型,用于文本的向量化。 设置系统模型设置。 进入数据集,导入文件,可设置文件夹当作知识库。 对文件进行解析,解析速度取决于本机 GPU 性能。 解析完成后进行检索测试,没问题即可进入聊天界面。 云端模型部署实操: 登录 Pad 控制台,讲解 model gallery 工具及模型。 演示部署 Deepseek R1 和千问 7B 模型,包括选框架、资源、出价等。 介绍查看部署状态、日志方法。 说明用 postman 在线调试模型获取名称及后续使用方式。 模型蒸馏概念、应用场景及本地部署实操: 先介绍云平台部署情况。 讲解模型蒸馏概念、方式,阐述其应用场景及修复模型幻觉的作用。 进行实操演示,带领大家在 model gallery 部署 7B instruct 模型,展示部署步骤、资源竞价等内容,部署完成后用简单问题测试模型并呈现错误回答。
2025-03-18
GPT是什么
GPT 是“生成式预训练变换器”(Generative Pretrained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。 首个 GPT 由 OpenAI 于 2018 年推出。GPT 模型是基于 Transformer 模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。 截至 2023 年,大多数 LLM 都具备这些特征,并广泛被称为 GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。 2018 年,OpenAI 发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT1”。 ChatGPT 是一种基于 GPT 架构的人工智能模型,由 OpenAI 开发。它是目前最先进的人工智能模型,是一种自然语言处理(NLP)工具,能够理解和生成接近人类水平的文本。目前 ChatGPT 官网有 GPT3.5 和 GPT4 两个版本。
2025-03-18
用deepseek赋能家庭教育
以下是关于使用 DeepSeek 赋能家庭教育的相关信息: 清华大学发布的《》,首先介绍了选择 AI 学习工具的方法及 DeepSeek 的多种使用入口、模式对比。接着阐述了在家庭教育中的基础聊法原则、互动策略和多种场景化聊法模版。然后通过多学科案例展示其辅助学习的方式,还涉及亲子沟通、情绪管理、职业规划等内容。最后介绍了 DeepSeek 在不同教育场景下与其他工具组合的应用范式,为家庭教育提供了全面的 AI 使用指南。 此外,还有其他相关报告,如《》
2025-03-18
大语言模型的技术原理
大语言模型的技术原理包括以下几个方面: 1. 相关概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归)、无监督学习(学习的数据没有标签,算法自主发现规律,经典任务如聚类)、强化学习(从反馈里学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 2. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。 3. 工作原理: 包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。 Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的 temperature。 Transformer 模型通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。 4. 可能存在的问题:大模型可能因错误数据导致给出错误答案,即大模型幻觉,优质数据集对其很重要。 5. 相关应用: 国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。 Fine tuning 微调是基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。
2025-03-18
文本转方言配音
以下是关于文本转方言配音的相关信息: 出门问问 Mobvoi: 语音合成(TTS)API 获取地址:https://open.mobvoi.com/api/tts/v1 。 接口请求频率限制:5 次/秒。 可以将任意文本转化为语音,应用场景广泛,如视频 APP 配音解说、小说 App 有声阅读等。 提供普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格。 实时合成支持 SSML,语法详见 SSML 标记语言。 喂饭级教程: 选择角色,如阿珍,语言先选中文。 情绪选择常规——绘声绘色。 先不管语速语调,点击右下角生成按钮试听,若不符合要求可调整,如更换音色、调慢语速等。 该工具对新手友好,还加入了转译功能,可将文本自动转译为英文、日文、粤语。 其他 AI 工具: 支持 50 多种语言的配音,音质自然流畅,提供实时配音功能,能将语音转录为文本,与多种工具整合。 Vidnoz AI 支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,有面向个人和企业的定价方案。 在选择视频配音工具时,需考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2025-03-18
推荐一些AI作曲工具
以下是为您推荐的一些 AI 作曲工具: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具,它通过先进的深度学习技术,能够将用户的输入转化为富有情感且高质量的音乐作品。网址:https://suno.com/ 需要注意的是,内容由 AI 大模型生成,请仔细甄别。在使用 AI 作曲工具时,掌握一些基本的音乐知识,如基本的节拍参数、基础乐器的描述和组合、主歌副歌的结构常识等,对于创作制作至关重要。同时,要避免一些不切实际的想法,如传一首周杰伦的歌上去复制一堆周杰伦风格的歌等。另外,对于 AI 音乐 MV 的制作,建立角色资产可以考虑使用 AI 绘画平台,如 Midjourney(条件允许时的首选)、可灵 AI、即梦 AI 等成熟的综合类工具,或者 Krea 之类的集成平台。
2025-03-18
我准备用无影云电脑部署一个独属于我们公司的AI,在大模型方面我准备用deepseek的满血版,你有什么建议吗
以下是关于您准备用无影云电脑部署公司专属 AI 并使用 deepseek 满血版大模型的一些建议: 1. 本地部署方面:如果拥有云服务器,要了解如何进行本地部署以及满血版本地部署的实际情况。 2. 免费额度:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 3. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 4. 模型蒸馏微调:可以学习并实践模型的蒸馏和微调相关知识。 5. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。 若有提示未开通模型,点击“立即开通”,勾选全部模型和协议一路开通。 确认无误后点击“确认接入”按钮。 复制推理点的 ID 并保存。 点击【API 调用】按钮,复制 API Key 并保存。 6. 模型选择与配置:可以参考理想的配置,如推理模型选择 gemini2.0flashthinking,代码模型选择 claude3.5sonet 或 gpt4omini,多模态模型选择 gemini2.0flash,常规模型选择 DeepSeek V3。同时,了解 OpenRouter 新发布的 BYOK 功能,它能集成第三方 Key,整合免费额度并解放更多槽位。若对现有供应商支持的模型不满意,还可考虑 simpleoneapi。
2025-03-18
在国内用什么ai生成ppt更好一些
在国内,以下两款 AI 生成 PPT 的工具值得推荐: 1. 爱设计 PPT: 拥有实力强大的团队,技术过硬且对市场需求有敏锐洞察力,能持续推动产品创新和进步。 成功把握住 AI 与 PPT 结合的市场机遇,迅速开发出产品。 已在国内 AI 生成 PPT 产品中确立市场领先地位,代表了当前国内 AI 辅助 PPT 制作的最高水平,能大大提高制作效率并保证高质量输出。 2. 闪击: 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite ,国内网站,不需要魔法。 选择模版,输入大纲和要点(可参考官方使用指南:https://zhuanlan.zhihu.com/p/607583650 ),将大纲转换成适配闪击的语法,点击文本转 PPT 并确定,在线编辑,导出(PPT 需要会员才能导出)。
2025-03-18
ai进行需求评审
AI 进行需求评审包括以下方面: AI Review(测试版):这是一项能让您查看代码库中近期更改以捕获潜在错误的功能。您可以单击审阅项查看编辑器中的完整上下文,并与 AI 聊天获取更多信息。为让其更有利,您能提供自定义说明让 AI 专注,比如关注性能相关问题。目前有几个审核选项,如查看工作状态、查看与主分支的差异、查看上次提交。 在 AI 编程中,需求梳理极为重要: 明确要解决的问题,从用户角度出发,清晰定义痛点和期望,如用户希望通过图像识别解决的具体问题。 明确 AI 在问题中的角色和作用,评估其能力边界。 制定明确可量化的评估指标,如准确率、召回率等,衡量 AI 系统性能和效果。 规划好数据的来源、质量和数量。 要在需求梳理和界面交互上花费最多时间。 周周黑客松中关于 AI 编程的需求拆解: 让 Claude 帮忙拆解需求,如插件自动读取网页主要内容并传输给 LLM agent bot,bot 处理为 HTML 代码返回,插件渲染,提供保存为图片选项等。 进行方案设计和分工,使用 AI 编码工具开发,确保程序架构良好,分离为主要模块放在不同文件夹,定义好接口,开发完成后拼接测试,有问题或新需求修改开发文档,尽量多打印日志方便 debug。 具体分工如元子负责内容提取模块,实现网页内容提取、清理格式化和优化提取算法;lark 负责 API 通信模块,实现与 LLM agent bot 的通信及相关处理和错误处理重试机制。
2025-03-18
请推荐一个中文版的AI编程助手以及编程工具
以下为您推荐一些中文版的 AI 编程助手及编程工具: 1. AIXcoder:是 AI 驱动的编程助手,支持 Java、Python 和 JavaScript 等语言,提供自动任务处理、智能代码补全等功能,目前只有中文版,价格暂无信息。 2. Windsurf:提出了 Agent IDE 这种新的开发范式,Cascade 功能对应 Cursor Composer,在体验上有提升,包括深入理解现有代码库等,但有程序员反馈其 tab 自动补全不如 Cursor。 希望这些推荐对您有所帮助。
2025-03-18