直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
怎么训练适合自己的ai智能体
要训练适合自己的 AI 智能体,您可以参考以下内容: 1. 了解智能体的发展历程:智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。 2. 认识智能体的特点:具有强大的学习能力、灵活性和泛化能力,能通过大量数据学习,适应不同任务和环境,将知识泛化到新情境。 3. 掌握核心要点:智能体的核心在于有效控制和利用大型模型,提示词设计直接影响智能体的表现和输出结果。 4. 实践操作: 基于公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等)尝试开发。 点击“浏览 GPTs”按钮和“Create”按钮创建自己的智能体。 使用自然语言对话或手工设置进行具体操作。 开始调试智能体并发布。 5. 在正式项目中部署 AI 智能体的建议: 先尝试使用提示,无法满足需求再考虑微调。 编写并测试提示,以其作为微调基线。 关注数据质量,必要时修正问题数据。 用真实场景数据微调,保留测试集。 选择适当的模型规模,设立快速评估指标。 执行完整评估,持续优化,灵活应变。
2025-02-12
deepseek怎么在电脑本地部署使用
以下是在电脑本地部署 DeepSeek 的步骤: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功的样子如相关说明。 2. 开通 DeepSeek R1 大模型:访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 。打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用,具体添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 此外,您还可以参考以下文章获取更详细的教程:《张梦飞:15 分钟零基础个人电脑部署 DeepSeekR1(无限制版)智能助手保姆级教程!》(https://waytoagi.feishu.cn/wiki/NjKBw4n8HikDZBkeyB4cDQVynKh?useEs6=0 ),该教程适用于完全没有 AI 部署经验的小白,详细介绍了如何在个人电脑上快速搭建 DeepSeekR1 本地 AI 助手,包括 Ollama 安装、DeepSeekR1 模型下载与运行、显存检查、终端指令操作、网页插件使用等环节,并提供了清晰的步骤图,确保 15 分钟内完成部署。
2025-02-12
我想通过ai做好电商
以下是关于通过 AI 做好电商的一些建议和相关信息: 利用 AI 绘画优化商品展示图: 如果您运营网店且资金有限无法请模特,可使用 Stable Diffusion 初步制作商品展示图。具体步骤包括真人穿衣服拍照,获取真实质感照片(若身材有问题可借助美图秀秀或 PS 处理),选好真人照片风格的底模(如 majicmixRealistic_v7),根据不同平台换头(如面向海外市场换白女头),在图生图下的局部重绘选项卡下涂抹替换部分,并设置合适的 prompts 和 parameters。 AI 在电商中的应用场景: 1. 医疗保健:医学影像分析辅助诊断疾病、加速药物研发、提供个性化医疗方案、控制手术机器人等。 2. 金融服务:风控和反欺诈、信用评估、投资分析、客户服务等。 3. 零售和电子商务:产品推荐、搜索和个性化、动态定价、聊天机器人等。 4. 制造业:预测性维护、质量控制、供应链管理、机器人自动化等。 利用 AI 数字人带货本地生活电商: 1. 用 ChatGPT 生成短视频选题文案,表明身份、描述需求并提出回答要求。 2. 用 ChatGPT 生产短视频文案,将需求与框架结合。 3. 生成虚拟数字人短视频:打开相关网站,在右侧文字框输入 ChatGPT 生成的内容,选择头像、国家和声音,点击 Create Video 等待生成,结合产品讲解后发布进行视频带货。
2025-02-12
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
给我图生图的大模型
以下为一些常用于图生图的大模型: 1. AbyssOrangeMix2:可将真人图片转为二次元风格,通过 DeepBooru 反推关键词,并结合 LORA“blindbox”重新生成,能生成 2.5D 人物风格的图片。 2. majicmixRealistic:在进行“图生图”的“涂鸦”功能时可选用,是一款追求真实性的模型。 3. revAnimated:适用于卡通类图片的图生图。 4. Realistic Vision:常用于真实类图片的图生图。
2025-02-12
facefusion
FaceFusion 是一个开源的换脸工具,以下是关于它的一些信息: 环境配置: 需要配置的环境包括 Python(3.10 版本)、PIP、GIT、FFmpeg、Microsoft Visual C++ 2015 可再发行组件包、微软 Visual Studio 2022 构建工具。 安装 Python 时需注意版本不能高于 3.7 到 3.10,因为 onnxruntime==1.16.3 需要 Python 版本在 3.7 到 3.10 之间,否则会导致 Python 环境不兼容要求的 onnxruntime 版本。推荐使用安装包下载安装:python 下载地址 https://www.python.org/downloads/ ,下载对应的版本后,点击安装,注意把它添加到系统的环境变量中,也可以使用命令行的安装方式。 安装完 FFmpeg 后需重新启动系统以使 FFmpeg 正常运行。 在安装微软 Visual Studio 2022 构建工具过程中,请确保选择桌面开发与 C++包。 启动和使用: 点击快捷工具中顶部的 JupyterLab,打开这个工具。通过终端来启动 facefusioin。 点击顶部的 + 号选项卡,新打开一个终端窗口。 在终端窗口中,输入 3 条命令做 3 件事情: 查看文件列表。输入 ls 并按回车,显示当前位置所在目录下的文件列表。 进入 facefusion 目录,输入 cd facefusion 并按回车,进入程序目录。 启动 facefusion。输入:python./run.py executionproviders cuda cpu 启动程序。注意后面的参数 executionproviders cuda cpu 非常重要,如果不加 cuda,则默认不使用 GPU 能力,推理将非常慢。 打开 facefusion 软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口。通过 web 浏览器来访问 facefusion 提供的 UI 界面。 在 facefusion 软件界面上,上传准备好的图片、视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。执行完成后,在输出的位置,会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击它可以导出变量后的视频到本地。 此外,FaceFusion 是一款面部交换和面部增强的开源软件,可以在本地运行。不仅可以将源图像中的面部与目标图像或视频中的面部进行交换,还提供了多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 更新,增加了摄像头功能,可以进行实时换脸和面部改造。FaceFusion 有多种选项和参数,允许用户根据需要进行定制。还内置了一些检查机制,以防止软件被用于不道德或非法的用途。GitHub:https://github.com/facefusion/facefusion 。相关视频演示:https://x.com/xiaohuggg/status/1699700109775397186?s=20 。
2025-02-12
我想做视频换脸
以下是关于视频换脸的相关信息: TecCreative 工具: 自动识别视频中的人脸,并将其替换为选择的脸部,实现在视频中快速、精确地替换人物的脸部。 操作指引:上传原始视频——上传换脸图片——点击生成 Viggle 工具: 图片+动作视频转视频、图片+文字动作描述转视频、文字转视频,可完成视频换脸。 功能: /mix: 将角色图像混合到动态视频中 /animate: 使用文本运动提示为静态角色设置动画 /ideate: 纯粹从文本创建角色视频 /character: 通过文本提示创建角色并将其动画化 /stylize: 使用文本提示符重新设计角色的样式并将其动画化 操作指引: /mix: 1. 上传一张字符清晰的图片 2. 上传一段清晰运动的视频 /animate: 1. 上传一张字符清晰的图片 2. 描述你想让你的角色做的动作 /ideate: 1. 描述你想要创造的角色 2. 描述您希望角色执行的动作 /character: 1. 描述你想要创造的角色 2. 从四个结果中选择一个图像 3. 描述您希望角色执行的动作 /stylize: 1. 上传一张字符清晰的图片 2. 描述你想改变角色的任何地方来重新塑造它 3. 从四个结果中选择一个图像 4. 描述你想要角色做的动作 提示词地址:https://viggle.ai/prompt AI 摊主速成脑暴会: 视频换脸项目,积分:60 积分
2025-02-12
在2025年2月12日这个时间点,我有哪些方式可以快速,稳定的使用 deepseek r1
在 2025 年 2 月 12 日,您可以通过以下方式快速、稳定地使用 DeepSeek R1: PPIO 派欧云(https://ppinfra.com/modelapi/product/llmapi?utm_medium=article&utm_source=WayToAGI):提供满血版全版本的 DeepSeekR1,输入价格为¥4/百万 tokens,输出价格为¥16/百万 tokens。有开发者福利,新注册立得 500 万 tokens(关注 PPIO 公众号回“deepseek”再领 1 亿),初创企业认证有 10 万算力补贴。产品服务特点为服务稳定性 99.9%,保持 0 故障,与 DeepSeek 官方同价,客户支持通道 10 分钟响应。 百度智能云:DeepSeekR1 限时免费,配额 1000RPM/10000TPM,无调用 tokens 上限。本模型将于 2025 年 2 月 19 日 00:00 起正式商用计费,输入价格 0.002 元/千 tokens,输出价格 0.008 元/千 tokens,有在线体验。 硅基流动:DeepSeekR1 输入价格为¥4/M Tokens,输出价格为¥16/M Tokens,有在线体验。2025 年 2 月 6 日起,未实名用户每日最多请求此模型 100 次。 此外,在 2 月 12 日,还有以下相关内容: 《》,来自社区伙伴 Hua 的投稿,手把手指导您在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 《》Anthropic 正式发布 Anthropic AI Economic Index,聚焦 AI 对经济的长期影响。该指数直观展现 AI 如何融入现代经济的各类实际任务,并从职业(occupation)和具体工作任务(task)两个维度,量化 AI 对劳动力市场的影响。 《》DeepSeekR1 的火爆现象背后,企业可以获得显著提升。其强化学习和联网搜索能力,改变了信息获取方式,从“检索—阅读—摘要”转变为“提问—获得答案”,大幅提升工作效率。同时,DeepSeek 的开源策略打破了技术垄断,让国内大模型能力迅速提升。
2025-02-12
我做餐饮服务相关的投标文件,能用到哪些ai工具或平台能让我提高工作效率
以下是一些在制作餐饮服务投标文件时可能提高工作效率的 AI 工具和平台: 1. AutogenAI:伦敦初创公司开发的基于生成型人工智能的工具,声称可以帮助企业撰写更强的提案,提高中标率。能将撰写强大提案的过程加快 800%,同时降低 10%的采购成本。 2. Synthesia:允许用户创建由 AI 生成的高质量视频,包括数字人视频。可用于制作营销视频、产品演示等。 3. HeyGen:基于云的 AI 视频制作平台,用户可从 100 多个 AI 头像库中选择,并通过输入文本生成数字人视频。适合制作营销视频和虚拟主持人等。 4. Jasper AI:人工智能写作助手,可用于生成营销文案、博客内容、电子邮件等。提供多种语气和风格选择,写作质量较高。 5. Copy.ai:AI 营销文案生成工具,可快速生成广告文案、社交媒体帖子、电子邮件等营销内容。有免费和付费两种计划。 6. Writesonic:AI 写作助手,专注于营销内容创作,如博客文章、产品描述、视频脚本等。提供多种语气和行业定制选项。 您还可以查看 WaytoAGI 网站(https://www.waytoagi.com/sites?tag=8)获取更多相关信息。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-12
文章生成长视频
以下是关于文章生成长视频的相关信息: 主流文生视频技术发展路径: 自回归模型与 GANs 相比,具有明确的密度建模和稳定的训练优势,能通过帧与帧之间的联系生成更为连贯且自然的视频,但受制于计算资源、训练所需的数据和时间,模型本身参数数量通常比扩散模型大,对计算资源和数据集要求较高。自回归模型发展经历了三个阶段。 扩散模型是当前主要的文本到视频模式所采用的基于扩散的架构,2022 年 4 月 Video Diffusion Model 的提出标志着扩散模型在视频生成领域的应用。在视频生成中,基于 Stable Diffusion 的模型往往使用 2D 图像作为处理单位,并通过添加时间注意力或时间卷积来尝试捕捉视频中的时间序列信息,但在建模时间维度时通常较为弱效,导致生成的视频动作幅度小、连贯性差。现阶段,扩散模型已成为 AI 视频生成领域的主流技术路径。 文字生成视频的 AI 产品: 1. Pika:擅长动画制作,并支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,在图片基础上直接生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看: Meta 发布 Meta Movie Gen 文生视频模型: 在时间平铺推理中,输入视频在时间维度上被分割成多个片段,每个片段独立进行编码和解码,然后在输出时将所有片段重新拼接在一起。这种方法不仅降低了对内存的需求,还提高了推理的效率。此外,在解码阶段使用了重叠和混合的方式来消除片段边界处的伪影问题,即通过在片段之间引入重叠区域,并对重叠区域进行加权平均,确保生成的视频在时间维度上保持平滑和一致。Meta 还开源了多个基准测试数据集,包括 Movie Gen Video Bench、Movie Gen Edit Bench 和 Movie Gen Audio Bench,为后续研究者提供了权威的评测工具,有利于加速整个领域的进步。这篇长达 92 页的论文还介绍了更多在架构、训练方法、数据管理、评估、并行训练和推理优化、以及音频模型的更多信息。感兴趣的可到文末链接查看。
2025-02-12