直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

本地安装大模型的硬件配置是什么

回答

本地安装大模型的硬件配置如下:

  • 生成文字大模型:
    • 最低配置:8G RAM + 4G VRAM
    • 建议配置:16G RAM + 8G VRAM
    • 理想配置:32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)
  • 生成图片大模型(比如跑 SD):
    • 最低配置:16G RAM + 4G VRAM
    • 建议配置:32G RAM + 12G VRAM
  • 生成音频大模型:
    • 最低配置:8G VRAM
    • 建议配置:24G VRAM

例如,Fooocus 本地部署需要不低于 8GB 的内存和 4GB 的英伟达显卡。但需注意,最低配置可能运行非常慢。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

【SD】SD的大哥Fooocus重磅问世,三步成图傻瓜式操作

Fooocus使用的是最新推出的SDXL 1.0模型,对stable diffusion和Midjourney做了结合升级:1、保留了SD的开源属性,可以部署到本地免费使用;2、在操作界面吸取了midjourney简洁,省去了WebUI中复杂的参数调节,让用户可以专注于提示和图像。下图就是Fooocus的操作界面。翻译一下:只有图像展示窗口、正向提示词和生成按钮3项。勾选“Advanced”会弹出高级设置的窗口,可以调整画面宽高比、风格、图像数量、种子值、反向提示词、模型、lora权重比值、图像锐利程度等。风格选项这一块是整合了各种常见的画面风格供选择,包含了100多种不同的预设风格,涉及写实、胶片、电影质感、动漫、水彩、黏土、3D、等距、像素、霓虹、赛博朋克、波普、纸艺等各个方面:高级选项这部分是用于设置模型,lora,清晰度等。非常简单且容易上手,很值得试一试。二、Fooocus安装:配置要求:本地部署,需要不低于8GB的内存和4GB的英伟达显卡。Fooocus介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G)使用指南:https://github.com/lllyasviel/Fooocus/discussions/117大模型(base和Refiner)默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\checkpoints

【SD】向未来而生,关于SDXL你要知道事儿

SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

其他人在问
AI硬件
以下是关于 AI 硬件的相关信息: 扣子 AI 工坊 硬件专场 推出全套硬件方案,将 DeepSeek 最新模型接入 AI 硬件,实现 1+1>2。 活动亮点: 硬件实验室:现场设置智能硬件展示,看脑洞大开的产品。 硬件场景分享会:扣子硬件场景最佳实践和 2025 年硬件解决方案分享。 开发者体验营:开发者现场开发 AI 硬件,提供硬件开发板,60 分钟内完成“唤醒交互响应”全链路开发,40 分钟作品现场展示解说,展示作品的开发者可获得扣子周边礼物。 硬件厂商需求墙:与硬件厂商、开发者、扣子官方同学现场交流。 分享嘉宾(排名不分先后):曾德钧(猫王妙播音响创始人/设计师)、刘琰(机智云联合创始人兼 CTO)、颜伟志(扣子开放体系技术负责人) 活动报名:扫描二维码报名,现场有拍立得、音响、扣子周边等礼品。报名时间为即日起至 2025 年 2 月 26 日。 2025 年 AI 指数报告 硬件的进步在推动 AI 发展中起着关键作用。在扩展模型和在更大的数据集上进行训练带来显著性能改进的同时,这些进步在很大程度上得益于硬件的改进,特别是更强大和高效的 GPU(图形处理单元)的发展。GPU 加速复杂计算,允许模型并行处理大量数据并显著减少训练时间。 Will's GenAI 硬件榜 2024 年 8 月 GenAI 硬件的定义:利用了 GenAI 技术,主要是 LLM,包括在音频生成、翻译、视觉采集并解读,和硬件结合,以可穿戴为主,逐步渗透的新品类硬件,以 Meta 雷朋眼镜为代表。 榜单受众:GenAI 硬件创始人、投资人、从业者等。 榜单标的:以北美市场的视角,销量、影响力为主。 榜单初心:随着 Meta 眼镜的成功,GenAI 硬件爆发在即,本榜单每月从多角度围观这一现象,旨在给创业者提供参考。 本次更新(9.19): 更新亚马逊销量、独立站流量、新品发布、融资信息,排序标准以媒体综合指数改为 Tiktok 热度。 完善挂件、戒指、眼镜等分类榜数据。 榜单包括 15 个重要榜单,更多榜单可通过文末“阅读原文”免费访问或直接访问飞书链接。数据来源:google、tiktok、twitter、亚马逊。对于榜单内容有疑问想交流的 GenAI 硬件创始人,或者想合作转载内容的公众号博主,请加微信,或者在本文末留言。
2025-04-15
现在比较好用的AI硬件工具推荐一下,比如鼠标,眼镜,耳机啥的
以下是为您推荐的一些 AI 硬件工具: 1. 对于将 Raspberry Pi 连接到其他设备的配件,您可以参考: 防止过热的散热器 MicroUSB 转 USB 适配器,用于 Logitech 键盘的无线传感器 用于显示器的 MiniHDMI 转 HDMI 适配器 键盘和鼠标:推荐 2. 在可穿戴方面,以 GenAI 硬件为例,Meta 雷朋眼镜是具有代表性的产品。您还可以查看 GenAI 硬件榜单获取更多信息,比如: ,该榜单包含多个分类,数据来源包括 google、tiktok、twitter、亚马逊等。
2025-04-13
本地部署大模型硬件配置
本地部署大模型的硬件配置如下: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置可能运行速度非常慢。对于 SDXL 大模型的本地部署,其分为两个部分,base + refiner 是必须下载的,还有一个配套的 VAE 模型用于调节图片效果和色彩。要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上,然后将模型放入对应的文件夹中。对于通义千问的 Qwen2.5 1M 模型的本地部署,使用以下命令启动服务时要根据硬件配置进行设置,如设置 GPU 数量、最大输入序列长度、Chunked Prefill 的块大小、限制并发处理的序列数量等。如果遇到问题,可参考相关的 Troubleshooting 内容。与模型交互可以使用 Curl 或 Python 等方法,对于更高级的使用方式,可以探索如 Qwen Agent 之类的框架。
2025-03-31
coze开发硬件接入ai
如果您想开发硬件接入 Coze 智能体,以下是一些相关信息: 在服务器设置方面,对于 chatgptonwechat(简称 CoW)项目,可点击“Docker”中的“编排模板”中的“添加”按钮。备注说明版可借用“程序员安仔”封装的代码。将编译好的内容复制进来,在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”,若无法正常启动,可查看文档后面的“常见问题”。 关于计划,包括弄共学、做网页连接 Coze 等,涉及网页、小程序、App、桌面应用、浏览器插件等方面,还提到了硬件相关的工作安排。 在入门 Coze 工作流方面,首先要明确任务目标与执行形式,包括详细描述期望获得的输出内容(如文本、图像、音频等形式的数据,以及具体格式和结构、质量标准),预估任务的可行性,确定任务的执行形式。例如对于一篇文章,可参照特定框架进行微调,评估任务可行性,结合使用习惯确定预期的执行形式。
2025-03-27
AI硬件
以下是关于 AI 硬件的相关信息: 扣子 AI 工坊将于 3 月 1 日在深圳举办硬件专场活动。活动亮点包括硬件实验室、硬件场景分享会、开发者体验营、硬件厂商需求墙等。分享嘉宾有曾德钧、刘琰、颜伟志等。可扫描二维码报名,报名时间为即日起至 2025 年 2 月 26 日,现场有礼品。 Will's GenAI 硬件榜 2024 年 8 月发布,榜单受众为 GenAI 硬件创始人、投资人、从业者等,以北美市场的销量、影响力为主,本次更新完善了相关数据和分类榜,更多榜单可通过链接访问。 峰瑞报告中提到,在 ToP 领域,峰瑞投资的冰鲸科技是一家 AI 智能硬件公司,推出了集成端侧 GPU 的旗舰产品 ZimaCube。ToB 方面,AI 应用进入企业内部可从“独立业务模块”和“通用技能模块”切入。
2025-03-26
有coze硬件的案例吗
以下是一些关于 Coze 硬件的案例: 1. 一泽 Eze:用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力。 分步构建和测试 Agent 功能:首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建。左侧「选择节点」模块中,实际用上的有插件、大模型、代码。按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 2. 90 分钟从 0 开始打造你的第一个 Coze 应用:证件照 2025 年 1 月 18 日副本。 智能纪要:Code AI 应用开发教学,背景是智能体开发从最初的 chatbot 只有对话框,到有了更多交互方式,因用户需求扣子推出了 AI 应用,其低代码或零代码的工作流等场景做得较好。 3. 大雨:【场景驱动】企业的哪些重复性任务,最适合用 Coze 循环节点来解决? 案例展示:出海品牌设计师。早起智能体的逻辑通过工作流承载,比如让 AI 出图以后,希望在它的基础上再修改,直到满意为止,这种情况没有循环节点,整个工作流会非常复杂。从这个案例可以明显感受到,在智能体的交互上,循环节点的出现,带来极大的可能性。部分工作流的截图体现出 Coze 在实际业务场景上,具有非常巨大的商业价值。
2025-03-25
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
trae 推荐安装那个版本的 vscode插件
在 Trae 中安装 VS Code 插件可以通过以下方式: 1. 从 Trae 的插件市场安装: 在左侧导航栏中,点击插件市场图标,界面左侧显示插件市场面板。 搜索您想要的插件并在未安装列表中将其选中,界面上显示该插件的详情窗口,展示该插件的详细说明、变更日志等信息。 点击安装,Trae 开始安装该插件。安装完成后,该插件会出现在已安装列表中。 2. 从 VS Code 的插件市场安装: 前往。 搜索您想要的插件,例如:Pylance。 在搜索结果中,点击您所需的插件,您会前往该插件的详情页。 在详情页中,点击 Version History。 结合插件页的 URL 和 Version History 中的信息,提取出以下信息(以 Pylance 为例): itemName:URL Query 中的 itemName 字段,如截图中的 mspython.vscodepylance,并将小数点(.)前后的内容分成以下两个字段: fieldA:mspython fieldB:vscodepylance version:如截图中的 2025.1.102 使用提取出来的 3 个字段的值替换下方 URL 中的同名字段。 在浏览器中输入修改后的 URL,然后按下回车键,浏览器开始下载该插件。 下载完成后,返回 Trae 并打开插件市场。 将下载的.vsix 文件拖拽至插件市场面板中,Trae 开始自动安装该插件。安装完成后,该插件会出现在已安装列表中。 此外,如果 VS Code 插件市场中某个版本的插件依赖了新版 VS Code 中的某些接口,则可能会导致该插件与 Trae 不兼容。您可以查看该插件的 Version History,然后下载该插件的历史版本。 管理插件还包括禁用插件和卸载插件: 1. 禁用插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需禁用的插件。 鼠标悬浮至列表中的插件,然后点击设置>禁用。或点击该插件以打开其详情窗口,然后点击禁用。 2. 卸载插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需卸载的插件。 鼠标悬浮至该插件,然后点击卸载。或点击该插件以打开其详情窗口,然后点击卸载。
2025-04-19
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
python环境安装
以下是 Python 环境安装的步骤: 1. 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 2. 在命令窗口中,粘贴入以下代码,确认是否有 Python 和 pip。 3. 两步命令输入完,核对一下: 如果有的话,会分别显示出版本号。那么可以跳过“安装环境这一步,直接到“二、部署项目”。 如果没有的话,需要进行安装。 4. 安装 Python: 对于 Windows 系统,可以点击以下链接下载安装包: (有小伙伴说下载不了,可去公众号【Equity AI】回复“HOOK”获取下载地址:https://www.wenshushu.cn/f/ec5s5x1xo3c) 对于 Mac 系统,可以点击以下链接下载安装包: 5. 安装注意: 安装时务必勾选"Add Python to PATH"选项。 建议使用默认安装路径。 6. 安装完成后,关闭窗口,再次运行之前的两行命令确认是否安装成功。
2025-04-08
学习python为什么要安装pandas,juptyer
学习 Python 安装 pandas 和 Jupyter 的原因如下: 数据处理基础:pandas 是 Python 的核心数据分析支持库,提供了快速、灵活、明确的数据结构,旨在简单、直观地处理关系型、标记型数据。在数据处理中,如读取数据(pd.read_csv)等操作都依赖于 pandas 库。 开发环境:Jupyter Notebook 是一种交互式的编程环境,非常适合进行数据分析和探索性编程。它可以让您逐段运行代码,方便查看中间结果,并且能够将代码、文本和图像等内容整合在一个文档中,有助于更好地理解和展示数据分析的过程和结果。代码也适合在其他 IDE(如 PyCharm、VS Code)中运行。 在一些实践项目中,如基于泰坦尼克号数据集绘制堆叠柱状图及搭建预测模型、用 Kaggle 的天气数据集绘制气温趋势折线图与月降雨天数柱状组合图、鸢尾花数据多维分布探索与交互可视化实践等,都需要 Python 基础与环境配置,包括通过 pip 安装 pandas 库,以及在 Jupyter Notebook 或其他 IDE 中运行代码。
2025-04-08
trae如何安装
以下是 Trae 的安装步骤: 1. 由于 Trae AI 官网部署在海外,且其本身需要使用海外的大模型,所以需要通过 VPN 等方式科学上网。 2. 在官网(https://www.trae.ai/download)直接点击下载,Trae 会自动识别您的电脑芯片。 3. 下载完成后,如果是 Mac 系统,将左侧的 Trae 应用拖动到右侧的文件夹内;如果是 Windows 系统,双击 Trae 图标,即可完成安装。 4. 安装完成后,点击图标启动,进行以下简单设置: 选择主题背景和默认语言,可选择中文。 对于提供的 Cursor、VS Code 等其他 AI 编程工具的配置和插件迁移,如果是第一次使用类似工具,可直接点“Skip”选项。 对于不理解意思的设置,直接点“Skip”选项。 5. 选择合适的登录方式,登录方式包括 Google 账号登录、Github 账号登录、邮箱登录。如果没有账号,可新注册一个账号。推荐有余力的用户访问 Github 官网(https://github.com/)注册。 注意:Trae 仅在部分地区可用,可能需要开启科学上网。登录完之后,若出现“App Unavailable”提示,可能是所在地区不可用,此时需要开启科学上网。网页登录成功之后可以把科学上网关掉。
2025-04-08
linux下安装 anythingLLM
以下是在 Linux 下安装 AnythingLLM 的相关指导: 1. 安装地址:https://useanything.com/download 。 2. 安装完成后会进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 3. AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据进行隔离。 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 4. 完成上述配置后,即可与大模型进行对话。 此外,在 GitHubDaily 开源项目列表 2023 年复盘的 AIGC 部分中,也有关于 AnythingLLM 的介绍: 是一个可打造成企业内部知识库的私人专属 GPT!可以将任何文档、资源或内容转换为大语言模型(LLM)知识库,使得在对话过程中可引用到里面的内容。 本文的思路来源于视频号博主黄益贺,作者按照他的视频进行了实操,并附加了一些关于 RAG 的额外知识。
2025-03-27
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出10个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您生成的 10 个业务价值高、具备可行性的 AI 应用场景介绍: 1. 人才招聘与筛选 What:利用 AI 技术对求职者的简历进行自动筛选和分析,评估其与岗位的匹配度。 Why:节省 HR 大量的时间和精力,提高招聘效率和准确性。 How:通过自然语言处理和机器学习算法,训练模型识别关键信息和技能。 2. 员工培训与发展 What:根据员工的技能水平和职业发展目标,定制个性化的培训计划。 Why:提升员工的能力和绩效,增强员工对企业的忠诚度。 How:利用大数据分析员工的工作表现和学习需求,推荐相关课程和学习资源。 3. 薪酬福利管理 What:运用 AI 预测市场薪酬趋势,为企业制定合理的薪酬策略。 Why:保持企业薪酬的竞争力,吸引和留住优秀人才。 How:收集和分析行业薪酬数据,结合企业的财务状况和战略目标进行优化。 4. 员工绩效评估 What:借助 AI 实时监测员工的工作表现,提供客观的绩效评估。 Why:减少人为偏差,确保评估的公正性和准确性。 How:利用工作流程数据和行为分析模型进行评估。 5. 员工关系管理 What:通过 AI 分析员工的情绪和满意度,及时发现问题并解决。 Why:营造良好的工作氛围,提高员工的工作积极性和创造力。 How:使用情感分析技术处理员工的反馈和交流信息。 6. 组织架构优化 What:利用 AI 分析企业的业务流程和人员配置,提供组织架构调整建议。 Why:提高企业的运营效率和灵活性,适应市场变化。 How:基于数据分析和模拟优化算法进行评估和推荐。 7. 人力资源规划 What:根据企业的战略目标和业务发展预测人力资源需求。 Why:提前做好人才储备和招聘计划,保障企业的正常运营。 How:运用数据分析和预测模型进行规划。 8. 企业文化传播 What:使用 AI 生成个性化的企业文化宣传内容,提高传播效果。 Why:增强员工对企业文化的认同感和归属感。 How:利用自然语言生成技术和个性化推荐算法。 9. 智能客服 What:在 HR 服务中引入 AI 客服,解答员工常见问题。 Why:快速响应员工需求,提高服务质量。 How:训练智能客服模型,涵盖常见的 HR 问题和解决方案。 10. 人才库管理 What:利用 AI 对人才库进行分类和更新,提高人才库的利用效率。 Why:方便快速找到合适的人才,降低招聘成本。 How:运用数据挖掘和分类算法进行管理。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出3-5个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您提供的 3 个业务价值高、具备可行性的 AI 应用场景介绍: 场景一:AI 在企业招聘中的应用 What:利用 AI 技术进行简历筛选、人才匹配和面试评估。 Why:能够快速处理大量简历,提高招聘效率和准确性,节省人力和时间成本,同时更精准地找到符合岗位需求的人才。 How:通过引入相关的 AI 招聘软件,与企业现有的招聘系统集成,对简历进行关键词提取和分析,利用机器学习算法进行人才匹配,并通过视频面试中的语音和表情分析辅助评估候选人。 场景二:AI 助力个性化人力资源管理 What:根据员工的个人特点和工作表现,提供个性化的培训计划、职业发展建议和绩效评估。 Why:能够充分发挥员工的潜力,提高员工满意度和忠诚度,促进企业的长期发展。 How:收集员工的工作数据、学习记录和绩效表现等信息,运用 AI 算法进行分析和预测,为员工制定专属的发展方案,并通过移动应用或内部系统向员工推送相关建议和培训课程。 场景三:AI 打造无人值守的 HR 平台 What:实现 HR 业务的自动化处理,如员工请假审批、薪酬计算和福利发放等。 Why:减少人工操作的错误和繁琐流程,提高 HR 工作的效率和准确性,使 HR 人员能够专注于更有价值的战略工作。 How:整合企业内部的各种 HR 系统和数据,利用 RPA 和 AI 技术实现流程的自动化,同时建立监控和预警机制,确保平台的稳定运行。
2025-04-14
AI服务器配置
以下是关于 AI 服务器配置的相关内容: 对于 Coze AI 机器人对接微信的服务器配置: 1. 如果按照上一篇教程操作,此次配置只需修改容器编排模板。最新的容器编排模板如下,同时提供无描述性的参考配置方便新手直接参考使用。 2. 若之前没有容器编排模板,新建一个即可,新建和修改逻辑类似。 3. 更新后的编排模板,若之前创建过相似机器人容器编排服务,建议先删除以防冲突,删除步骤如下。 4. 基于新的编排模板创建新的容器编排,然后启动服务。 5. 服务启动成功后,进入 COW 服务扫码绑定微信机器人,具体步骤参考上一篇入门教程。 对于视频相关的 AI 服务器配置: 1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbpr8j2ftq0&regionId=8&zone=apbeijing3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lhconsole ,并根据以下配置购买。 2. 购买并付款完成后,回到服务器“控制台”。 3. 点击服务器卡片空白处添加防火墙,添加 8887、8080 端口。 4. 点击右上角“登录”按钮,扫码验证后在命令行窗口中操作,注意复制粘贴代码的方式和命令执行完毕的标志。 5. 在命令行中依次输入相关命令。 6. 保存并打开外网面板地址,输入账号和密码。
2025-04-10
微信机器人如何配置
微信机器人的配置步骤如下: 1. sum4all 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 sum4all 插件目录下的 config.json.template,复制并粘贴重命名为:config.json 注册并获取 sum4all key:https://pro.sum4all.site/register?aff=T6rP ,新用户注册有送免费额度,大家先使用这个进行试用,后续可改为自己的 openAI key。 把复制的 key,粘贴到 sum4all 的 config.json 文件内。(上方有功能阐述,你想要哪个,就把哪个改成 ture) 2. Apilot 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 Apilot 文件下的 config.json.template,复制并粘贴重命名为:config.json 去 https://admin.alapi.cn/account/center 注册,并复制 key 把复制来的 key,粘贴进入。保存。 3. 分段对话配置替换 找到这个路径:/root/chatgptonwechat/channel/wechat,直接下载以下文件进行替换。 此外,微信的配置相对较简单,只需要主项目的 config.json 文件看看是否有"channel_type"参数,参数值为:"wx",即:"channel_type":"wx"。完成以上所有配置部分后,可以准备启动步骤了: 使用 nohup 命令在后台运行程序。 执行完启动脚本,等待 30s 左右,会看到终端有一个微信登录的二维码,微信扫码登录。 如果您想使用更多辅助功能,比如使用总结文件能力,总结网页内容能力,此时需要安装各种插件。这部分配置查看插件配置管理部分。
2025-04-10
有没有专门学习配置微信机器人和企业微信机器人的相关教学视频
以下是一些专门学习配置微信机器人和企业微信机器人的相关教学视频: 【共学最全版本】微信机器人共学教程: 日程安排: 6 月 19 日 20:00 开始:从零到一,搭建微信机器人,参与者要求为 0 基础小白,分享人为张梦飞,主持人为小元,助教为金永勋、奥伏。 6 月 20 日 20:00 开始:Coze 接入、构建你的智能微信助手,分享人为张梦飞,主持人为吕昭波,助教为安仔、阿飞。 6 月 23 日 20:00 开始:微信机器人插件拓展教学,要求完成第一课,分享人为张梦飞,主持人为安仔,助教为空心菜、AYBIAO、阿飞。 6 月 24 日 20:00 开始:虚拟女友“李洛云”开发者自述,要求完成第一课,分享人为皮皮,主持人为大雨。 6 月 25 日 20:00 开始:FastGPT:“本地版 coze"部署教学,要求完成第一课,分享人为张梦飞,主持人为银海,助教为金永勋、AYBIAO。 6 月 27 日 20:00 开始:Hook 机制的机器人使用和部署教学,要求 0 基础小白,有一台 Windows 10 以上系统的电脑,分享人为张梦飞,主持人为 Stuart,助教为阿飞、空心菜。 第二天教程内容: 修改配置:主要更改标黄的四行,可以直接清空原文件配置,把以下配置粘贴进你的 config.json 文件中。 获取 key 和 id:进入官网 https://www.coze.cn/home ,获取到的令牌就是"coze_api_key",像下方一样填入即可。"coze_api_key":"pat_diajdkasjdlksajdlksajdasdjlkasjdlas",获取 bot_id 并填入:"coze_bot_id":"86787989080"。 微信机器人大事件记录: 皇子:零成本、零代码搭建一个智能微信客服,保姆级教程 安仔:不用黑魔法,小白也能做一个对接 GPT 大模型的微信聊天机器人 张梦飞:【保姆级】一步一图,手把手教你把 AI 接入微信 张梦飞:FastGPT+OneAPI+COW 带有知识库的机器人完整教程 张梦飞:基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 张梦飞:【保姆级教程】这可能是你在地球上能白嫖到的,能力最强的超级微信机器人!一步一图,小白友好 在自己的电脑上部署 COW 微信机器人项目
2025-04-04