直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
如何通过AI高效寻找货源
以下是通过 AI 高效寻找货源的方法: 1. 收集相关资料: 利用具有强大搜索功能的 AI 工具,如 Perplexity.AI 。访问该网站并使用其搜索功能,为获得更专业和深入的结果,可启用 Pro 功能(搜索框右边的开关),每天有一定次数免费使用,经常使用可考虑开通会员。在搜索框中输入具体的 Prompt ,如“查找关于某特定主题的货源信息”。获取搜索结果后,可点击回答内容下方的拷贝按钮获取相关引用和来源链接。 同理,微软的 Bing 搜索引擎等其他具备联网搜索功能的 AI 工具也可用于快速搜集大量相关资料。 2. 整理资料: 可使用月之暗面开发的 Kimi 这个 AI 会话助手。Kimi 具备读取网页内容并生成一定内容的能力,但可能存在阅读能力限制,可分批次提供资料确保其有效读取和理解。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-24
AI变现
以下是关于 AI 变现的一些方式: 电商:婴儿的四维彩超 AI 预测 这是适合普通人作为副业的项目,上手简单。 思路和玩法:孕妇妈妈在孕期 22 26 周会进行四维彩超检查,准爸爸妈妈期待宝宝模样,从而衍生出市场需求。在小红书、抖音等公域平台发布相关笔记,会有人咨询。 操作流程:客户提供四维彩超图原图,在 Midjourney 里进行垫图和特定描述词,10 分钟内出图。 变现方式:在抖音、快手、视频号、小红书上批量发布相关视频或图文,将客户引到私域接单变现。但要注意平台引流需隐蔽,以免被检测限流或封号。 Character.ai 由 Noam Shazeer 和 Daniel De Freitas 于 2022 年 9 月创建,是一款基于 LLM 的聊天机器人网站。 预先创建了许多聊天角色,用户可交流,也能自己创作角色。 更注重人格属性,满足社交、情感、陪伴、支持等需求,还支持创建房间多人聊天。 目前没有商业变现途径,公司计划“在不久的将来”推出付费订阅模式,也不排除采用广告支持模式。 写作:AI 写作变现指南 项目启动:确定目标客户群体,选择合适的 AI 写作工具。 准备阶段:学习实践 AI 写作技术,构建团队。 商业模式构建:确定服务内容,制定质量控制标准。 运营与推广:在淘宝等电商平台开设店铺,建立写作培训社群,通过社交媒体和线下活动进行品牌和社群建设,与其他团队合作。 项目优化与发展:持续关注 AI 技术进展,根据市场需求拓展新服务和产品,收集客户反馈优化改进服务。
2025-02-24
推荐一个能读取视频并总结出视频内容的ai
以下为您推荐能读取视频并总结视频内容的 AI 工具及方法: 1. GPT 系列: 对于 B 站等有字幕的视频,若视频栏下有字幕按钮,可通过安装油猴脚本获取字幕,将字幕复制发送给 GPT 进行总结。 有开发者利用 OpenAI 升级的 API 对足球比赛视频进行全 AI 解说,具体步骤包括提取视频帧(如使用 OpenCV 初始化视频文件读取,遍历视频逐帧处理并编码为 base64 格式)、构建描述提示(创建结构化提示,定义 GPT 请求参数)、发送 GPT 请求。 2. 视频内容分析模型:可在上传视频后生成视频内容的文本描述。 您可以根据实际需求选择使用。
2025-02-24
推荐一个能读取视频的ai
以下为您推荐能读取视频的 AI 相关工具: 1. 视频内容分析模型:上传视频后可以生成视频内容的文本描述。来源: 2. SD 的分支版本 CONTROLNET 大佬开发的 Forge:支持图生视频、图生 SD,对低端显卡支持良好。下载地址: 。解压后,优先运行 update.bat 进行升级,然后再运行 run.bat 。其核心区别在于 FORGE 增加了 2 个王炸功能,SVD【图生视频】和 Z123【图生 3D】。
2025-02-24
什么Ai工具可以帮我阅读字数多的电子书
以下是一些可以帮助您阅读字数多的电子书的 AI 工具: 1. 360AI 浏览器:可以对电子书进行阅读和剖析摘要、逻辑分析。 2. kimi:支持超长上下文,能输入长达 20 万字,可梳理全书、讲解知识点等。 网址:kimi.moonshot.cn/ 3. 英文阅读工具: 浏览器插件“沉浸式翻译”:支持阅读本地 PDF 等,是实用的英文资料和网页翻译插件。 地址:https://immersivetranslate.com/ 浏览器插件莫妮卡:集成了 GPT 的功能,可对英文页面进行翻译。 网址:https://monica.im/ 利用 GPT 辅助阅读:能进一步辅助理解,但阅读体验不够连续。
2025-02-24
关于RAG和知识库的应用
RAG(检索增强生成,Retrieval Augmented Generation)是一种利用大模型能力搭建知识库的技术应用。当需要依靠不包含在大模型训练集中的数据时,可通过该技术实现。 RAG 的应用可抽象为以下 5 个过程: 1. 文档加载(Document Loading):从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储(Storage):涉及两个环节,一是将切分好的文档块进行嵌入(Embedding)转换成向量的形式,二是将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):数据进入向量数据库后,通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更加合理的答案。 离线数据处理的目的是构建知识库这本“活字典”,知识会按照某种格式及排列方式存储在其中等待使用。在线检索则是利用知识库和大模型进行查询的过程。以构建智能问答客服为例,可了解 RAG 所有流程中的 What 与 Why。 相关资源: 文本加载器:将用户提供的文本加载到内存中,便于后续处理。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2025-02-24
本地部署Deepseek如何微调呢
对于本地部署 DeepSeek 的微调,以下是一些相关信息: 对于企业级部署,首先要根据实际业务场景评估所需部署的模型规格以及所需的服务器资源,预估完服务器资源后,还需评估业务场景是否需要二次开发模型。如果只是简单微调模型就能符合业务需求,使用 Ollama、LM Studio、GTP4All 或许可以满足诉求;若需要定制化开发模型,则要考虑进行模型的原生部署。 关于微调的方法,LoRA/QLoRA 论文指出其是对模型进行廉价微调的可行方法,如 。 另外,DeepSeek 模型如 JanusPro 有特别的训练法,先进行预训练,然后老师手把手教(监督微调),最后用“精华浓缩法”保存最好的学习成果。
2025-02-23
如何自己做一个大模型
要自己做一个大模型,主要包括以下步骤: 1. 理解大模型:大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练和使用过程。 找学校:训练大模型需要大量计算,GPU 更合适,只有有足够资本购买大量 GPU 的才有能力训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入是基本标配。 找老师:选择合适的算法让大模型更好理解 Token 之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。Token 被视为模型处理和生成的文本单位,会被分割并形成词汇表。 2. 部署和训练: 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身资源、安全和性能需求选择。 准备训练所需的数据和计算资源,确保有足够训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 选择合适的预训练模型作为基础,如开源的 BERT、GPT 等,也可自行训练基础模型。 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调,优化模型结构和训练过程以提高性能。 部署和调试模型,将训练好的模型部署到生产环境,进行在线调试和性能优化。 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 3. 对于 0 基础训练大模型的 Lora 生图部分: 点击预览模型中间的生图会自动跳转页面。 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 。 可以自己添加 lora 文件,点击后会显示训练过的所有 lora 的所有轮次。 VAE 不需要替换,正向提示词输入写的提示词。 可以选择基于提示词一次性生成几张图,选择生成图片的尺寸,如横板、竖版、正方形。 采样器和调度器新手小白可以默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图。 所有设置好后,点击开始生成,生成的图会显示在右侧。 若某次生成结果不错,想要微调或高分辨率修复,可点开图,下滑复制随机种子,粘贴到随机种子处,下次生成的图会近似。 若确认合适的种子和参数,想要高清放大,点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重回幅度在 0.3 0.7 之间调整。
2025-02-23
文生图历史
文生图技术的发展历史如下: 1. 早期发展(2014 年以前):最初的文生图尝试集中在将简单文本描述转化为图像。这些早期方法依赖于基本的图像处理技术和简单的模型,效果有限,生成的图像质量通常不高。 2. 深度学习的崛起(2014 年 2018 年):随着深度学习的发展,尤其是卷积神经网络(CNN)的成功应用,文生图模型开始采用神经网络来改进图像生成的质量和多样性。在这一时期,如生成对抗网络(GAN)及其变体层出不穷,开始被用于文生图任务,展示了生成更逼真图像的潜力。 3. 引入 Transformer(2019 年 2021 年):Transformer 架构原本在自然语言处理(NLP)领域取得巨大成功,开始被应用于文生图模型,提高模型处理复杂文本和生成高质量图像的能力。如 OpenAI 的 DALLE 模型,采用了 Transformer 结构来生成与文本描述匹配的图像,成为这一时期的标志性进展。与此同时,以 DDPM 为代表的工作,为 Diffusion Model 奠定了理论基础,众多基于 Transformer 和 Diffusion Model 的研究成果从 2021 下半年开始如雨后春笋般涌现。 4. LLM 与文生图模型的结合(2022 年 2023 年):大型语言模型(LLM)如 GPT3 开始与文生图模型结合,利用 LLM 强大的语言理解能力来提升图像生成的相关性和创造性。 文生图模型的演进历史整体上反映了计算机视觉(CV)和自然语言处理(NLP)的融合与发展。从早期的基础尝试到结合了深度学习、Transformer 和大型语言模型的先进方法,文生图模型在技术上实现了巨大的飞跃,不断延伸 AI 在艺术和创造力方面的边界。我们预计,未来的文生图模型将进一步提升在复杂文本理解和高质量图像生成方面的能力,为多模态交互和创意表达提供更加强大的工具。 此外,在星流一站式 AI 设计工具中,生图历史按照每日进行记录。点击日期对应的区域可以查看当日生成的图像,可通过输入提示词搜索相关的图像。点击单个图像可以查看具体的生图信息与参数一键导入使用。在生图历史中收藏的图像,会收集在特定区域。拖动图像可以直接导入无限画布。
2025-02-23
知识库怎么 传变量
在 Coze 中传变量的相关知识如下: 在创建工作流时,Start 节点可以定义输入变量,如“question”,该变量会在启动工作流时由 Bot 从外部获取信息传递过来。 变量节点有两个能力:设置变量给 Bot 和从 Bot 中获取变量。例如,可以从 Bot 中获取“user_language”这个变量,传给后面的大模型节点以控制其输出语言。 此外,关于 Coze 的工作流: 工作流由多个节点构成,节点是组成工作流的基本单元,本质是一个包含输入和输出的函数。 Coze 平台支持的节点类型包括 LLM(大语言模型)、Code(代码)、Knowledage(知识库)、Condition(条件判断)、Variable(获取变量)、Database(数据库)。 关于创建和使用工作流,可参考以下官方教程: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,如搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news ;使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm ;生成随机数:https://www.coze.cn/docs/guides/workflow_use_code ;搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content ;识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 。 创建知识库并上传文本内容的操作如下: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入知识库页面,并单击创建知识库。 4. 在弹出的页面配置知识库名称、描述,并单击确认。一个团队内的知识库名称不可重复,必须是唯一的。 5. 在单元页面,单击新增单元。 6. 在弹出的页面选择要上传的数据格式,默认是文本格式,然后选择一种文本内容上传方式完成内容上传。
2025-02-23