「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
普通人 怎么利用ai赚钱
以下是一些普通人利用 AI 赚钱的方式: 1. 电商:婴儿的四维彩超 AI 预测 思路和玩法:通过 AI 工具将宝宝的四维彩超还原出现实模样进行变现。孕妇妈妈在孕期 22 26 周会进行四维彩超检查,很多准爸爸妈妈期待宝宝模样,从而衍生出市场需求。在小红书、抖音等公域平台发布相关笔记吸引咨询。 操作流程:客户提供四维彩超图原图,在 Midjourney 里进行垫图和特定描述词,整个流程不超 10 分钟出图。 变现方式:在抖音、快手、视频号、小红书上批量发布相关视频或图文,将客户引到私域接单变现。但要注意平台引流需隐蔽,避免被检测限流或封号。 2. AI 产业中的应用层 基础设施层:布局投入确定性强,但资金和资源门槛高,普通人若无强资源应谨慎入局,可考虑“合作生态”切入机会。 技术层:技术迭代快,小规模团队或个人需慎重考虑技术迭代风险,基础通用大模型不建议普通个体和小团队考虑。 应用层:是时代赋予的广阔蓝海,当前针对行业/细分领域的成熟应用产品不多,对于普通个体和小团队有超级机会和巨大发展空间。
2025-03-04
文生图
以下是关于文生图的详细教程: 1. 定主题:明确您需要生成一张具有何种主题、风格和表达信息的图。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的模型,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看的帖子中使用的 lora。 4. ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和句子长度。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 时,采样次数一般在 30 40 之间。 11. 尺寸:根据个人喜好和需求选择。 以下是一些常见的文生图工具: 1. Tusiart 2. Liblibai 3. 腾讯混元 4. luma 5. Recraft 6. 文生图大模型 V2.1L(美感版) 7. 美图奇想 5.0 8. midjourney 9. 快手可图 10. Flux.1.1 11. Stable Diffusion 3.5 Large 12. Imagen 3 网页版 以下是一个提示词示例:赛博哥特时尚摄影,风格化的身材瘦高细长的男性,类似《质量效应》中的生物机械两栖类星种植物外星怪物,身着全套赛博朋克街头服饰。机械天使手持超级等离子步枪,融合本・埃尔特、库尔特・帕普斯坦、亚历杭德罗・阿尔瓦雷斯的风格,色调为深海蓝色与靛蓝色,类似漫威漫画风格,带有幽灵般的形态,青蛙核风格,身形拉长,超写实细节,纤细,3D 雕刻感,石板灰、丁香色、奶油冰棒色、铜色、薄荷绿,极简主义,烟熏眼影,亮白色凸起的生物形态点状图案,发光的眼睛,发光的反向图案背景,色彩鲜艳,发光的未来主义赛博朋克盔甲与武器,变焦模糊,空灵的打光,逆光
2025-03-04
你用的是什么大模型
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的“大”体现在用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 在大模型的训练和使用过程中,可以用“上学参加工作”来类比: 1. 找学校:训练 LLM 需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:学完知识后,为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。在将输入进行分词时,会对其进行数字化,形成一个词汇表。常见的将 Token 表示成稠密矩阵向量的算法有:基于统计的 Word2Vec(通过上下文统计信息学习词向量)、GloVe(基于词共现统计信息学习词向量);基于深度网络的 CNN(使用卷积网络获得图像或文本向量)、RNN/LSTM(利用序列模型获得文本向量);基于神经网络的 BERT(基于 Transformer 和掩码语言建模进行词向量预训练)、Doc2Vec(使用神经网络获得文本序列的向量)。
2025-03-04
分析一下可汗学院在agi的探索
可汗学院在 AGI 的探索主要体现在其推出的 AI 教育产品 Khanmigo 上。 Khanmigo 接入了 4.0 的 API,所有模块采取苏格拉底式教学法,从不直接给答案,而是引导学生不停思考,最终自己找到答案。例如在数学教学中,会从简单题目开始,难度递进,当学生遇到困难时,会通过降维到具体物品、拆解问题等方式给予脚手架辅助。它可以做到全科目随问随答,不仅是数学,在其他科目上也能为学生总结视频内容,以苏格拉底的方式启发学生完成题目。 可汗学院创始人萨尔·可汗认为人工智能是一种补充工具,而且是一种非常强大的工具。Khan Academy 于 2006 年成立于硅谷,是一个非营利性的学校和教育平台,收到了 Google、Bill Gates、Elon Musk 等公司和个人的资助,致力于为全球任何地方的任何学生提供免费、高质量的教育。去年推出的 Khanmigo AI 最大的特点是以无限的耐心引导学习者自己寻找答案,对于每一个问题和答案,都引导学生思考背后的概念,激发学生的好奇心,鼓励跨学科学习,让学生能自主地去探索。
2025-03-04
英语教育,如何实现agi,目前这方面,国内外,哪些公司走在前面?
在英语教育领域实现 AGI 方面,目前国内外走在前面的公司情况如下: 在国外,OpenAI 表现突出,ChatGPT 和 GPT4 的出现令人惊讶,其成功拉开了与国内的技术差距。 在国内,百度和阿里相对较为高调。百度的“文心 4.0”是当前国内能力较好的模型之一,即将发布的阿里的“通义千问”也备受关注。然而,国内大厂们虽然在人才、GPU、数据和资金储备方面具备冲击 AGI 的条件,但实际效果尚未有明确亮点。2023 年中美在 AGI 技术上的差距并未缩小,国内最领先的模型水平大概在准 ChatGPT3.5 的水平,与 GPT4 仍有不小差距,甚至不如临时拼凑的 Mistral 团队的水平。此外,大厂们受内部短期考核压力影响,多数力量放在卷新产品圈地盘和向上汇报工作上,且同时背负了较多其他业务和政治考量。
2025-03-04
我是新手怎么学习
对于新手学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 持续学习和跟进: AI 是快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-03-04
用COZE国内版搭建工作流
以下是关于用 COZE 国内版搭建工作流的相关内容: 需求分析:主要需求是国内可直接使用且能批量生产,选用 COZE 搭建工作流,但批量生产可能会牺牲一定质量的文案和图片效果。 批量生成句子:不同于手动搭建,可一次性生成句子并进行图片处理,但一次生成不要太多,建议设置为一次生成五句。 句子提取:需要把生成的句子逐个提取出来,针对每个句子画图。 图片生成:根据生成的句子结合特有画风等描述绘图。 图片和句子结合:COZE 工作流本身支持 Python 代码,但环境中缺少画图、图片处理所需包,可替换为搞定设计的方式处理图片,会用 PS 脚本效果也不错。 工作流使用:工作流是 AI Bot 的核心和灵魂部分。第一步是开始节点,定义用户传入赋值的变量及描述,描述作为提示词,用户输入相关关键词时会调用工作流。第二步通过大模型组件解析用户输入信息是否满足提示词条件,借助 AI 大模型组件可实现动态用户需求传入,通过自然语言动态调用条件流程,而非传统编程的固定条件匹配和调用。接下来是条件判断,根据大模型解析结果选择条件执行。
2025-03-04
Stable Diffusion 模型在哪
Stable Diffusion 模型可以从以下几个地方获取和存放: 1. 部分常用的大模型可以在分享的链接中获取,大家可以根据文件夹名称找到需要的模型。 2. 大多数模型可以在 Civitai(C 站)这个网站(https://civitai.com/)下载。下载方法如下: 科学上网(自行解决)。 点击右上角的筛选按钮,在框框里面找到自己需要的模型类型,如 Checkpoint=大模型、LoRA=Lora 等。 看照片,看到感兴趣的点进去,点击右边的“Download”保存到电脑本地。 3. 模型存放位置: 大模型:SD 根目录,即下载存放 SD 的那个文件夹。 Lora: VAE: 4. 如果不知道下载的模型是哪个类型,不知道要放到哪个文件夹,可以使用秋叶的模型解析工具(https://spell.novelai.dev/),把模型拖动到空白处,会自动弹出模型的信息。 另外,ComfyUI 存放路径:models/checkpoints/ 。
2025-03-04
coze
以下是关于 Coze 的相关信息: 重磅更新:Coze 可以接入抖音评论区,帮用户自动回复评论。若想快速上手,可参考视频。不知 Coze 是什么,可参考文章。 安装 Coze Scraper: 通过应用商店安装: 1. 打开 Chrome 浏览器。 2. 点击在 Chrome 应用商店中打开 Coze Scrapper 扩展程序。 3. 单击添加至 Chrome。 4. 在弹出的页面,单击添加扩展程序。 本地安装: 1. 单击下载安装包,然后解压下载的文件。 2. 打开 Chrome 浏览器。 3. 在浏览器中输入 chrome://extensions 打开扩展程序页面,确认开发者模式处于打开状态。 4. 点击加载已解压的扩展程序,选择已解压的文件夹。 Coze 记账管家: 什么是 COZE:字节跳动旗下子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent;目前 coze 可以白嫖海量的大模型免费使用,有丰富的插件生态。 什么是记账管家:基于 COZE 平台的能力搭建的一个记账应用;可以直接和 coze 说收入或支出情况,coze 会自动记账并计算账户余额,每一笔记账记录都不会丢失。点击以下卡片体验记账管家。
2025-03-04
我想系统学习AI绘画相关知识
以下是为您系统整理的 AI 绘画相关学习资源: 1. 知乎上 Rocky 的系列教程: 深入浅出完整解析 Stable Diffusion XL 核心基础知识: 深入浅出完整解析 Stable Diffusion 中 UNet 核心基础知识: 深入浅出完整解析 LoRA 核心基础知识: 深入浅出完整解析 ControlNet 核心基础知识: 2. 【野菩萨】的课程: 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 如果您想要免费获得这门课程,可以来参与 video battle。冠军奖励:4980 课程一份;亚军奖励:3980 课程一份;季军奖励:1980 课程一份;入围奖励:598 野神殿门票一张。您可以扫码添加菩萨老师助理,了解更多课程信息。
2025-03-04