「AGIへの道」飛書ナレッジベースへ直行 →
ホーム/すべての質問
我想学习ai做副业赚钱,应该怎么做?
学习 AI 做副业赚钱可以参考以下步骤: 1. 基础学习: 了解 AI 基本概念,阅读「」部分,熟悉术语和基础概念,包括人工智能的主要分支及它们之间的联系,浏览入门文章了解其历史、应用和发展趋势。 开始 AI 学习之旅,在「」中找到为初学者设计的课程,推荐李宏毅老师的课程,通过在线教育平台按自己节奏学习并争取获得证书。 2. 深入学习: 根据兴趣选择特定模块深入学习,比如图像、音乐、视频等领域。 掌握提示词技巧,因其上手容易且实用。 3. 实践尝试: 理论学习后进行实践,巩固知识,尝试使用各种产品做出作品。 在知识库分享实践后的作品和文章。 4. 体验产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解工作原理和交互方式,获得实际应用中的第一手体验,激发对 AI 潜力的认识。 需要注意的是,学了 AI 有可能赚钱,但不保证每个人都能赚到钱。人工智能领域有很多高薪工作,如数据科学家、机器学习工程师等,学会 AI 技术可增加在这些岗位就业及职业发展的可能性。然而,能否赚钱还取决于个人的学习能力、实际应用能力、对市场和商业的理解等因素。仅仅学会基础知识可能不足以在竞争激烈的市场中脱颖而出,需要持续学习和实践。
2024-11-21
给建筑穿毛衣效果的AI有哪些?
以下是一些可以实现给建筑穿毛衣效果的方法: 可以使用 Stable Diffusion(SD)或者 liblib 平台。 步骤一:选择合适的 AI 模型。 选择适合建筑室外的大型模型——“元技能Yuan_SDXL_0.2建筑室外大模型”。您可以通过以下链接获取模型: 建筑室外 XL 大模型:https://www.liblib.art/modelinfo/464d8c676d944ee4bc7f6b6830a801e1?from=search&versionUuid=c52f1cdadcc34b978664baff71c90b39 以我的家乡开原老城的城门为例,我们将通过以上步骤,为这座古老的城门穿上一件毛线编织的外衣。
2024-11-21
ai诈骗法律法规
目前关于 AI 诈骗的法律法规方面,有以下相关信息: 拜登签署的 AI 行政命令要求最强大的 AI 系统开发者与美国政府分享安全测试结果等关键信息。依照《国防生产法》,开发对国家安全、经济安全或公共卫生和安全构成严重风险的基础模型的公司,在训练模型时必须通知联邦政府,并分享所有红队安全测试的结果。商务部将为内容认证和水印制定指导方针,以明确标记 AI 生成的内容,联邦机构将使用这些工具让美国人容易知道从政府收到的通信是真实的,并为私营部门和世界各地的政府树立榜样。 在英国,产品安全法律确保在英国制造和投放市场的商品是安全的。特定产品的立法(如电气和电子设备、医疗设备和玩具)可能适用于某些包含集成 AI 的产品。消费者权利法可能在消费者签订基于 AI 的产品和服务销售合同时保护消费者。侵权法提供了一个补充制度,在民事过错造成损害时可能提供赔偿。但目前尚不清楚消费者权利法在包含集成 AI 的产品或基于服务的背景下是否能提供适当水平的保护。
2024-11-21
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
ai诈骗防范措施和技术手段
以下是关于 AI 诈骗防范的一些措施和技术手段: 1. 政府层面: 拜登签署的 AI 行政命令要求,开发最强大 AI 系统的开发者需向美国政府分享安全测试结果和其他关键信息。对于可能对国家安全、经济安全或公共卫生和安全构成严重风险的基础模型,开发公司在训练模型时必须通知联邦政府,并分享所有红队安全测试的结果。 商务部将制定内容认证和水印的指导方针,以清晰标记 AI 生成的内容,联邦机构将使用这些工具,为公众识别官方内容提供便利,并为私营部门和全球各国政府树立榜样。 2. 技术层面: 国家技术标准研究所将制定严格的标准进行广泛的红队测试,以确保在公开发布前的安全性。 国土安全部将把这些标准应用于关键基础设施部门,并建立 AI 安全和安保委员会。能源部和国土安全部也将处理 AI 系统对关键基础设施以及化学、生物、放射性、核和网络安全风险的威胁。 3. 企业层面: 360 立志解决大模型的安全问题,将大模型的安全问题分为三类进行研究。 在个人层面,要提高对 AI 诈骗的警惕性,不轻易相信来源不明的信息,学会识别可能的 AI 生成的虚假内容。
2024-11-21
ai诈骗成功案件
以下是为您整合的相关内容: 拜登签署的 AI 行政命令要求最强大的 AI 系统开发者与美国政府分享安全测试结果等关键信息。依照《国防生产法》,开发对国家安全、经济安全或公共卫生和安全构成严重风险的基础模型的公司,在训练模型时必须通知联邦政府,并分享所有红队安全测试的结果。相关部门将制定标准、工具和测试以确保 AI 系统安全可靠,还将通过制定新标准来防范利用 AI 制造危险生物材料的风险,以及通过建立标准和最佳实践来保护美国人免受 AI 导致的欺诈和欺骗,如商务部将为内容认证和水印制定指导,以明确标记 AI 生成的内容。 关于 AI 相关的监管协调,将支持企业对 AI 创新进行有信心的投资并减少不确定性。行业要求进一步的系统协调以明确谁负责解决跨领域的 AI 风险并避免多个监管机构的重复要求。例如“AI 公平保险有限公司”设计新的 AI 驱动算法来设定保险费价格,其使用 AI 设定价格可能受到包括数据保护、平等和一般消费者保护法等一系列法律框架以及部门规则的约束。
2024-11-21
ai诈骗案例
以下为您提供一些与 AI 相关的内容: 在法律领域,AI 可用于模拟不同辩护策略下的量刑结果,例如针对商业贿赂、网络诈骗等刑事案件,还能为商业合同纠纷等案件设计诉讼策略。 拜登签署的 AI 行政命令要求强大 AI 系统的开发者向美国政府分享安全测试结果等关键信息,制定确保 AI 系统安全可靠的标准、工具和测试,保护免受利用 AI 制造危险生物材料的风险,以及建立标准和最佳实践以防范 AI 导致的欺诈和欺骗。 在探讨 AI 幻觉方面,介绍了幻觉与错误的区别,包括性质、表现形式和原因等,并通过具体案例如翻译和推理问题进行说明。
2024-11-21
ai诈骗特征
AI 诈骗可能具有以下特征: 1. 利用类似 GPT4o 这样的先进模型,以面相分析、相亲建议等看似新奇有趣的服务吸引用户,抓住人们的好奇心和浮躁心理,获取用户信任。 2. 声称能够在多个领域如穿搭、生活工作、化妆、婚姻等根据用户照片给出准确建议,包括职业、健康、财运、婚姻等综合运势。 3. 生成看似合理但可能完全错误且令人信服的内容,如虚假的事实、预测和解释。 4. 不道德地操纵或欺骗用户,尤其是对不懂 AI 的老人,可能导致其财产损失。 需要注意的是,对于 AI 生成的内容,应保持警惕,不可过度相信,要仔细检查和核实。
2024-11-21
强化学习+开源代码
以下是关于强化学习的开源代码入门指南: 1. 基础知识准备: 若概率论和线性代数基础薄弱,可利用周末约一天时间学习相关课程,若不关注公式可忽略。 若机器学习基础为零,先看吴恩达课程,再以李宏毅课程作补充,若仅为入门强化学习,看李宏毅课程前几节讲完神经网络部分即可,此课程约需 25 小时。 2. 动手实践: 跟随《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 观看 B 站王树森的深度学习课程前几节学习强化学习基础知识点,约 5 小时。 3. 项目实践: 参考《动手学强化学习》(已开源 https://hrl.boyuai.com/),看到 DQN 部分,约十几小时。 模型构建:DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用简单的两层网络结构。 缓存区:需要一个缓存区来存放从环境中采样的数据。 训练函数:批量从缓存区获取数据,使用 DQN 算法进行训练。 主循环函数:在每个 episode 中,选择一个动作(使用 εgreedy 策略),执行该动作,并将结果存储在 replay buffer 中。训练完使用保存好的 model.pth 参数即可实际使用。 4. Qlearning 算法: 比如在状态 s1 上,根据 Q 值表选择行动,如发现向下行动 Q 值最大则向下走。获取 Q(s1,下)乘上衰减值 gamma(如 0.9)并加上到达下一个状态的奖励 R,作为“Q 现实”,之前根据 Q 表得到的是“Q 估计”。通过公式更新 Q(s1,下)的值,公式为:。 算法流程:初始化 Q,for 序列 e = 1 > E do: 用 ε Greedy 策略根据 Q 选择当前状态 s 下的动作 a,得到环境反馈的 r,s‘,得到初始状态 s,for 时间步 t = 1> T do: ,End for,End for。启动程序训练 100 次后可较好进行游戏。
2024-11-21
强化学习+开源代码
以下是关于强化学习的开源代码入门指南: 1. 基础知识准备: 若概率论和线性代数基础薄弱,可在周末约一天时间学习相关课程,若不关注公式可忽略。 若机器学习基础薄弱,先看吴恩达课程,再以李宏毅课程作补充,若仅为入门强化学习,看李宏毅课程前几节讲完神经网络部分即可,此视频课程约需 25 小时。 2. 动手实践: 跟随《动手学深度学习 https://hrl.boyuai.com/》动手学习概念并写代码,入门看前五章,约 10 小时。 观看 B 站王树森的深度学习课程前几节学习强化学习基础知识点,约 5 小时。 3. 项目实践: 参考《动手学强化学习》(已开源 https://hrl.boyuai.com/),看到 DQN 部分,约十几小时。 模型构建:DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用简单的两层网络结构。 数据缓存:需要一个缓存区来存放从环境中采样的数据。 训练函数:批量从缓存区获取数据,使用 DQN 算法进行训练。 主循环函数:在每个 episode 中,选择一个动作(使用 εgreedy 策略),执行该动作,并将结果存储在 replay buffer 中。训练完使用保存好的 model.pth 参数即可实际使用。 4. Qlearning 算法流程: 初始化 Q。 for 序列 e = 1 > E do: 用 ε Greedy 策略根据 Q 选择当前状态 s 下的动作 a,得到环境反馈的 r,s‘,得到初始状态 s。 for 时间步 t = 1> T do: End for。 End for。 例如,在当前智能体处于 s1 状态时,会在表中找最大 Q 值对应的行动。获取 Q(s1,下)乘上衰减值 gamma(如 0.9)并加上到达下一个状态时的奖励 R,作为现实中 Q(s1,下)的值(即“Q 现实”),之前根据 Q 表得到的 Q(s1,下)是“Q 估计”。有了“Q 现实”和“Q 估计”,可按公式更新 Q(s1,下)的值。公式中,α是学习率,γ是对未来 reward 的衰减值。启动程序训练 100 次后可较好地进行游戏。
2024-11-21