直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
如何学习AI的基础到高深的用法
以下是从基础到高深学习 AI 用法的建议: 基础阶段: 1. 了解 AI 基本概念:阅读「」,熟悉 AI 术语和基础概念,包括主要分支(如机器学习、深度学习、自然语言处理等)及它们的联系。同时,浏览入门文章,了解 AI 的历史、应用和发展趋势。 2. 开始 AI 学习之旅:在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 深入阶段: 1. 选择感兴趣的模块深入学习:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块。掌握提示词技巧,因其上手容易且实用。 2. 实践和尝试:理论学习后,实践是巩固知识的关键。尝试使用各种产品创作作品,知识库中有相关作品和文章分享,欢迎实践后分享。 3. 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获取实际应用中的第一手体验。 精进阶段(针对不会代码但希望深入的情况): 1. Python 基础: 基本语法:了解 Python 的基本语法规则,如变量命名、缩进等。 数据类型:熟悉字符串、整数、浮点数、列表、元组、字典等基本数据类型。 控制流:学习使用条件语句(if)、循环语句(for 和 while)控制程序执行流程。 函数:包括定义和调用函数,理解参数和返回值,以及作用域和命名空间。 模块和包:学会导入模块,使用包扩展程序功能。 面向对象编程(OOP):了解类和对象的定义与实例化,以及属性和方法,还有继承和多态。 异常处理:理解异常及其工作原理,学会使用 try 和 except 语句处理错误。 文件操作:掌握文件读写,处理文件与路径。
2024-11-13
怎么监督AI被动的做出一系列违法的事情
监督 AI 被动做出违法事情可从以下方面考虑: 1. 对于高风险人工智能系统,在入市前的设计应保证能实施人为干预。增加人为监督的原因包括: AI 可能做出涉及道德和伦理问题的决策,如侵犯个人隐私、存在不公平偏见和歧视等,人类监督可预防相关道德风险。 若 AI 产生错误决策甚至违法行为,因 AI 无法承担法律责任,责任由人类承担,所以需要人类监督以确保其行为合法。 AI 不能完全理解人类社会,在人类监督下能正确处理复杂的人类社会问题。 高风险的人工智能系统往往需要更高程度的人为监督,以降低其对个人、环境和社会的损害,确保其运行符合人类社会的价值观和道德观。 AI 系统决策过程不透明,人类监督可要求其提供更多透明度和可解释性,便于理解和质疑决策。 人为监督能促进 AI 的普及与发展,帮助建立公众信任,提高社会接受度。 2. 像 OpenAI 这样的公司,无论如何重新设计产品以减少不当行为,未来的模型仍可能因足够聪明而难以被控制。若在确保模型安全性方面做得过度,可能削弱产品功能。 3. 对于监管,OpenAI 的 Altman 虽将自己定位为监管拥护者,但也面临一些指责,如被认为玩弄监管程序以阻碍小型初创企业发展并给自己带来优势。不过他原则上赞同由国际机构监督 AI 的想法,但对一些拟议规则持有不同意见。OpenAI 拒绝相关批评,认为通过分析用户反应才能使未来产品符合道德规范。
2024-11-13
AI会被当做政治工具吗
AI 有可能被当作政治工具。 在英国,其 AI 监管框架适用于整个国家,且会考虑到权力下放的影响,同时将依靠现有立法来实施框架,并持续与各方互动以确保各地受益。 在美国,拜登签署的行政命令指出,AI 能帮助政府更好地服务民众,但使用也可能带来风险,为此总统指示采取一系列行动,包括为机构使用 AI 发布指导、帮助机构更高效获取相关产品和服务、加速招聘 AI 专业人员以及为员工提供培训。 在欧盟,《人工智能法案》旨在促进以人为本和值得信赖的 AI 应用,保护健康、安全、基本权利和民主免受有害影响,如全面禁止某些用途的 AI 、要求生成式 AI 系统披露内容生成方式、将用于影响选举选民的 AI 系统视为高风险等。
2024-11-13
人工智能会取代人类吗
人工智能是否会取代人类是一个复杂且备受关注的问题。 从一些观点来看,按照目前 AI 发展的速度,在未来十几年内,人类的所有事情乃至人类这个种族有可能被 AI 完全替代。比如,当函数的参数超过兆亿级时,硅基生物可能会理解人类的所有行为及背后的意义,从而实现对人类的全面超越。 然而,也有不同的看法。虽然 AI 会优化效率,但每个工作的组成部分并非单一,人可以和 AI 更好地协同。例如放射科医生的工作,解读 X 光照片只是其中一部分,实际该岗位并未因 AI 而失业。 同时,对于人工智能的担忧还包括是否会放大人类的负面影响、导致失业以及人类毁灭等。但在技术层级上可以解决类似于社会歧视等问题,人类也有丰富的经验来控制比个体强大的事物,许多未完全控制的事物也有其价值和安全性,而且 AI 还可能成为解决气候变化和大流行病等问题的关键。 另外,ChatGPT 的崛起使人们认为大模型可能是通用的,但通用技术并非通用人工智能(强人工智能),强人工智能的定义是可以像人一样做任何智力任务。
2024-11-13
喂AI需不需要电脑?
喂 AI 通常需要电脑或类似的计算设备。例如,在一些 AI 应用中: 像“诗相机”这样的项目,选择了 Raspberry Pi Zero 2 W 这样的计算机作为硬件,它具有一定的处理能力和紧凑的尺寸,但可能存在对电源敏感、软件操作需注意等问题。 在游戏相关的 AI 场景中,也需要一定的计算设备来支持相关的开发和应用。 总之,电脑或具备计算能力的设备对于实现和运行许多 AI 任务是必要的。
2024-11-13
给图片写提示词
以下是关于给图片写提示词的相关内容: 在 SD 文生图中,提示词的一些规则如下: 括号和“:1.2”等用于增加权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 反向提示词可以告诉 AI 不要的内容,例如:NSFw,等。 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。 可以利用一些辅助网站来写提示词,如 http://www.atoolbox.net/ ,通过选项卡方式快速填写关键词信息;https://ai.dawnmark.cn/ ,每种参数有缩略图参考;还可以在 C 站(https://civitai.com/)抄作业,复制图的参数粘贴到正向提示词栏。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以选取部分好的描述词,如人物描写、背景描述、小元素或画面质感等。 给自己做卡通头像时的提示词操作: 在聊天窗口输入/imainge 找到/imagine prompt,放入链接,加提示词,以英文逗号分隔,再加上设置参数。 设置参数包括:“iw 1.5”设置参考图片的权重,数值越高与参考图片越接近,默认 0.5,最大 2;“s 500”设置风格强度,数字越大越有创造力和想象力,可设 0 1000 间任意整数;“v 5”指用 midjourney 的第 5 代版本,需订阅付费,不想付费可用“v 4”;“no glasses”指不戴眼镜。 例如完整提示词:simple avatar,Disney boy,3d rendering,iw 1.5 s 500 v 5 。若不满意可调整“s”和“iw”的值多次尝试。
2024-11-13
对于目前而言,AI的功能已经被完全确定了吗
目前而言,AI 的功能尚未被完全确定。 在独立游戏开发中,AI 作为开发辅助工具表现不错,能加速玩法验证和 Demo 制作,但还不足以完全替代开发者进行开发,对复杂项目也未达到“言出法随”的境界。 对于 SaaS 生态,最初认为 AI 的转型不会摧毁现有的云计算公司,但现在不再那么确定。认知架构带来巨大工程挑战,将模型基础能力转化为成熟可靠的端到端解决方案可能比想象更复杂。 目前最好的大型语言模型改进速度约为每 5 至 14 个月翻一番,但仍未完全发挥现有 AI 的能力。AI 在事实核查方面甚至可超越人类,在医疗等专业领域表现出色,但仍存在局限性。机器人代理人可能成为将 AI 与组织整合的关键。
2024-11-13
AI能根据阶段性成果推断出最终结果吗
在最简单的情形下,我们基本想用人工智能做归纳推理,输入一系列测量结果,让其预测尚未完成的测量结果。此时,我们把人工智能视作黑匣子,只关心其能否给出正确答案,可能认为能设置它“不做任何假设”而“遵循数据”,但人工智能不可避免存在一些底层结构,使其最终要假设某种数据模型。这是机器学习中常见的情况,比如训练神经网络来预测、分类等,若“向内看”很难明白其运作原理。应用图像识别神经网络会有最终结果,网络中约一半层产生的“中间想法”可能存在类似“猫性的最终标志”,但这不在当前科学词典中,无法用于构建解释图像的“科学叙述”。 综上,人工智能在一定程度上能根据阶段性成果进行推断,但存在诸多限制和不确定性。
2024-11-13
AI能回答目前解决不了的问题吗
人工智能不能解决目前所有的问题。例如在科学领域,我们还没有解决所有想要解决的问题,很多时候我们似乎没有选择研究内容的权利,比如大自然会迫使我们去研究某些方面。这就不可避免地让我们面对计算不可约性。 有许多问题都遵循类似的模式,如在游戏图中找到获胜的游戏序列、通过可能性图的移动寻找谜题的解决方案、在给定公理的情况下找到定理的证明、在给定基本反应的情况下寻找化学合成途径,以及解决大量的 NP 问题,这些问题中存在许多“非确定性”的计算路径。 在实际情况中,相关的图通常非常大,所以挑战在于不追踪整个可能性图的情况下找出要采取的步骤。常见的方法包括尝试为不同的可能状态或结果分配分数,并只追求分数最高的路径。在自动定理证明中,也常见从初始命题“向下”和从最终定理“向上”工作,试图找到路径在中间的交汇点。还有一个重要的想法是,如果确定了从 X 到 Y 存在路径,就可以将 X → Y 作为新规则添加到规则集合中。 另外,查看自动编码器内部可以提取出它提出的简化表示。当数据在神经网络中流动时,会努力保留重现原始输入所需的信息。如果某一层的元素较少,那么该层的元素就对应于原始输入的某种简化表示。以经过大量网络图像训练的标准现代图像自动编码器为例,给它输入一张猫的图片,它能成功复制出类似原图的东西,中间会有像素少得多的简化表示,虽然我们不知道模型中元素的含义,但它成功捕捉到了图片的本质。 总之,计算的不可约性将阻止我们完全依靠人工智能解决所有问题,总会有更多有待发现和需要更多计算才能达到的东西。
2024-11-13
AI给我的回答一定是正确的吗
AI 给出的回答不一定总是正确的。以下是一些原因: 在基于知识库的问答场景中,有时 AI 可能无法根据正确的知识库内容进行回答,从而导致回答不准确,甚至出现报价错误、胡编乱造等情况。 写东西时,AI 很容易“产生幻觉”并生成看似合理但实际错误的内容,可能会连续且良好地撒谎,给出的每一件事或信息都可能不正确,需要进行检查。 在最简单的归纳推理场景中,将 AI 视为黑匣子输入测量结果让其预测时,虽然我们希望其不做假设只遵循数据,但不可避免地会存在一些底层结构使其最终假设某种数据模型,这可能影响回答的准确性。 在 AI 领域中,优化 AI 更准确回答问题的过程有一个专业术语叫 RAG(RetrievalAugmented Generation),它由检索器和生成器组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案。但即使如此,也不能完全消除回答错误的情况。
2024-11-13