AI 能够查错,但它自身也会犯错。
一方面,AI 在处理信息时可能会出现幻觉,生成看似合理但实则错误的内容。例如,它可能生成完全错误且令人信服的事实,对于未连接到互联网的模型,提供的参考、引用、引文和信息可能特别危险。而且,AI 不会真正解释自己,给出的关于思考过程的回答可能是完全编造的。
另一方面,AI 犯错的原因与多方面因素有关。从本质上看,人类认知偏差是大脑为节省认知资源对信息的扭曲,而 AI 幻觉则是模型对训练数据中统计模式的过度依赖,导致面对新情况时无法准确理解和生成信息。其表现形式多种多样且难以察觉,比如确认偏误、可得性偏差、锚定效应等,可能生成不存在的人物、地点、事件,或者对已知事实进行错误描述。产生原因既与人类的经验和知识有关,如个人成长经历、文化背景、知识结构等,也与训练数据的质量、模型的结构和训练策略有关,如果训练数据存在偏差或错误,模型就会学习到这些偏差和错误。
AI 犯错的影响范围广泛,可能导致错误的决策,比如投资者受可得性偏差影响做出错误投资决策;也可能误导用户、传播虚假信息、甚至引发安全事故,如用于医疗诊断的 AI 系统给出错误诊断结果延误患者治疗。
为避免 AI 犯错带来的不良影响,使用时需要对其输出进行检查。
大脑就像精密仪器,需要不断学习和训练才能高效运转。为了避免“想当然”的错误,我们要不断提升认知能力,就像给大脑定期升级系统、打补丁。认清“思维陷阱”:就像学习识别网络钓鱼邮件一样,我们也需要了解常见的认知偏差,例如:确认偏误:我们会倾向于寻找支持自己已有观点的信息,而忽略反面的证据。例如,相信星座的人更容易关注符合自己星座描述的内容,而忽视不符合的部分。锚定效应:我们容易受第一印象的影响,即使这个印象是错误的。例如,商家先标一个高价,再打折促销,我们会觉得很划算,即使这个折扣后的价格仍然高于市场价。锻炼逻辑思维:就像学习数学一样,我们需要学习如何进行逻辑推理,识别错误的论证。例如,如果有人说“所有天鹅都是白的,因为我见过的天鹅都是白的”,这就是一种不严谨的逻辑,因为存在黑天鹅。掌握数据分析能力:在信息爆炸的时代,我们每天都会接触到大量的数字和统计数据。学习一些基本的统计学知识,可以帮助我们更好地理解和分析数据,避免被误导。例如,一则广告声称某种保健品有效率高达90%,但却没有说明样本量和实验方法,我们就需要保持警惕,不能盲目相信。
为了回应你的答案,AI很容易“产生幻觉”并生成看似合理的事实。它可以生成完全错误的内容,而且非常令人信服。让我强调一下:AI连续且良好地撒谎。它告诉你的每一件事或信息可能都是不正确的。你需要检查所有的东西。你需要全部检查一下。特别危险的是要求它为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)。因为GPT-4通常更加扎实,因为Bing的互联网连接意味着它实际上可以拉入相关事实。[这是一份避免幻觉的指南](https://oneusefulthing.substack.com/p/how-to-get-an-ai-to-lie-to-you-in),但它们不可能完全消除。另请注意,人工智能不会解释自己,它只会让你认为它解释了自己。如果你要求它解释它为什么写东西,它会给你一个完全编造的合理答案。当你询问它的思考过程时,它并没有审查自己的行动,它只是生成听起来像它在做这样的文本。这使得理解系统中的偏见非常困难,尽管这些偏见几乎肯定存在。它也可以被不道德地用来操纵或作弊。你对这些工具的输出负责。
|本质|对信息的扭曲|人类认知偏差_大脑在处理信息时,为了节省认知资源而采取的“捷径”,这些捷径虽然可以提高效率,但也容易导致对信息的扭曲和误判|AI幻觉_模型对训练数据中统计模式的过度依赖,导致其在面对新情况时,无法准确地理解和生成信息,最终输出与现实世界不符的内容||-|-|-|-||表现形式|多种多样且难以察觉|确认偏误(只关注支持自己观点的信息)、可得性偏差(更容易回忆起最近或印象深刻的信息)、锚定效应(过分依赖最初获得的信息)|生成不存在的人物、地点、事件,或者对已知事实进行错误的描述。||产生原因|都与经验和知识有关|与个人的成长经历、文化背景、知识结构等等有关。不同的经验和知识会塑造不同的认知模式,导致人们对相同的信息做出不同的解读|与训练数据的质量、模型的结构和训练策略有关。如果训练数据存在偏差或错误,模型就会学习到这些偏差和错误,并将其体现在生成的内容中||影响|可能导致错误的决策|可能导致我们在生活中做出错误的判断和选择。例如,一个投资者如果受到可得性偏差的影响,可能会高估近期股市上涨的趋势,从而做出错误的投资决策|可能会误导用户、传播虚假信息、甚至引发安全事故。例如,一个用于医疗诊断的AI系统,如果出现幻觉,可能会给出错误的诊断结果,从而延误患者的治疗|