AI 领域曾经历多次起伏,例如出现过“AI 冬天”的情况。“AI 冬天”指的是 AI 领域长时间获得有限资金支持,且不被严肃研究者过多关注的时期,曾发生在 70 年代和 80 年代,以及从 80 年代中期至大约 2000 年代末。OpenAI 的 Sam Altman 认为可能会有新的“AI 冬天”,但短期内不太可能,因为当前范式的经济价值及还能推动的程度能在未来多年支持发展。他似乎非常确信互联网上有足够数据训练 AGI 系统,甚至可能已构建或接近构建 AGI 系统,且 AGI 不再是目标。此外,OpenAI 正在使用新的缩放范式如基于“Chinchilla 缩放法则”来弥补模型的差距,Chinchilla 是 DeepMind 在 2022 年初公布的模型,其研究表明更多计算资源和数据能大幅提升性能,无需增加参数。
天冷啦,用AI给你的家乡或者你现在所在地的地标穿个毛衣吧!随着秋风送爽,冬日的脚步悄然临近,是时候为我们的家乡或所在地的地标建筑披上一件温暖的毛衣了。本期教程将带您领略如何使用AI技术,为那些冰冷的建筑赋予温暖的毛线质感,让它们在这个冬季焕发出别样的生机。[heading1]先看效果:[content]以我的家乡开原老城的城门为例,我们将通过以下步骤,为这座古老的城门穿上一件毛线编织的外衣。原图穿毛衣后
2022年11月30日,OpenAI发布基于GPT 3.5的ChatGPT,自此开始,一股AI浪潮席卷全球,但AI(人工智能,Artificial Intelligence)并不是近几年才有的新鲜事,他的起源,最早可以追溯到上世纪的1943年。1943年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950年,伟大的计算机先驱图灵最早提出了图灵测试,做为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。1956年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能Artificial Intelligence一词被正式提出,并做为一门学科被确立下来。此后接近70年的漫长时间里,AI的发展起起落落,两次掀起人类对AI毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。图1 AI发展史
来自Sam Altman问答环节的另一段引述——(时间:53:00)[注——AI冬天是指AI领域长时间获得有限资金支持,并且不被严肃研究者给予太多关注的一个时期。这发生过两次——一次是在70年代和80年代,另一次是从80年代中期直到大约2000年代末。]另一个观众问题:“我们可能会有另一个AI冬天吗,它可能由什么引起?” Sam Altman的回答:“我们可能会有另一个AI冬天,它可能由什么引起……是的,当然。我认为我们不会很快遇到。因为即使我们永远找不到另一个研究思路,当前范式的经济价值以及它还能被推动多远,将会在未来很多年内支持我们。但尽管不太可能,我们仍然可能错过了超越行为克隆的关键思路,这些模型将会永远停留在人类水平。我有很多理由认为这不是真的,但如果有人告诉你我们在这个研究领域绝不可能再有一个冬天,你绝不要相信他们。”关于Sam Altman的问答环节首先,Sam Altman似乎非常、非常确信互联网上存在足够的数据来训练一个AGI系统——他的自信程度让人怀疑他们是否已经做到了,或者正在做这件事。其次,“AI冬天”这个概念通常指的是通向AGI的进展放缓的时期,但Sam Altman重新定义了这个术语,使其指的是通向超级智能的进展放缓的时期。这似乎表明OpenAI已经构建了一个AGI系统,或者非常接近了,而AGI不再是目标,因为它已经存在。正如我之前在文档中提到的,一个100万亿参数的模型实际上是稍微次优的,但OpenAI正在使用一种新的缩放范式来弥补这个差距——它基于所谓的“Chinchilla缩放法则”。Chinchilla是DeepMind在2022年初公布的一个AI模型。Chinchilla研究论文的含义是,当前的模型训练得远远不够,而且如果有更多的计算资源(意味着更多的数据),性能将会大幅提升,而无需增加参数。