以下是关于 GPT 的相关知识:
大家玩GPT应该有一段时间了,我们都知道GPT的全称是“Generative Pre-trained Transformer“,前两个词比较好理解,Transformer是个相对专业的概念。这篇文章我们就主要讲一下Transformer的工作原理。下面的内容涉及一些线性代数和概率学知识,我在具体的计算过程里面有一些解释,大家也可以用AI工具针对性学习一下相关的概念,理解起来会容易一些。
GPT是“生成式预训练变换器”(Generative Pre-trained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个GPT由OpenAI于2018年推出。GPT模型是基于Transformer模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至2023年,大多数LLM都具备这些特征,并广泛被称为GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到2017年Google推出了Transformer模型,我们才见到了如BERT(2018年发布)和XLNet(2019年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018年,OpenAI发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT-1”。[heading1]问题六、大模型是什么东西?[content]所谓的大模型,简而言之,就是那些拥有庞大参数数量的模型。它们通过处理和理解海量数据,能够胜任一系列复杂的任务。那么,为何将这些模型称作“大”模型呢?原因在于它们的规模之大,通常包含从数十亿到数千亿的参数。这些庞大的参数集合赋予了模型强大的学习和记忆能力,使其在处理各种任务时表现出色。我们可以从两个方面来进一步解读大模型的特点:1.大模型之所以强大,一个重要原因在于它们庞大的参数数量。这些参数,或者说“权重”,是模型在学习过程中不断调整的核心,它们帮助模型更深入地理解和生成数据。2.大模型的训练离不开大量的数据。无论是文本、图像还是音频数据,都是大模型学习的基础。通过对这些数据的深入学习,模型能够掌握丰富的知识和技能。
所以,尽管"token"和"字节"都是基本的处理单位,但是"token"在大语言模型中的含义和作用要比"字节"在计算机中的含义和作用更加丰富和复杂。另外,如果现在正在浏览这篇帖子的你曾经“机翻”过一些文档的话,你会经常看到“token”被自动翻译工具翻译为“令牌”,我不知道你是否对于这一翻译感到过疑惑,我感到过,所以我问了:为什么会有token这部分内容引用了知乎作者[卡卡罗特](https://www.zhihu.com/people/jun-wan-70)的专栏文章:[ChatGPT实用指南(一)-知乎(](https://zhuanlan.zhihu.com/p/620426699)[zhihu.com](https://wx.zsxq.com/dweb2/zhihu.com)[)](https://zhuanlan.zhihu.com/p/620426699)内容过于学术所以只做了节选,特别感兴趣的同学也可以点进去查阅完整文章,写的是非常好的。GPT的输入和输出都是到中文字的粒度吗?注意,GPT不仅仅能处理中文,它还能处理几乎世界上所有流行的自然语言。所以这告诉我们GPT实际的输入和输出并不是像我们想象的样子。因此,我们需要引入token的概念。token是自然语言处理的最细粒度。简单点说就是,GPT的输入是一个个的token,输出也是一个个的token。GPT不是适用于某一门语言的大型语言模型,它适用于几乎所有流行的自然语言。所以GPT的token需要兼容几乎人类的所有自然语言,那意味着GPT有一个非常全的token词汇表,它能表达出所有人类的自然语言。如何实现这个目的呢?答案是通过unicode编码。