ChatGPT 是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT-4 的 LLM。
ChatGPT 的基本概念在某种程度上相当简单。它从网络、书籍等来源中获取大量人类创作的文本样本,然后训练神经网络生成“类似”的文本,特别是能够从“提示”开始,然后继续生成“类似于训练内容”的文本。
ChatGPT 中的实际神经网络由非常简单的元素组成,尽管数量多达数十亿个。其基本操作也非常简单,基本上是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”(没有任何循环等)。
ChatGPT 实质功能本质是“单字接龙”,长文由单字接龙的回归所生成。GPT 作为大脑,也就是模型是需要训练的,训练方式是通过材料学习,不断形成模型。训练的目的不是记忆,是学习“提问和回答的通用规律”,学习后的模型,可以实现举一反三。但 ChatGPT 并不是搜索引擎的升级版,通过提前训练生成想要的问答,这样的训练是为了让它学会“能举一反三的规律”。不过,它也存在缺点,可能混淆记忆,无法直接查看和更新所学,且高度依赖学习材料,导致缺乏及时性和准确性,还可能对现实不存在的东西,出现合乎规律的捏造,产生“幻觉”。
GPT 即 Generative Pre-Training Transformer,意思是生成式预训练转换器。
ChatGPT的基本概念在某种程度上相当简单。从网络、书籍等来源中获取大量人类创作的文本样本。然后训练神经网络生成“类似”的文本。特别是让它能够从“提示”开始,然后继续生成“类似于训练内容”的文本。正如我们所见,ChatGPT中的实际神经网络由非常简单的元素组成,尽管有数十亿个。神经网络的基本操作也非常简单,基本上是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”(没有任何循环等)。但是,这个过程能够产生成功地“类似于”网络、书籍等内容的文本,这是非常卓越和出乎意料的。它不仅是连贯的人类语言,而且“说的话”是“遵循其提示”的,利用其“读到”的内容。它并不总是说出“全局意义上的话”(或对应于正确的计算),因为(例如,没有访问Wolfram|Alpha的“计算超能力”)它只是根据训练材料中的“声音类似”的东西“说出”“听起来正确”的东西。
chatGPT:是由致力于AGI的公司OpenAI研发的一款AI技术驱动的NLP聊天工具,于2022年11月30日发布,目前使用的是GPT-4的LLM。额!~ chatGPT我听过,也知道是啥,但你这个解释我直接给我干懵了,套娃呢,解释藏我不认识的单词是不!~ AI:人工智能(Artificial Intelligence)AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统NLP:自然语言处理(Natural Language Processing),就是说人话LLM:大型语言模型(Large Language Model),数据规模很大,没钱你搞不出来的,大烧钱模型。这段解释chatGPT的释义,一句话就把关于AIGC的几个常见名词都涵盖了,不愧是去年火到我卖地瓜的二姨都知道的“鸡屁屉”。一个字!绝!
它为什么叫做ChatGPT呢?先说GPT:Generative Pre-Training Transformer;Generative生成式,Pre-Training预训练。Transformer转换器示意图ChatGPT实质功能:本质是「单字接龙」,长文由单字接龙的回归所生成GPT作为大脑,也就是模型是需要训练的。训练方式是通过材料学习,不断的形成模型。eg.未学习前,胡乱生成,学习后,概率抽样生成,可以对比小朋友学习前后训练的目的不是记忆,是学习,“提问和回答的通用规律”学习后的模型,可以实现举一反三Chat Gpt并不是搜索引擎的升级版,材料学习作业时调整模型,生成模型;可以给出没有记忆中的内容,这也是出现“幻觉”的原因,对现实不存在的东西,出现合乎规律的捏造,通过提前训练才能生成想要的问答,这样的训练是为了让它学会「能举一反三的规律」缺点是可能混淆记忆,无法直接查看和更新所学,且高度依赖学习材料,也是缺乏及时性,准确性的原因