以下是关于 AI 大模型基础原理的简单通俗课程:
1. 概念
生成式 AI 生成的内容称为 AIGC。
2. 概念与关系
AI 即人工智能。
机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。
监督学习:使用有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归。
无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类,例如让模型将一堆新闻文章根据主题或内容特征分成相似组。
强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。
深度学习是一种参照人脑的方法,具有神经网络和神经元(因层数多称为深度),神经网络可用于监督学习、无监督学习、强化学习。
生成式 AI 可以生成文本、图片、音频、视频等内容形式。
LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。
3. 技术里程碑
2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制(SelfAttention)处理序列数据,不依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-02-27