帮助普通大众了解生成式AI,以满足对AI的在使用过程中的一般需求 生成式 AI 是一种能够为用户生成内容的人工智能,生成的内容可以是多模式的,包括文本、图像、音频和视频。当给出提示或请求时,它可以帮助完成诸如文档摘要、信息提取、代码生成、营销活动创建、虚拟协助和呼叫中心机器人等各种任务。
生成式 AI 从大量现有内容中学习,这个学习过程称为训练,其结果是创造“基础模型”,如为 Bard 等聊天机器人提供支持的 LLM 或大型语言模型。基础模型可用于生成内容并解决一般问题,还可以使用所在领域的新数据集进一步训练以解决特定问题,从而创建一个新模型。Google Cloud 提供了如 Vertex AI 等多种易于使用的工具,帮助在具有或不具有 AI 和机器学习背景的项目中使用生成式 AI。
在技术原理方面,生成式 AI 生成的内容叫做 AIGC。相关技术名词包括:
1. AI 即人工智能。
2. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。
监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。
无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。
强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。
3. 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。
4. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。
5. LLM 是大语言模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。
2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。Transformer 比 RNN 更适合处理文本的长距离依赖性。
2024-10-09