我是一个文科生,并且是AI方面的小白,请问如何在这学习AI 对于文科背景且是 AI 小白的您,以下是学习 AI 的建议:
1. 了解 AI 基本概念:
阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。
浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。
2. 开始 AI 学习之旅:
在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。
通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。
3. 选择感兴趣的模块深入学习:
AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。
掌握提示词的技巧,它上手容易且很有用。
4. 实践和尝试:
理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。
在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。
5. 体验 AI 产品:
与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
此外,以下是一些关于 AI 技术原理和框架的通俗易懂的内容:
1. 视频一主要回答了什么是 AI 大模型,原理是什么。
生成式 AI 生成的内容,叫做 AIGC。
相关技术名词:
AI 即人工智能。
机器学习包括监督学习、无监督学习、强化学习。监督学习是有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归。无监督学习是学习的数据没有标签,算法自主发现规律,经典任务包括聚类。强化学习是从反馈里学习,最大化奖励或最小化损失,类似训小狗。
深度学习是一种参照人脑有神经网络和神经元的方法。神经网络可以用于监督学习、无监督学习、强化学习。
生成式 AI 可以生成文本、图片、音频、视频等内容形式。
LLM 即大语言模型。对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。
技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
2025-02-22