Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

人工智能历史图谱

Answer

人工智能的历史可以追溯到二十世纪中叶。

起初,符号推理流行,带来了专家系统等重要进展,但因提取知识复杂、成本高等问题,20 世纪 70 年代出现“人工智能寒冬”。

随着计算资源便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年“人工智能”常被视为“神经网络”的同义词。

在国际象棋对弈程序方面,早期以搜索为基础,发展出阿尔法-贝塔剪枝搜索算法,后来采用基于案例的推理,如今基于神经网络和强化学习,能从自身错误中学习,学习速度快于人类。

在创建“会说话的程序”方面,早期如 Eliza 基于简单语法规则,现代助手如 Cortana、Siri 等是混合系统,使用神经网络转换语音、识别意图,未来有望出现完整基于神经网络的模型处理对话,如 GPT 和 Turing-NLG 系列神经网络取得成功。

近期神经网络研究在 2010 年左右有巨大发展,大型公共数据集出现,如 ImageNet 催生了相关挑战赛。2012 年卷积神经网络用于图像分类使错误率大幅下降,2015 年微软研究院的 ResNet 架构达到人类水平准确率,此后神经网络在图像分类、对话语音识别、自动化机器翻译、图像描述等任务中表现成功。

在过去几年,大型语言模型如 BERT 和 GPT-3 取得巨大成功,得益于大量通用文本数据,可先预训练再针对具体任务专门化。

Content generated by AI large model, please carefully verify (powered by aily)

References

人工智能简介和历史

人工智能作为一个领域始于二十世纪中叶。最初,符号推理非常流行,也带来了一系列重要进展,例如专家系统——能够在某些有限问题的领域充当专家的计算机程序。然而,人们很快发现这种方法无法实现应用场景的大规模拓展。从专家那里提取知识,用计算机可读的形式表现出来,并保持知识库的准确性,是一项非常复杂的任务,而且因为成本太高,在很多情况下并不适用。这使得20世纪70年代出现了“人工智能寒冬”([AI Winter](https://en.wikipedia.org/wiki/AI_winter))。随着时间的推移,计算资源变得越来越便宜,可用的数据也越来越多,神经网络方法开始在计算机视觉、语音理解等领域展现出可与人类相媲美的卓越性能。在过去十年中,“人工智能”一词大多被用作“神经网络”的同义词,因为我们听到的大多数人工智能的成功案例都是基于神经网络的方法。我们可以观察一下这些方法是如何变化的,例如,在创建国际象棋计算机对弈程序时:

人工智能简介和历史

早期的国际象棋对弈程序是以搜索为基础的——程序尝试估计对手在给定棋步数量下可能走的棋步,并根据在几步棋内所能达到的最佳位置选择最佳棋步。这带来了[阿尔法-贝塔剪枝](https://en.wikipedia.org/wiki/Alpha%E2%80%93beta_pruning)搜索算法的发展。搜索策略在对局即将结束时效果很好,因为此时搜索空间对应的棋步可能性局限在非常小的范围内。然而在对局刚刚开始时,搜索空间非常巨大,需要考虑通过学习人类棋手之间的现有对局来改进算法。随后的实验采用了[基于案例的推理](https://en.wikipedia.org/wiki/Case-based_reasoning),即程序在知识库中寻找与当前棋局位置非常相似的案例,以此来决定自己的棋步。能够战胜人类棋手的现代对弈程序都基于神经网络和强化学习,程序通过长时间与自己的对弈,从自己的错误中学习,以此来学会下棋,这与人类学习下棋的过程非常相似。不过,计算机程序可以用更少的时间下更多的棋,因此学习速度更快。✅对人工智能玩过的其他游戏做一个小调研。同样,我们可以看到创建“会说话的程序”(可能通过图灵测试)的方法是如何变化的:早期的此类程序,如[Eliza](https://en.wikipedia.org/wiki/ELIZA),基于非常简单的语法规则,并将输入的句子重新表述为一个问题。Cortana、Siri或谷歌助手(Google Assistant)等现代助手都是混合系统,它们使用神经网络将语音转换成文本,并识别我们的意图,然后采用一些推理或明确的算法来执行所需的操作。未来,我们可以期待一个完整的基于神经网络的模型来独立处理对话。最近的GPT和Turing-NLG系列神经网络在这方面取得了巨大成功。

人工智能简介和历史

近期神经网络研究的巨大发展始于2010年左右,当时开始出现可用的大型公共数据集。一个名为ImageNet的大型图像集合包含了约1,400万张带注释的图像,这催生了[ImageNet大规模视觉识别挑战赛](https://image-net.org/challenges/LSVRC/)。2012年,卷积神经网络首次被用于图像分类,使得分类错误率大幅下降(从近30%降至16.4%)。2015年,微软研究院的ResNet架构达到了人类水平的准确率。从那时起,神经网络在许多任务中都表现得非常成功:|年份|实现人类水平准确率||-|-||2015|[图像分类](https://doi.org/10.1109/ICCV.2015.123)||2016|[对话语音识别](https://arxiv.org/abs/1610.05256)||2018|[自动化机器翻译](https://arxiv.org/abs/1803.05567)(从中文到英文)||2020|[图像描述](https://arxiv.org/abs/2009.13682)|在过去几年中,我们见证了大型语言模型的巨大成功,例如BERT和GPT-3。这主要归功于有大量的通用文本数据可供使用,让我们可以训练模型来捕捉文本的结构和含义,在通用文本集合上对它们进行预训练,然后针对更具体的任务对这些模型进行专门化。我们将在本课程的后半部分学习更多有关自然语言处理的知识。[heading1]?挑战[content]浏览一下互联网,在你看来,人工智能在哪里得到了最有效的应用。是在地图应用程序中,还是在语音转文字服务或视频游戏中?研究这些系统是如何构建的。[heading1][课后测试](https://red-field-0a6ddfd03.1.azurestaticap

Others are asking
知识图谱
知识图谱是一种揭示实体之间关系的语义网络,可以对现实世界的事物及其相互关系进行形式化地描述。它于 2012 年 5 月 17 日由 Google 正式提出,初衷是提高搜索引擎的能力,增强用户的搜索质量和体验,实现从网页链接到概念链接的转变,支持按主题检索和语义检索。 知识图谱的关键技术包括: 1. 知识抽取: 实体抽取:通过命名实体识别从数据源中自动识别命名实体。 关系抽取:从数据源中提取实体之间的关联关系,形成网状知识结构。 属性抽取:从数据源中采集特定实体的属性信息。 2. 知识表示:包括属性图和三元组。 3. 知识融合: 实体对齐:消除异构数据中的实体冲突、指向不明等不一致性问题。 知识加工:对知识统一管理,形成大规模的知识体系。 本体构建:以形式化方式明确定义概念之间的联系。 质量评估:计算知识的置信度,提高知识质量。 知识更新:不断迭代更新,扩展现有知识,增加新知识。 4. 知识推理:在已有的知识库基础上挖掘隐含的知识。 在国家人工智能产业综合标准化体系建设指南中,知识图谱标准规范了知识图谱的描述、构建、运维、共享、管理和应用,包括知识表示与建模、知识获取与存储、知识融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、知识图谱交付与应用、知识图谱系统架构与性能要求等标准。
2025-04-17
学习大模型请给我一张知识图谱
以下是为您提供的大模型知识图谱: 1. 非技术背景,一文读懂大模型 整体架构 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等。 数据层:企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 模型层:LLm 或多模态模型,LLm 即大语言模型,如 GPT,一般使用 transformer 算法实现;多模态模型包括文生图、图生图等,训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。 平台层:模型与应用间的平台部分,如大模型的评测体系,或者 langchain 平台等。 表现层:也就是应用层,用户实际看到的地方。 2. AI Agent 系列:Brain 模块探究 知识 内置知识 常识知识:包括日常生活中广泛认可的事实和逻辑规则,帮助智能体具备泛化能力。 专业知识:涉及深入特定领域的详细信息,如医学、法律、科技、艺术等领域的专有概念和操作方法。 语言知识:包括语法规则、句型结构、语境含义以及文化背景等,还涉及非文字部分如语调、停顿和强调等。 3. 大模型入门指南 通俗定义:输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。 类比学习过程 找学校:训练 LLM 需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练大模型。 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 找老师:用算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 就业指导:为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 Token:被视为模型处理和生成的文本单位,可代表单个字符、单词、子单词等,在将输入进行分词时,会对其进行数字化,形成词汇表。
2025-04-07
RAG和知识图谱的结合,需要如何实现
要实现 RAG 和知识图谱的结合,可以参考以下步骤: 1. 数据加载:根据数据源的类型选择合适的数据加载器,如对于网页数据源,可使用 WebBaseLoader 利用 urllib 和 BeautifulSoup 加载和解析网页,获取文档对象。 2. 文本分割:依据文本特点选用合适的文本分割器,将文档对象分割成较小的文档对象。例如,对于博客文章,可使用 RecursiveCharacterTextSplitter 递归地用常见分隔符分割文本,直至每个文档对象大小符合要求。 3. 嵌入与存储:根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,将文档对象转换为嵌入并存储。比如,可使用 OpenAI 的嵌入模型和 Chroma 的向量存储器,即 OpenAIEmbeddings 和 ChromaVectorStore。 4. 创建检索器:使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据模型性能和成本选择合适的聊天模型,如使用 OpenAI 的 GPT3 模型,即 OpenAIChatModel,根据用户输入和检索到的文档对象生成输出消息。 此外,通用语言模型通过微调能完成常见任务,而对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 研究人员引入的 RAG 方法把信息检索组件和文本生成模型结合,能接受输入并检索相关文档,组合上下文和原始提示词送给文本生成器得到输出,适应事实变化,无需重新训练模型就能获取最新信息并产生可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2025-03-28
知识图谱
知识图谱是一种揭示实体之间关系的语义网络,能够对现实世界的事物及其相互关系进行形式化描述。它于 2012 年 5 月 17 日由 Google 正式提出,初衷是提高搜索引擎能力,增强用户搜索质量和体验,实现从网页链接到概念链接的转变,支持按主题检索和语义检索。 知识图谱的关键技术包括: 1. 知识抽取: 实体抽取:通过命名实体识别从数据源中自动识别命名实体。 关系抽取:从数据源中提取实体之间的关联关系,形成网状知识结构。 属性抽取:从数据源中采集特定实体的属性信息。 2. 知识表示:包括属性图、三元组等。 3. 知识融合: 实体对齐:消除异构数据中的实体冲突、指向不明等不一致性问题。 知识加工:对知识统一管理,形成大规模知识体系。 本体构建:以形式化方式明确定义概念之间的联系。 质量评估:计算知识的置信度,提高知识质量。 知识更新:不断迭代更新,扩展现有知识,增加新知识。 4. 知识推理:在已有的知识库基础上挖掘隐含的知识。 在国家人工智能产业综合标准化体系建设指南中,知识图谱标准规范了知识图谱的描述、构建、运维、共享、管理和应用,包括知识表示与建模、知识获取与存储、知识融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、知识图谱交付与应用、知识图谱系统架构与性能要求等标准。
2025-03-21
知识图谱产品
知识图谱(Knowledge Graph,KG)是一种揭示实体之间关系的语义网络,可以对现实世界的事物及其相互关系进行形式化地描述。 知识图谱于 2012 年 5 月 17 日被 Google 正式提出,其初衷是为了提高搜索引擎的能力,增强用户的搜索质量以及搜索体验。知识图谱可以将 Web 从网页链接转向概念链接,支持用户按照主题来检索,实现语义检索。 知识图谱的关键技术包括: 1. 知识抽取:通过自动化的技术抽取出可用的知识单元,包括实体抽取(命名实体识别(Named Entity Recognition,NER)从数据源中自动识别命名实体)、关系抽取(从数据源中提取实体之间的关联关系,形成网状的知识结构)、属性抽取(从数据源中采集特定实体的属性信息)。 2. 知识表示:属性图、三元组。 3. 知识融合:在同一框架规范下进行异构数据整合、消歧、加工、推理验证、更新等,达到数据、信息、方法、经验等知识的融合,形成高质量知识库。包括实体对齐(消除异构数据中的实体冲突、指向不明等不一致性问题)、知识加工(对知识统一管理,形成大规模的知识体系)、本体构建(以形式化方式明确定义概念之间的联系)、质量评估(计算知识的置信度,提高知识的质量)、知识更新(不断迭代更新,扩展现有知识,增加新的知识)。 4. 知识推理:在已有的知识库基础上挖掘隐含的知识。
2025-03-21
知识图谱
知识图谱是一种揭示实体之间关系的语义网络,可以对现实世界的事物及其相互关系进行形式化地描述。它于 2012 年 5 月 17 日由 Google 正式提出,初衷是提高搜索引擎的能力,增强用户的搜索质量和体验,实现从网页链接到概念链接的转变,支持按主题检索和语义检索。 知识图谱的关键技术包括: 1. 知识抽取: 实体抽取:通过命名实体识别从数据源中自动识别命名实体。 关系抽取:从数据源中提取实体之间的关联关系,形成网状知识结构。 属性抽取:从数据源中采集特定实体的属性信息。 2. 知识表示:包括属性图和三元组。 3. 知识融合: 实体对齐:消除异构数据中的实体冲突、指向不明等不一致性问题。 知识加工:对知识统一管理,形成大规模的知识体系。 本体构建:以形式化方式明确定义概念之间的联系。 质量评估:计算知识的置信度,提高知识质量。 知识更新:不断迭代更新,扩展现有知识,增加新知识。 4. 知识推理:在已有的知识库基础上挖掘隐含的知识。 在国家人工智能产业综合标准化体系建设指南中,知识图谱标准规范了知识图谱的描述、构建、运维、共享、管理和应用,包括知识表示与建模、知识获取与存储、知识融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、知识图谱交付与应用、知识图谱系统架构与性能要求等标准。
2025-03-21
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
人工智能软件现在有哪些
以下是一些常见的人工智能软件: 1. 在自然语言处理和神经科学应用方面,大型语言模型取得了进展,拥有更先进的工具用于解码大脑状态和分析复杂脑部活动。 2. 在艺术创作领域,有涉及知识产权保护的相关软件,如软件工程师在设计时应确保生成内容合法合规、注重用户知识产权保护等。创作者使用此类软件时,应了解自身权利并做好保护。 3. 在线 TTS 工具方面,如 Eleven Labs(https://elevenlabs.io/)、Speechify(https://speechify.com/)、Azure AI Speech Studio(https://speech.microsoft.com/portal)、Voicemaker(https://voicemaker.in/)等。这些工具可将文本转换为语音,具有不同的特点和适用场景。但请注意,相关内容由 AI 大模型生成,请仔细甄别。
2025-04-15
什么是通用人工智能
通用人工智能(AGI)是指具有人类水平的智能和理解能力的 AI 系统。它有能力完成任何人类可以完成的智力任务,适用于不同的领域,同时拥有某种形式的意识或自我意识。 目前 AGI 还只是一个理论概念,没有任何 AI 系统能达到这种通用智能水平。 OpenAI 在其内部会议上分享了 AGI 的五个发展等级: 1. 聊天机器人(Chatbots):具备基本对话能力的 AI,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平的 AI,能够解决复杂问题,如 ChatGPT,能够根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务的 AI。目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 4. 创新者(Innovators):能够协助人类完成新发明的 AI,如谷歌 DeepMind 的 AlphaFold 模型,可以预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 常见名词解释: AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing),就是说人话。 LLM:大型语言模型(Large Language Model),数据规模很大,没钱搞不出来,大烧钱模型。
2025-04-15
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
用通俗易懂的动画描述人工智能工作原理
人工智能的工作原理可以通过以下动画来描述: 在一个动画场景中,首先有一个传统工作流的部分,就像精心搭建的积木城堡,每一块积木的位置和形状都被精确设计和控制,这代表着传统工作流的可控性和高成本、慢速度。 然后是 AI 工作流的部分。想象一下,有一团混乱的色彩在飞舞,这团色彩代表着随机和不可控。但在这混乱中,有一种力量在尝试引导和塑造,就像在狂风中努力抓住风筝线一样,这就是在随机性中寻找可控性。 比如在一个生成音频与视频同步的例子中,动画展示了一个系统。首先,系统将视频输入编码成压缩的表示形式,就像把一大包东西压缩成一个小包裹。然后,扩散模型从随机噪声中不断改进音频,就像在混沌中逐渐塑造出清晰的声音。这个过程受到视觉输入和自然语言提示的引导,最终生成与提示紧密配合的同步逼真音频。最后,音频输出被解码,变成音频波形,并与视频数据完美结合。 总的来说,传统工作流在可控中寻找创新的随机,而 AI 工作流更多是在随机中寻找可控,两者各有优劣,结合起来能创造出更出色的成果。
2025-04-14
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因方法无法大规模拓展应用场景,且从专家提取知识并以计算机可读形式表现及保持知识库准确的任务复杂、成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源变便宜,数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。过去十年中,“人工智能”常被视为“神经网络”的同义词,因多数成功案例基于神经网络方法。 以下是人工智能发展历程中的一些重要节点: 1969 年:经历低潮。Marvin Minsky 和 Seymour Papert 阐述因硬件限制,几层的神经网络仅能执行基本计算,AI 领域迎来第一次泡沫破灭。 1960 1970 年代:早期专家系统。此时期 AI 研究集中在符号主义,以逻辑推理为中心,主要是基于规则的系统,如早期专家系统。 1980 年代:神经网络。基于规则的系统弊端显现,人工智能研究关注机器学习,神经网络根据人脑结构和操作创建和建模。 1997 年:深蓝赢得国际象棋比赛。IBM 深蓝战胜国际象棋冠军卡斯帕罗夫,新的基于概率推论思路广泛应用于 AI 领域。 1990 2000 年代:机器学习。AI 研究在机器人技术、计算机视觉和自然语言处理等领域取得显著进展,21 世纪初深度学习出现使语音识别、图像识别和自然语言处理进步成为可能。 2012 年:深度学习兴起。Geoffrey Hinton 开创相关领域,发表开创性论文引入反向传播概念,突破感知器局限。 2012 年:AlexNet 赢得 ImageNet 挑战赛。引发深度学习热潮。 2016 年:AlphaGo 战胜围棋世界冠军。DeepMind 的 AlphaGo 战胜李世石,标志着人工智能在围棋领域超越人类,对人类理解产生深远影响。
2025-04-10
AI历史
AI 技术的发展历程如下: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理得到发展。 3. 统计学习时期(1990s 2000s):出现了机器学习算法,如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等兴起。 当前 AI 前沿技术点包括: 1. 大模型,如 GPT、PaLM 等。 2. 多模态 AI,如视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习,如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习,包括元学习、一次学习、提示学习等。 5. 可解释 AI,涉及模型可解释性、因果推理、符号推理等。 6. 机器人学,涵盖强化学习、运动规划、人机交互等。 7. 量子 AI,包含量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 AI 的起源最早可追溯到 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开了著名的达特茅斯会议,“人工智能”一词被正式提出,并作为一门学科确立下来。此后近 70 年,AI 的发展起起落落。
2025-04-15
给我找一些介绍ai发展历史的文章。
以下是为您找到的关于 AI 发展历史的相关内容: 2022 年 11 月 30 日,OpenAI 发布基于 GPT 3.5 的 ChatGPT,自此开始,一股 AI 浪潮席卷全球,但 AI 并非近几年才出现。其起源最早可追溯到上世纪的 1943 年。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。 1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。 1956 年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能(Artificial Intelligence)一词被正式提出,并作为一门学科被确立下来。 此后接近 70 年的漫长时间里,AI 的发展起起落落,两次掀起人类对 AI 毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。 此外,知识库中还整理了 OpenAI 的发展时间线和万字长文回顾等历史脉络类资料。
2025-03-26
AI绘画的历史与发展
AI 绘画的历史与发展如下: 早期,AI 绘画成果较为简单粗糙。但随着技术进步,尤其是深度学习算法如卷积神经网络的应用,其能够生成更复杂、逼真和富有创意的图像,涵盖各种风格和题材,从写实到抽象,从风景到人物。 AI 绘画在与人类艺术家的互动和融合中不断创新,为艺术创作带来新的可能性和挑战。它从生成艺术作品到辅助艺术创作,逐渐改变着传统艺术的面貌。 AI 技术在艺术创作中的应用不仅改变了创作方式,还对艺术的审美观念和市场需求产生影响。一方面,人们对 AI 驱动的机器人创作的艺术品和人类创作的艺术品接受程度大致相同,但不太愿意将机器人视为艺术家,这表明其在表达情感和创造性意图方面存在局限性。另一方面,艺术家对 AI 生成艺术的态度复杂,既有期待也有对版权、原创性和伦理问题的担忧。 此外,AI 绘画技术的发展带来了对文化创意领域从业者职业安全的焦虑,以及对其“侵权”嫌疑的反对之声,反映了新技术发展带来的行业生态变化和对现有法律伦理框架的挑战。 尽管存在争议,AI 在艺术领域的应用为艺术创作提供了新的工具和可能性,帮助艺术家探索新的创意表达方式,提高制作效率,降低制作成本,促进艺术与观众之间的互动,提供更加个性化和互动的艺术体验。 艺术与科技的融合正呈现出前所未有的奇妙景象,AI 绘画作为杰出代表,将艺术与先进技术完美结合,开启探索之旅,引领艺术界走向未来。艺术创作通常依赖手工技艺和个人感悟,而 AI 绘画利用机器学习和深度学习等技术,模拟人类创作过程,生成令人惊叹的作品,为艺术家提供新工具,为观众带来新体验,打破了传统创作的局限,使艺术更加民主化和包容。
2025-03-22
请介绍一下中国AI发展历史
中国 AI 的发展历史可以追溯到二十世纪中叶。 最初,AI 领域的符号推理较为流行,也取得了一些重要进展,如专家系统。但由于从专家提取知识并以计算机可读形式表现和保持知识库准确性的任务复杂且成本高,20 世纪 70 年代出现了“人工智能寒冬”。 对于大众来说,对 AI 领域的使用在近 20 年随着国内互联网的发展才开始普及。最初的应用主要是基于 NLP 技术的聊天机器人和客服机器人。随后,中英文翻译、语音识别、人脸识别等技术取得突破,在日常生活中的应用广泛,如语音助手、智能翻译设备、人脸识别支付系统等。但此前这些技术突破大多限于特定领域,模型应用范围相对狭窄。 近年来,随着计算资源变得更便宜、可用数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。在过去十年中,“人工智能”一词常被用作“神经网络”的同义词。 2022 年 11 月 30 日,OpenAI 发布基于 GPT 3.5 的 ChatGPT ,引发全球 AI 浪潮。AI 的起源最早可追溯到 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续神经网络奠定基础。1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院召开的会议上,人工智能一词被正式提出并确立为一门学科。此后近 70 年,AI 的发展起起落落。
2025-03-18
AI的发展历史
AI 的发展历史如下: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论等。 2. 知识驱动时期(1970s 1980s):以专家系统、知识表示、自动推理为主要特点。 3. 统计学习时期(1990s 2000s):出现了机器学习算法,如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等得到广泛应用。 当前 AI 的前沿技术点包括: 1. 大模型,如 GPT、PaLM 等。 2. 多模态 AI,如视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习,如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习,如元学习、一次学习、提示学习等。 5. 可解释 AI,包括模型可解释性、因果推理、符号推理等。 6. 机器人学,涵盖强化学习、运动规划、人机交互等。 7. 量子 AI,如量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 AI 的起源最早可追溯到 1943 年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950 年,图灵最早提出了图灵测试,作为判别机器是否具备智能的标准。1956 年,在美国达特茅斯学院召开的会议上,人工智能一词被正式提出,并作为一门学科被确立下来。此后近 70 年,AI 的发展起起落落。 最初,符号推理流行,带来了专家系统等重要进展,但因方法局限,20 世纪 70 年代出现“人工智能寒冬”。随着计算资源便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中,“人工智能”一词常被用作“神经网络”的同义词。
2025-03-17
AI的历史
AI 作为一个领域始于二十世纪中叶。 早期,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现及保持知识库准确性的任务复杂且成本高,应用场景难以大规模拓展,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 AI 技术的发展历程包括: 1. 早期阶段(1950s 1960s):专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点有: 1. 大模型(Large Language Models):GPT、PaLM 等。 2. 多模态 AI:视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习:自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习:元学习、一次学习、提示学习等。 5. 可解释 AI:模型可解释性、因果推理、符号推理等。 6. 机器人学:强化学习、运动规划、人机交互等。 7. 量子 AI:量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 最初,查尔斯·巴贝奇发明计算机用于按明确程序运算。现代计算机虽先进,但仍遵循相同受控计算理念。但有些任务如根据照片判断人的年龄,无法明确编程,这正是 AI 感兴趣的。
2025-03-11