直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

吴恩达

回答

吴恩达(Andrew Ng)是人工智能领域的知名科学家和教育者。

他在机器学习、统计学和人工智能领域贡献显著:

  • 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain)。
  • 担任过百度公司首席科学家并领导百度研究院。

以深度学习和大规模机器学习系统的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目的倡导者,如 TensorFlow 和 Caffe。

他致力于普及人工智能教育,在斯坦福大学和 Coursera 教授的机器学习课程广受欢迎,吸引全球数百万学生参与。其教学和研究工作对人工智能领域发展影响深远。

在相关研究中,吴恩达逐渐意识到利用大量训练数据与快速计算能力的重要性,其想法在一些论文中得到支持。他参与的分散式代码研发,以及在相关领域的成果,为行业发展带来积极影响。

在机器学习课程方面,完成吴恩达的 Coursera 机器学习课程可能会激发对神经网络和深度学习的兴趣。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问:吴恩达是谁?

吴恩达(Andrew Ng)是一位在人工智能领域享有盛誉的科学家和教育者。他在机器学习、统计学和人工智能领域做出了重要贡献,并且是在线教育平台Coursera的联合创始人。吴恩达曾在斯坦福大学担任副教授,并领导了谷歌的大脑项目(Google Brain)。此外,他还曾担任百度公司首席科学家,并领导百度研究院。吴恩达以其在深度学习和大规模机器学习系统方面的研究而闻名,他在这些领域的工作推动了人工智能技术的商业应用和普及。他还是多个人工智能和机器学习开源项目的倡导者,包括TensorFlow和Caffe。除了在学术界和工业界的贡献,吴恩达还致力于普及人工智能教育。他教授的机器学习课程是斯坦福大学和Coursera上最受欢迎的在线课程之一,吸引了全球数百万学生的参与。通过他的教学和研究工作,吴恩达对人工智能领域的发展产生了深远的影响。内容由AI大模型生成,请仔细甄别。

深度 | 神经网络和深度学习简史第四部分:深度学习终迎伟大复兴

在这个案例中利用GPU而不是CPU到底能变得有多快很难说清楚,但是同年《Large-scale Deep Unsupervised Learning using Graphics Processors》这篇论文给出了一个数字:70倍。是的,70倍,这使得数以周记的工作可以被压缩到几天就完成,甚至是一天。之前研发了分散式代码的作者中包括高产的机器学习研究者吴恩达,他逐渐意识到利用大量训练数据与快速计算的能力在之前被赞同学习算法演变愈烈的研究员们低估了。这个想法在2010年的《Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition》(作者之一J.Schimidhuber正是递归LTSM网络(recurrent LTSM networks)的投资者)中也得到了大力支持,展示了MNIST数据库能够达到令人惊叹的0.35%错误率,并且除去大型神经网络、输入的多个变量、以及有效的反向传播GPU实现以外没有任何特殊的地方。这些想法已经存在了数十年,因此尽管可以说算法的改进并不那么重要,但是结果确实强烈表明大型训练数据集与快速腭化计算的蛮力方法是一个关键。Dahl与Mohamed利用GPU打破记录是一个早期且相对有限的成功,但是它足以激励人们,并且对这两人来说也为他们带来了在微软研究室实习的机会。在这里,他们可以享受到那时已经出现的计算领域内另一个趋势所带来的益处:大数据。这个词语定义宽松,在机器学习的环境下则很容易理解——大量训练数据。大量的训练数据非常重要,因为没有它神经网络仍然不能做到很好——它们有些过拟合了(完美适用于训练数据,但无法推广到新的测试数据)。这说得通——大型神经网络能够计算的复杂度需要许多数据来使它们避免学习训练集中那些不重要的方面——这也是过去研究者面对的主要难题。因此现在,大型公司的计算与数据集合能力证明了其不可替代性。这两个学生在三个月的实习期中轻易地证明了深度学习的能力,微软研究室也自此成为了深度学习语音识别研究的前沿地带。

入门 | 机器学习研究者必知的八个神经网络架构

神经网络是机器学习文献中的一类模型。例如,如果你参加了Coursera的机器学习课程,很可能会学到神经网络。神经网络是一套特定的算法,它彻底改变了机器学习领域。他们受到生物神经网络的启发,目前深度神经网络已经被证实效果很好。神经网络本身是一般的函数逼近,这就是为什么它们几乎可以应用于任何从输入到输出空间复杂映射的机器学习问题。以下是说服你学习神经计算的三个理由:了解大脑是如何工作的:它非常大且很复杂,一旦破坏就会脑死亡,所以我们需要使用计算机模拟。了解受神经元及其适应性连接启发的并行计算风格:这种风格与序列计算截然不同。使用受大脑启发的新颖学习算法来解决实际问题:即使不是大脑的实际工作方式,学习算法也非常有用。在完成吴恩达的Coursera机器学习课程后,我开始对神经网络和深度学习产生兴趣,因此寻找最好的网上资源来了解这个主题,并找到了Geoffrey Hinton的机器学习神经网络课程。如果你正在做深度学习的工程或想要踏入深度学习/机器学习的领域,你应该参加这个课程。Geoffrey Hinton毫无疑问是深度学习领域的教父,在课程中给出了非凡的见解。在这篇博客文章中,我想分享我认为任何机器学习研究人员都应该熟悉的八个神经网络架构,以促进他们的工作。一般来说,这些架构可分为三类:1.前馈神经网络这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。如果有多个隐藏层,我们称之为「深度」神经网络。他们计算出一系列改变样本相似性的变换。各层神经元的活动是前一层活动的非线性函数。2.循环网络循环网络在他们的连接图中定向了循环,这意味着你可以按照箭头回到你开始的地方。他们可以有复杂的动态,使其很难训练。他们更具有生物真实性。

其他人在问
吴恩达
吴恩达(Andrew Ng)是在人工智能领域极具声誉的科学家和教育者。 他在机器学习、统计学和人工智能领域贡献卓著: 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain)。 担任过百度公司首席科学家并领导百度研究院。 以深度学习和大规模机器学习系统的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目(如 TensorFlow 和 Caffe)的倡导者。 致力于普及人工智能教育,其教授的机器学习课程在斯坦福大学和 Coursera 上广受欢迎,吸引全球数百万学生参与。 在红杉 AI Ascent 2024 会议中,吴恩达是与会的人工智能领导者之一。 在相关研究中,吴恩达逐渐意识到利用大量训练数据与快速计算能力的重要性,其想法在一些论文中得到支持。 内容由 AI 大模型生成,请仔细甄别。
2025-04-12
吴恩达
吴恩达(Andrew Ng)是人工智能领域享有盛誉的科学家和教育者。他在机器学习、统计学和人工智能领域贡献显著,是在线教育平台 Coursera 的联合创始人。 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain),还曾担任百度公司首席科学家并领导百度研究院。以深度学习和大规模机器学习系统方面的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目(如 TensorFlow 和 Caffe)的倡导者。 他致力于普及人工智能教育,其教授的机器学习课程在斯坦福大学和 Coursera 上极受欢迎,吸引全球数百万学生参与。通过教学和研究工作,对人工智能领域发展影响深远。 吴恩达还参与了红杉 AI Ascent 2024 会议。此外,他有一门生成式 AI 入门视频课程: 。 内容由 AI 大模型生成,请仔细甄别。
2025-04-10
吴恩达是谁
吴恩达(Andrew Ng)是在人工智能领域极具声誉的科学家和教育者。 他在机器学习、统计学和人工智能领域贡献显著: 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain)。 担任过百度公司首席科学家并领导百度研究院。 以深度学习和大规模机器学习系统的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目(如 TensorFlow 和 Caffe)的倡导者。 他还是在线教育平台 Coursera 的联合创始人,其教授的机器学习课程在斯坦福大学和 Coursera 上广受欢迎,吸引全球数百万学生参与。 此外,他还是 AI Fund 的成员,并在红杉 AI Ascent 2024 会议上参与交流。他还出版了新书《How to Build Your Career in AI》,为想进入 AI 领域的人士提供职业发展建议。
2025-04-08
吴恩达最近推出了哪些课程?
吴恩达最近推出的课程包括: 1. 与 OpenAI 合作推出的免费的 Prompt Engineering(提示工程师)课程。 主要内容是教书写 AI 提示词,并利用 GPT 开发一个 AI 聊天机器人。 原版网址:https://www.deeplearning.ai/shortcourses/chatgptpromptengineeringfordevelopers/ B 站版本:【合集·AI Course哔哩哔哩】https://b23.tv/ATc4lX0 、https://b23.tv/lKSnMbB 翻译版本: 推荐直接使用 Jupyter 版本学习,效率更高:https://github.com/datawhalechina/promptengineeringfordevelopers/ 视频下载地址:https://pan.quark.cn/s/77669b9a89d7 OpenAI 开源了教程:https://islinxu.github.io/promptengineeringnote/Introduction/index.html 纯文字版本 2. 2023 年 8 月 24 日上线的最新短课程: 《》,课程内容包括了解何时对 LLM 应用微调、准备数据以进行微调、根据自己的数据训练和评估 LLM。 《》,深入浅出地介绍了基于大语言模型的 AI Agents,从记忆检索到决策推理,再到行动顺序的选择,真实展现了 Agent 的智能化进程。
2025-03-27
吴恩达总结了四种AI Agent的设计模式: 1.反思模式(Reflection): 2.工具使用模式: 3.规划模式: 4.多智能体协作模式:
吴恩达总结了以下四种 AI Agent 的设计模式: 1. 反思模式(Reflection):让 Agent 审视和修正自己生成的输出。例如,在编写代码时,可让大模型检查代码的准确性和结构规范性,并不断优化。 2. 工具使用模式(Tool Use):通过使用外部工具和资源,如 LLM 生成代码、调用 API 等进行实际操作。 3. 规划模式(Planning):让 Agent 分解复杂任务并按计划执行。 4. 多智能体协作模式(Multiagent Collaboration):多个 Agent 扮演不同角色合作完成任务。 如果您想更深入了解这些设计模式,可以参考以下文章:https://waytoagi.feishu.cn/wiki/SPNqwJkmQiyVfGkS8zocMSZcnYd
2025-03-19
吴恩达中文课程
以下是关于吴恩达中文课程的相关信息: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版等。 目录: https://github.com/zard1152/deepLearningAI/wiki 介绍: 有两类大语言模型:基础 LLM 和指令微调 LLM。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会进一步使用人类反馈强化学习(RLHF)技术来优化。 原则与技巧: 两个提示的关键原则:尽可能保证下达的指令“清晰、没有歧义”;给大模型思考的时间,以及足够的时间去完成任务。
2025-03-05