吴恩达:人工智能是当今创新的主要驱动力

作者:吴恩达(Andrew Ng)

来源:麻省理工科技评论

图片来源:由无界 AI工具生成

为有抱负的创新者提供关于尝试、失败和人工智能未来的建议。

创新是推动社会进步和经济增长的强大引擎。抗生素、电灯、冰箱、飞机、智能手机 -- 我们之所以拥有这些东西,是因为创新者创造了以前不存在的东西。《麻省理工科技评论》的 35 岁以下创新者榜单表彰的是那些在职业生涯早期就已取得巨大成就,并有可能取得更大成就的人。

多年来,我从事人工智能研究和人工智能产品的开发,有幸参与了一些具有影响力的创新,比如在斯坦福大学使用强化学习来驾驶直升机无人机,启动并领导 Google Brain 来推动大规模深度学习,以及创建在线课程并促成了 Coursera 的成立。我想和大家分享一些关于如何做好这些工作的想法,避开一些陷阱,避免在创建过程中造成严重伤害。


人工智能是当今创新的主要驱动力


正如我之前所说,我相信人工智能是新的电力。电力彻底改变了所有行业,改变了我们的生活方式,而人工智能也在做同样的事情。它深入到每一个行业和学科,它所取得的进步帮助了无数人。

人工智能与电力一样,是一种通用技术。许多创新,如医疗、太空火箭或电池设计,都只适用于一种用途。相比之下,人工智能可用于生成艺术品、提供与搜索查询相关的网页、优化航运路线以节省燃料、帮助汽车避免碰撞等。

人工智能的进步为各个经济领域的每个人创造了机会,让他们可以探索是否或如何将 AI 应用于各自的领域。学习人工智能可以创造更多的机会,去做一些别人从未做过的事情。

例如,在我领导的风险工作室 AI Fund,我有幸参与了将人工智能应用于海运、关系辅导、人才管理、教育和其他领域的项目。由于许多人工智能技术都是新技术,所以它们在大多数领域的应用尚未被探索。通过这种方式,了解如何利用人工智能可以为您提供大量与他人合作的机会。

展望未来,有几项发展尤其令人兴奋。

  • 提示:虽然 ChatGPT 已经普及了提示人工智能模型撰写电子邮件或诗歌的能力,但软件开发人员才刚刚开始认识到,提示功能可以让他们在几分钟内构建出过去需要数月才能完成的强大人工智能应用类型。一大波人工智能应用将以这种方式构建。
  • 视觉转换器:文本转换器 -- 基于转换器神经网络架构的语言模型,由谷歌大脑(Google Brain)和合著者于 2017 年发明,彻底改变了写作。而视觉转换器使转换器可以适应计算机视觉任务,如识别图像中的物体,于 2020 年问世,并迅速获得广泛关注。如今,技术界对视觉转换器的热议让我想起了 ChatGPT 几年前对文本转换器的热议。图像处理领域也将迎来一场类似的革命。视觉提示将是这场变革的一部分,在视觉提示中,提示是一幅图像而不是一串文字。
  • 人工智能应用:媒体对人工智能的软硬件基础设施和开发者工具给予了极大关注。但是,除非在此基础上建立起更有价值的人工智能业务,否则这种新兴的人工智能基础设施是不会成功的。因此,尽管媒体对人工智能基础设施层的关注度很高,但人工智能应用层将有更大的发展。

这些领域为创新者提供了丰富的机会。此外,其中许多领域都是广大技术精英触手可及的,而不仅仅是那些已经从事人工智能的人。在线课程、开源软件、软件即服务和在线研究论文为每个人提供了学习和开始创新的工具。但是,即使这些技术还不在你的掌握之中,许多其他的创新之路也是广阔的。


要乐观,但要敢于失败


尽管如此,很多最初看起来很有希望的想法最终都成了哑炮。如果你认真对待创新,失败是不可避免的。以下是我的一些项目,你可能没听说过,因为它们都是失败品:

  • 我花了很长时间试图让飞机以编队方式自主飞行,以节省燃料(类似于鸟类以 V 形编队飞行)。事后看来,我做得并不好,应该使用更大的飞机。
  • 我曾试图让机械臂卸下洗碗机中各种形状和大小的碗碟。但事后看来,我做得太早了。当时用于感知和控制的深度学习算法还不够完善。
  • 大约 15 年前,我认为无监督学习(即让机器学习模型从无标记数据中学习)是一种很有前途的方法。然而,时机是不对的。不过,随着数据可用性和计算能力的提高,这种方法终于奏效了。

这些项目的失败让我感到痛苦,但我学到的经验对其他项目的成功起到了重要作用。通过 V 型飞行的失败尝试,我学会了更好地规划项目,并将风险前置。卸装碗碟的努力虽然失败了,但却让我的团队建立了机器人操作系统(ROS),它成为了一个流行的开源框架,现在已经应用于从自动驾驶汽车到机械狗的各种机器人中。尽管我最初专注于无监督学习是一个错误的选择,但我们所采取的措施对谷歌大脑深度学习的扩展起到了至关重要的作用。

创新从来都不是一件容易的事。当你做一件新事物时,总会有人持怀疑态度。在我年轻的时候,我在启动大多数项目时都会遇到很多怀疑,而这些项目最终都被证明是成功的。但这并不是说怀疑者总是错的。在大多数不成功的项目中,我也遇到过怀疑。

随着经验的积累,我发现越来越多的人同意我所说的一切,这让我更加担心。我不得不积极寻找那些愿意挑战我并告诉我真相的人。幸运的是,如今我身边有很多人,当他们认为我做了蠢事时,他们会告诉我!

一方面怀疑是 ok 的,甚至也是必要的,而另一方面社会对创新成果有着浓厚的兴趣。这也是我们以乐观态度对待创新的充分理由。我宁愿站在想试一试但可能会失败的乐观主义者一边,也不愿站在怀疑可能性的悲观主义者一边。


对工作负责


当我们关注人工智能作为全社会有价值创新的驱动力时,社会责任比以往任何时候都更加重要。该领域内外的人们都看到了人工智能可能造成的各种危害。这既包括短期问题,如技术的偏见和有害应用,也包括长期风险,如权力集中和潜在的灾难性应用。重要的是,我们要对这些问题进行开放和理智严谨的对话。这样,我们才能就什么是真正的风险以及如何降低风险达成一致。

在过去的千年时间里,接连不断的创新浪潮降低了婴儿死亡率,改善了营养状况,提高了识字率,提高了全世界的生活水平,促进了公民权利,包括对妇女、少数民族和其他边缘群体的保护。然而,创新也导致了气候变化,加剧了不平等,使社会两极分化,并增加了孤独感。

显然,创新的好处伴随着风险,而我们并不总是能够明智地管理这些风险。人工智能是下一波浪潮,我们有义务吸取过去的经验教训,为每个人创造最大的未来利益,并将危害降至最低。这将需要个人和整个社会做出承诺。

在社会层面,政府正在着手监管人工智能。对一些创新者来说,监管可能是对进步的不必要限制。我却不这么看。在我们迈向不确定的未来时,监管有助于我们避免犯错,并带来新的好处。我欢迎监管要求大型科技公司不透明的运作更加透明;这将有助于我们了解它们的影响,并引导它们实现更广泛的社会效益。此外,我们需要新的法规,因为现有的许多法规都是针对人工智能之前的世界制定的。新法规应明确规定我们在医疗保健和金融等重要领域想要的结果,以及我们不想要的结果。

但避免伤害不应只是社会的当务之急。它也需要成为每个创新者的首要任务。作为技术专家,我们有责任了解我们研究的影响,并以有益的方式进行创新。传统上,许多技术专家都抱有这样一种态度,即技术的形态是不可避免的,我们对此无能为力,所以我们不妨自由创新。但我们知道,事实并非如此。

当创新者选择研究差异化隐私(允许人工智能在不暴露个人身份信息的情况下从数据中学习)时,他们就有力地表明了隐私的重要性。这一声明有助于形成公共和私营机构采用的社会规范。反之,当创新者创建 Web3 加密协议来洗钱时,这也是一种强有力的声明 -- 在我看来,是一种有害的声明 -- 即政府不应该追踪资金是如何转移和使用的。

如果你发现有不道德的行为,我希望你能向同事和上司提出,并与他们进行建设性的对话。如果你被要求从事一些你认为对人类无益的工作,我希望你能积极努力去阻止它。如果你做不到,那就考虑离开。在 AI Fund,我已经终止了一些我认为财务上合理但道德上不健全的项目。我敦促你们也这么做。

去创新吧!如果你已经在创新的游戏中,那就继续下去。你的未来会取得何种伟大成就是未知的。如果你的想法还停留在做梦阶段,那就与他人分享,寻求帮助,把它们变成切实可行的成功之举。开始执行,想方设法利用创新的力量做好事。