当前位置:人工智能行业动态 → 正文

人工智能的实际潜力和局限

责任编辑:cres 作者:Michael Chui |来源:企业网D1Net  2018-08-03 11:05:52 原创文章 企业网D1Net

如果企业领导者努力了解人工智能能做什么和不能做什么,人工智能有可能在整个经济中创造数万亿美元的价值。
 
在 “麦肯锡播客”,麦肯锡全球研究院的合作伙伴Michael Chui、麦肯锡全球研究院的总裁兼主管James Manyika与麦肯锡出版社的David Schwartz一起谈论了人工智能的前沿。
 
David Schwartz:你好,欢迎来到麦肯锡播客。我是麦肯锡出版社的David Schwartz。今天,我们将前往人工智能的前沿。我们将讨论人工智能对多个行业和职能的影响。我们还将探讨妨碍人工智能发展的局限性,至少是眼下的局限。
 
我和两位思想前沿的麦肯锡领导者一起参加了谈话,Michael Chui来自旧金山,是麦肯锡全球研究院的合作伙伴,还有麦肯锡全球研究院董事长兼我们旧金山办事处的高级合伙人James Manyika。Michael,James,欢迎你们。
 
James Manyika:承蒙邀请。
 
Michael Chui:很高兴来到这里。
 
David Schwartz:Michael,人工智能的最大潜力在哪里?
 
Michael Chui:我们所知道的第一件事就是广泛适用性。也就是说,就这些技术的采用而言我们仍处在早期,所以还有很长的路要走。我们发现的另一件事情是,考虑人工智能潜力的一种方式就是跟着钱走。
 
如果贵公司是一家由营销和销售推动价值的公司,那么这实际上就是人工智能可以创造最大的价值的地方。如果贵公司是一家卓越运营(operational excellence)对你来说最重要的公司,那么你可以通过人工智能创造最大价值。如果贵公司是一家保险公司,或者是一家银行,那么风险对你来说非常重要,那是人工智能可以增加价值的另一个地方。它贯穿于人力资本管理、分析人员绩效和招聘等各个方面,贯穿整个业务系统。我们已经意识到整个经济体每年创造数万亿美元价值的潜力。
 
David Schwartz:嗯,看来肯定还有很多潜力和价值尚待挖掘。James,你能从另一个角度来看待这个问题吗?如今人工智能的主要局限是什么?这对业务领导者来说意味着什么?
 
James Manyika:当我们想到人工智能的局限时,我们要牢记,人工智能仍然是一系列发展非常迅速的技术,因此这门科学和技术本身仍在经历发展。
 
当你想起这些局限时,我会从几个方面来考虑。有些限制纯粹是技术性的。比如诸如此类的问题——我们能真正解释算法在做什么吗?我们能解释它为什么会做出它所预测的选择吗?然后,你也会碰到一堆实际的局限。比如诸如此类的问题——数据真的可用吗?它被标记了吗?我们稍后会对这些问题做简单的介绍。
 
但我还要补充第三个局限。即你可能会称之为使用限制的限制。这些限制是导致你提出这类问题的原因:算法的透明度如何?数据中存在偏差吗?收集数据的方式存在偏差吗?
 
David Schwartz:Michael,让我们深入探讨第一个关键局限,即数据标记。你能描述一下这里所涉及的挑战和一些可能的进路吗?
 
Michael Chui:当前的几代人工智能还算得上新鲜的一些东西就是我们所说的机器学习——从某种意义上来讲,我们不仅仅在为计算机编程,还在训练他们;我们正在教它们东西。
 
我们训练机器学习的方法是给它们加上数据标记。如果你正在尝试教计算机识别图像中的对象,或者你正在尝试教你的计算机在一个表明某个机器即将崩溃的数据流中识别异常现象,那么你的做法就是拥有一堆标记数据然后说:“看,在这类图像中,对象存在。在那类图像中,对象不存在。在这类数据流中,机器即将崩溃,而在那类数据流中,机器不会崩溃。”
 
我们有这样的想法,机器会自我训练。实际上,我们已经生成了大量要人工来完成的工作。以自动驾驶汽车为例。这些汽车上装有摄像头,他们试图做的其中一件事就是通过驾驶来收集大量数据。
 
结果是,有一大群人从这些数据中获取视频输入,然后只是标出其它车辆的位置——并且标出车道的位置。因此,有趣的是,我们都在谈论这些人工智能系统如何将人们所做的事情自动化。事实上,人工智能给人们带来一大堆体力活儿。
 
James Manyika:我知道这么一个大型的公共博物馆,在这个博物馆里人们让学生手工标记艺术品——这是一只猫、那是一只狗、这是一棵树、这是一个影子。他们标记这些不同的艺术品,以便算法可以更好地理解这些艺术品并能够做出预测。
 
这个故事更老的版本是这样的,人们正在识别猫和狗。例如,在英国有一些团队要识别不同品种的狗,以便为狗标记数据图像,当算法使用这些数据时,算法就会知道这些数据是什么。在很多医学应用程序中也发生了同样的事情,例如,人们一直在标记不同类型的肿瘤,因此当机器读取这些图像时,机器可以更好地了解肿瘤的定义和类型。但这已经驱使人们为这些不同的肿瘤贴上标签,然后使其对机器有用。
 
Michael Chui:医学诊断就是一个很好的例子。因此,对于拥有一个观察X光照片并确定人们是否患有肺炎的这样一个想法来说,你需要数据来判断该X光照片是否与患有肺炎或没有肺炎的人有关。收集这些数据是非常重要的事情,但对数据进行标记绝对是必要的。
 
David Schwartz:我们不妨来谈谈如何解决这个问题。我知道在监督学习(supervised learning)中有两个我们耳熟能详的技术。一个是强化学习(reinforcement learning),另一个是GAN(generative adversarial network,生成对抗性网络)。你能谈谈这些技术吗?
 
Michael Chui:很多这类技术的大致目的是创建更多示例,让你可以教机器东西或让它学习。
 
人们已经用强化学习来训练机器人,从某种意义上说,如果机器人做了你想让它做的事情,你会为此而奖励机器人。如果它做了你不希望它做的事情,你就对它进行负强化(negative reinforcement)。在这种情况下,你所拥有的是一个能说明你做了好事还是坏事的功能,而不是拥有一系列标记数据。这是绕过标记数据(label data)的一种方法——拥有一个能告诉你是否做了正确的事情的功能。
 
有了GAN(全称生成对抗网络),你大体上有两个网络,一个试图生成正确的东西;另一个试图区分你是否正在生成正确的东西。同样,这是另一个解决大量标签数据的潜在局限的方法,即你有两个系统以对抗的方式相互竞争。人们用它来做各种各样的事情。生成——它的“G”部分(Generative)——是非同凡响的。你可以用其他艺术家的风格制作艺术品。你可以按照你观察到的其它东西的风格生成架构。你可以生成与之前可能观察到的其它东西相似的设计。
 
James Manyika:关于生成对抗网络,我要补充的一点是,它们在很多方面看来是一种半监督学习技术(semisupervised learning technique),因为它们通常从一些初始标签开始,然后以一种生成的方式把初始标签作为基础——在这种对抗中,这有点像比赛方式。
 
人们正在尝试很多其它技术。例如,微软研究实验室的研究人员一直致力于输入流标记(instream labeling),在这里,你实际上可以通过使用来标记数据。你试图根据数据的使用方式、实际含义来解释。这种输入流标记的点子已经存在了很长一段时间,但近年来,它已经初见成效了。标记问题会在很长的一段时间里与我们共存。
 
David Schwartz:当没有足够数据时会有什么样的局限?
 
Michael Chui:我们从机器学习和人工智能领导者之一Andrew Ng那里得到的消息是,认真对待人工智能的公司和组织正在玩这些已存在多年的游戏,以获取他们所需的数据。
 
在物理世界中,无论你是在研究自动驾驶汽车还是无人机,你都需要时间开车去熟悉一大堆街道或放飞一大堆东西。为了提高你学习其中一些东西的速度,你可以做的一件事就是模拟环境。通过创建这些虚拟环境——基本上在数据中心和计算机内——你可以进行更多的试验,并通过模拟学习更多的东西。所以,当你真正进入物理世界的时候,你进入了一个人工智能已经在模拟中学到了很多东西的物理世界。
 
James Manyika:一个很好的例子就是一些示范,例如,DeepMind Technologies的团队已经做过的示范。该团队在机器手臂远未应用到现实世界之前就为机器手臂进行了大量的模拟训练,在这些训练中,这些机器手臂能够开发和学习的大部分操作技术实际上都来自模拟的结果。当这样的技术出现在现实世界中时,它具备这些预先学习的数据集,这些数据集来自模拟,是一种绕过数据局限的方法。
 
David Schwartz:听起来,我们可能正在考虑一个更深层次的问题——机器智能究竟意味着什么。我们如何才能从机械的输入(rote input)和固定的输出过程转变为更符合人类学习方式的方法?
 
James Manyika:你如何构建可以学习任何东西的广义系统(generalizable system)?这在某种程度上是人们梦寐以求的,从某种意义上说,人类是非常了不起的,因为我们可以把在这里学到的东西都应用到也许是头一回看到的完全不同的问题上。这催生了一个通常被称为迁移学习(transfer learning)的巨大研究领域,即你如何从一个领域获取模型、知识或洞察并将其应用到另一个领域?虽然我们在迁移学习方面取得了进展,但实际上这是更棘手的问题之一。在那里,人们正在寻找新的技术。
 
在你生成数据集和模拟的地方模拟学习的这一想法是做这个的方法之一。AlphaGo更有趣的一个版本AlphaGo Zero已经学会了玩三种不同的游戏,但它只有一个广义的游戏结构。AlphaGo Zero能够通过这个游戏结构学习国际象棋和具有广义结构的Go-by。但即使这样也是有限的,因为它仍然局限于采取某种形式的游戏。
 
Michael Chui:在人工智能领域,我们正在对神经学家早就知道的东西形成新的认识,即作为人,我们不是像一块白板(tabula rasa)一样降临到这个世界的。实际上,我们的大脑中有很多结构针对某些事物进行了优化,不管是理解语言还是行为、生理行为等等。Geoff Hinton等人正在使用胶囊(capsule)和其它类型的概念。将一些知识植入到我们正在使用的系统结构的这种想法也是我们已经见过的。所以,你想知道对于迁移学习来说,明白我们不是从零开始,这是不是解决问题的途径之一。我们从已经具有一些配置的系统开始,这有助于我们将一些知识从一个地方带到另一个地方,因为实际上,我们天生就是做这个的料。
 
James Manyika:事实上,Steve Wozniak已经提出了一些建议,这导致了各种各样的问题——什么才是恰当的图灵测试或者你能对广义学习(generalized learning)想出什么样的测试类型。他想出来的一个版本就是所谓的“咖啡测试(coffee test)”,也就是说,有朝一日我们可以获得一个可以走进一个陌生的美国家庭并制作一杯咖啡的系统。这十分引人注目,因为这要求人工智能可以解释一个完全未知的环境,能够在一个完全陌生的地方有所发现,并能够在特定家庭中使用不陌生的设备制作某些东西。
 
在一个陌生的家庭中制作一杯咖啡的过程需要解决很多一般问题,与解决我们认为引人入胜的十分狭义的,高度技术性的特定问题相比,这听起来也许微不足道。我们越来越希望解决通常被泛化为普通的、现实世界的问题(坦率地说),那些问题实际上可能是测试我们是否有广义系统的真正考验。
 
顺便说一句,记住这点很重要——当我们考虑人工智能和机器学习中所有振奋人心的东西时,绝大多数东西(无论是技术还是应用程序)主要是解决非常具体的事情。这些东西正在解决自然语言处理问题、图像识别和非常非常具体的事情。人工智能可以做好多这样的事情,而解决更广义的问题的工作(虽然正在取得进展)却进展得特别缓慢。我们不应该混淆我们在这些狭义的,更具体的问题集上所取得的进展,因此,我们已经创建了一个广义系统。
 
还有另一个我们应该讨论的局限,David——由于各种原因,这是一个重大的局限。这就是“可解释性(explainability)”的问题。从本质上讲,神经网络在结构上是这样的,以至于很难确定某个特定结构为什么会成其为特定结构以及某物究竟在它的结构的什么地方导致了特定的结果。
 
David Schwartz:对。我听说我们正在处理非常复杂的问题。人们怎么彻底理解什么东西可能是黑匣子(或事实上就是一个黑匣子)?
 
James Manyika:这就是可解释性问题,即:我们是怎么知道的呢?你可以考虑我们在金融领域开始应用这些系统的地方——例如借贷。如果我们拒绝你的贷款申请,你可能想知道原因。导致该决策的数据点或功能集是什么?如果你将一套系统应用于刑事司法系统,如果有人被保释而其他人却没有,你可能想了解我们为什么得出了这样的结论。对于纯粹的研究目的而言,这也可能是一个重要的问题,在这种情况下,你试图以一己之力发现特定的行为,因此你设法了解数据的哪个特定部分会导致一系列特定的行为。
 
从结构的角度来说,这是一个非常难的问题。然而,好消息是,我们开始在这些事物上取得进展。我们取得进展的方式之一是使用所谓的生成对抗网络。这些是更广泛的加性模型(more generalized, additive model),与同时采用大量模型相反,你几乎可以一次采用一系列特征模型,并在此基础上继续构建。
 
例如,当你应用神经网络时,你正在探索一个特殊的特征,然后你在另一个特征上分层;因此,要是你愿意的话,你可以根据不同的特征模型的这种分层看到结果如何发生变化。你会看到,当结果发生变化时,哪些模型可能产生了最大的影响。这是开始了解究竟是什么推动了你正在得到的行为和结果的一个方法。
 
Michael Chui:可解释性的另一个重要推动因素是监管和监管机构。如果汽车决定左转而不是右转,并且有一些与此相关的责任,法律系统会问一个问题:“为什么汽车左转或右转?”在欧盟,有个叫《一般数据保护法规》(General Data Protection Regulation)的法规,该法规对这些机器可能做出的决策要求具备可解释性。机器是完全不可抗的。你可以说,“这里有一百万个与我们的模拟神经元(simulated neuron)相关的权重,这就是为什么”。但这对人类来说太无趣了。
 
另一个是首字母缩略为LIME(locally interpretable model-agnostic explanations,局部可理解的与模型无关的解释)的技术。这个想法就是从外到内(而不是看模型的结构),只能扰动模型的某些部分和输入,看看输出是否会产生什么影响。如果你正在查看图像并试图识别某个对象是皮卡车还是普通轿车,你可能会说,“如果我在输入中更改挡风玻璃,我会得到不同的输出吗?另一方面,如果我更改车辆的尾部,这看起来就不一样了。“这就是说,该技术在确定车辆是轿车还是皮卡时关注的是车辆的尾部。它基本上是在对模型进行实验,以发现是什么因素产生了影响。这是人们试图用来解释这些系统如何工作的一些技术。
 
David Schwartz:在某种程度上,我从一些问题或可能的回答中得知一个非常人性化的因素。这个问题就是:为什么答案是如此这般?答案可能是算法使然。但有人创建了这种算法,或某人——或一群这样的人——以及创建该算法的机器。这给我们带来了与众不同的局限:偏差(人类偏好)。James,你能进一步谈谈我们所面临的挑战吗?
 
James Manyika:偏差问题非常重要。我将它分为两个部分。
 
显然,这些算法在某些方面是对人类偏见的重大改善。这是偏差对话积极的一面。我们知道,例如,有时候,当人们在履历上解释数据时,因为他们有各种偏好,他们可能会倾向于一些属性而忽略另一些属性。事实上,与人类的偏见相比,这些算法的应用实际上是一项重大改进。从这个意义上说,这是一件好事。我们想要那样的好处。
 
但我认为谈话的第二部分是值得展开的,即使在我们应用这些算法时,我们确实知道它们是数据的产物和你输入的内容。如果你输入的那些内容本身就有一些固有的偏差,你可能会在更大规模上引入不同类型的偏差。
 
如果所收集的数据已经存在偏差,那么Julia Angwin等人的工作实际上已经证明了这一点。以警务为例,我们知道有些社区受到更严格的监管。因此,我们获得的数据以及就这些环境收集到的数据要多得多。如果我们对两个社区进行比较,一个社区被过度抽样——这意味着该社区有大量的数据,因为那里有大批警察——而另一个社区没有多少警察,因此没有多少可用的数据,我们可能会仅仅因为两个社区可用数据的对比而对所观测的环境下错误的结论。
 
偏差可以另辟蹊径。例如,在贷款的例子里,影响可能会相反。对于这样的人口或细分群体——我们有大量关于他们的经济数据,我们实际上有可能做出正确的决策,因为数据基本上是可用的,而在另一个环境里,我们谈论的是一部分我们不太了解的人口,我们所知道一点皮毛都以一种方式将决策发送出去。因此,这是欠采样(undersampling)产生偏差的另一个例子。
 
关于第二部分的要点是,我认为这很重要——确保我们充分考虑数据本身可能存在的固有偏差是什么,这可能就在数据集本身(无论是数据集实际被构建的方式,甚至是它的收集方式,或者是数据集的采样程度和粒度)。我们能以某种基本的方式方法去除偏差吗?
 
这就是为什么偏差问题对领导者来说特别重要,因这个问题使公司要面对各种可能的诉讼和社会问题的风险,特别是当你以具有社会影响的方式使用这些算法时。借贷再次成为一个很好的例子。刑事司法是另一个例子。医疗提供了另一个例子。这些例子成了考虑这些偏差问题非常重要的场地。
 
Michael Chui:数据存在偏差的一系列棘手案例的主要因素并不是人们对非此即彼的选择的固有偏见(至少在第一种情况下不是这样)。在很多情况下,这是因为采样——采样偏差,数据收集偏差等等的这些想法——这也不一定和无意识的人类偏见有关,而和数据来源的人为因素有关。
 
有一个非常著名但与人工智能关系不大的案例——美国城市在智能手机出现的早期使用了一个应用程序,这个应用程序能在你开车经过坑洞时根据加速度计的摇晃来确定坑洞的位置。奇怪的是,该应用程序发现,如果你查看一下数据就会发现这个城市的富裕地区似乎有更多的坑洞。这与城市的这个地方有更多的坑洼这件事情实际上没有任何关系,而是你恰好从城市的那个地方获得了更多的信息,因为当时更富裕的人群智能手机普及率更高。这就是并非因为人们存心不注意城市的某些部分的其中一个案例。了解数据的基础——理解正在采样的内容——非常重要。
 
还有另一位来自麻省理工学院媒体实验室的研究人员Joy Buolamwini,她做过一个著名的TED演讲,她在面部识别方面做了大量的工作,而且她是一名黑人女性。她说,“看,很多其他的研究人员都比我更具男性特征,比我更白。因此,面部识别中某些人群的准确率远远高于我”。所以,这并不一定是因为人们试图将一些人口排除在外,尽管有时会发生这种情况,这实际上与理解你正在使用的用于训练系统的样本的代表性有关。
 
因此,作为业务领袖,你要了解,如果你要训练机器学习系统:你正在使用的训练集有多大代表性?
 
James Manyika:这实际上创造了一种有趣的张力。这就是我描述第一部分和第二部分的原因。因为在第一个例子中,当你考察第一部分的问题,即正常的日常招聘和类似决策中固有的人类偏见时,你会对使用人工智能技术感到非常兴奋。你说,“哇,我们头一回有办法在日常决策中克服这些人类偏差”。但与此同时,我们应该特别关注,在你开始触及第二部分的这些问题时我们取得了什么结果,在这些结果里,你正在使用具有固有偏差的大型数据集。
 
我认为人们忘记了人工智能机器深度学习领域中的一个问题,那就是很多研究人员使用的多半是相同的共享数据集——这些数据集是公开的。除非你恰好是拥有大型专有数据集的公司,否则人们只能使用这种著名的CIFAR数据集,该数据集通常用于对象识别。它是公开场合可以使用的。大多数人根据这些可用的数据集对图像识别的性能进行基准测试。因此,如果每个人都使用可能具有这些固有偏差的通用数据集,那么我们有点像大规模复制偏差。充分考虑第一部分和第二部分之间的这种张力和这个偏差问题是非常重要。然而,好消息是,在过去几年中,人们对我们刚刚描述的问题有了越来越多的认识。而且我认为现在有很多地方正在努力对如何看待偏差的问题进行真正的研究。
 
David Schwartz:鉴于我们今天广泛的应用,局限以及我们面对的各种挑战的讨论,人工智能的最佳实践是什么?
 
Michael Chui:现在为时尚早,所以谈论最佳实践难免蜻蜓点水。我想借用曾经从Gary Hamel那里听来的一句话:从某种意义上说,我们可能会谈论下一步的做法。也就是说,我们从作为开拓者和先锋的领导者那里看到了一些东西。
 
第一件东西就是我们所说的“调整(get calibrated)”,但实际上这只是开始理解技术和可能性。对于我们今天谈到的一些东西,过去几年的业务领导者必须要对技术有更多的了解。这真的是最前沿的东西。因此,真的要设法了解技术的潜力。
 
然后,设法了解整个业务的潜在影响。正如我们所说,这些技术广泛适用。因此,了解你的业务在哪里获得价值,以及如何帮你获得价值,无论是营销、销售、供应链、制造业、人力资本还是风险。

关键字:人工智能

原创文章 企业网D1Net

x 人工智能的实际潜力和局限 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

人工智能的实际潜力和局限

责任编辑:cres 作者:Michael Chui |来源:企业网D1Net  2018-08-03 11:05:52 原创文章 企业网D1Net

如果企业领导者努力了解人工智能能做什么和不能做什么,人工智能有可能在整个经济中创造数万亿美元的价值。
 
在 “麦肯锡播客”,麦肯锡全球研究院的合作伙伴Michael Chui、麦肯锡全球研究院的总裁兼主管James Manyika与麦肯锡出版社的David Schwartz一起谈论了人工智能的前沿。
 
David Schwartz:你好,欢迎来到麦肯锡播客。我是麦肯锡出版社的David Schwartz。今天,我们将前往人工智能的前沿。我们将讨论人工智能对多个行业和职能的影响。我们还将探讨妨碍人工智能发展的局限性,至少是眼下的局限。
 
我和两位思想前沿的麦肯锡领导者一起参加了谈话,Michael Chui来自旧金山,是麦肯锡全球研究院的合作伙伴,还有麦肯锡全球研究院董事长兼我们旧金山办事处的高级合伙人James Manyika。Michael,James,欢迎你们。
 
James Manyika:承蒙邀请。
 
Michael Chui:很高兴来到这里。
 
David Schwartz:Michael,人工智能的最大潜力在哪里?
 
Michael Chui:我们所知道的第一件事就是广泛适用性。也就是说,就这些技术的采用而言我们仍处在早期,所以还有很长的路要走。我们发现的另一件事情是,考虑人工智能潜力的一种方式就是跟着钱走。
 
如果贵公司是一家由营销和销售推动价值的公司,那么这实际上就是人工智能可以创造最大的价值的地方。如果贵公司是一家卓越运营(operational excellence)对你来说最重要的公司,那么你可以通过人工智能创造最大价值。如果贵公司是一家保险公司,或者是一家银行,那么风险对你来说非常重要,那是人工智能可以增加价值的另一个地方。它贯穿于人力资本管理、分析人员绩效和招聘等各个方面,贯穿整个业务系统。我们已经意识到整个经济体每年创造数万亿美元价值的潜力。
 
David Schwartz:嗯,看来肯定还有很多潜力和价值尚待挖掘。James,你能从另一个角度来看待这个问题吗?如今人工智能的主要局限是什么?这对业务领导者来说意味着什么?
 
James Manyika:当我们想到人工智能的局限时,我们要牢记,人工智能仍然是一系列发展非常迅速的技术,因此这门科学和技术本身仍在经历发展。
 
当你想起这些局限时,我会从几个方面来考虑。有些限制纯粹是技术性的。比如诸如此类的问题——我们能真正解释算法在做什么吗?我们能解释它为什么会做出它所预测的选择吗?然后,你也会碰到一堆实际的局限。比如诸如此类的问题——数据真的可用吗?它被标记了吗?我们稍后会对这些问题做简单的介绍。
 
但我还要补充第三个局限。即你可能会称之为使用限制的限制。这些限制是导致你提出这类问题的原因:算法的透明度如何?数据中存在偏差吗?收集数据的方式存在偏差吗?
 
David Schwartz:Michael,让我们深入探讨第一个关键局限,即数据标记。你能描述一下这里所涉及的挑战和一些可能的进路吗?
 
Michael Chui:当前的几代人工智能还算得上新鲜的一些东西就是我们所说的机器学习——从某种意义上来讲,我们不仅仅在为计算机编程,还在训练他们;我们正在教它们东西。
 
我们训练机器学习的方法是给它们加上数据标记。如果你正在尝试教计算机识别图像中的对象,或者你正在尝试教你的计算机在一个表明某个机器即将崩溃的数据流中识别异常现象,那么你的做法就是拥有一堆标记数据然后说:“看,在这类图像中,对象存在。在那类图像中,对象不存在。在这类数据流中,机器即将崩溃,而在那类数据流中,机器不会崩溃。”
 
我们有这样的想法,机器会自我训练。实际上,我们已经生成了大量要人工来完成的工作。以自动驾驶汽车为例。这些汽车上装有摄像头,他们试图做的其中一件事就是通过驾驶来收集大量数据。
 
结果是,有一大群人从这些数据中获取视频输入,然后只是标出其它车辆的位置——并且标出车道的位置。因此,有趣的是,我们都在谈论这些人工智能系统如何将人们所做的事情自动化。事实上,人工智能给人们带来一大堆体力活儿。
 
James Manyika:我知道这么一个大型的公共博物馆,在这个博物馆里人们让学生手工标记艺术品——这是一只猫、那是一只狗、这是一棵树、这是一个影子。他们标记这些不同的艺术品,以便算法可以更好地理解这些艺术品并能够做出预测。
 
这个故事更老的版本是这样的,人们正在识别猫和狗。例如,在英国有一些团队要识别不同品种的狗,以便为狗标记数据图像,当算法使用这些数据时,算法就会知道这些数据是什么。在很多医学应用程序中也发生了同样的事情,例如,人们一直在标记不同类型的肿瘤,因此当机器读取这些图像时,机器可以更好地了解肿瘤的定义和类型。但这已经驱使人们为这些不同的肿瘤贴上标签,然后使其对机器有用。
 
Michael Chui:医学诊断就是一个很好的例子。因此,对于拥有一个观察X光照片并确定人们是否患有肺炎的这样一个想法来说,你需要数据来判断该X光照片是否与患有肺炎或没有肺炎的人有关。收集这些数据是非常重要的事情,但对数据进行标记绝对是必要的。
 
David Schwartz:我们不妨来谈谈如何解决这个问题。我知道在监督学习(supervised learning)中有两个我们耳熟能详的技术。一个是强化学习(reinforcement learning),另一个是GAN(generative adversarial network,生成对抗性网络)。你能谈谈这些技术吗?
 
Michael Chui:很多这类技术的大致目的是创建更多示例,让你可以教机器东西或让它学习。
 
人们已经用强化学习来训练机器人,从某种意义上说,如果机器人做了你想让它做的事情,你会为此而奖励机器人。如果它做了你不希望它做的事情,你就对它进行负强化(negative reinforcement)。在这种情况下,你所拥有的是一个能说明你做了好事还是坏事的功能,而不是拥有一系列标记数据。这是绕过标记数据(label data)的一种方法——拥有一个能告诉你是否做了正确的事情的功能。
 
有了GAN(全称生成对抗网络),你大体上有两个网络,一个试图生成正确的东西;另一个试图区分你是否正在生成正确的东西。同样,这是另一个解决大量标签数据的潜在局限的方法,即你有两个系统以对抗的方式相互竞争。人们用它来做各种各样的事情。生成——它的“G”部分(Generative)——是非同凡响的。你可以用其他艺术家的风格制作艺术品。你可以按照你观察到的其它东西的风格生成架构。你可以生成与之前可能观察到的其它东西相似的设计。
 
James Manyika:关于生成对抗网络,我要补充的一点是,它们在很多方面看来是一种半监督学习技术(semisupervised learning technique),因为它们通常从一些初始标签开始,然后以一种生成的方式把初始标签作为基础——在这种对抗中,这有点像比赛方式。
 
人们正在尝试很多其它技术。例如,微软研究实验室的研究人员一直致力于输入流标记(instream labeling),在这里,你实际上可以通过使用来标记数据。你试图根据数据的使用方式、实际含义来解释。这种输入流标记的点子已经存在了很长一段时间,但近年来,它已经初见成效了。标记问题会在很长的一段时间里与我们共存。
 
David Schwartz:当没有足够数据时会有什么样的局限?
 
Michael Chui:我们从机器学习和人工智能领导者之一Andrew Ng那里得到的消息是,认真对待人工智能的公司和组织正在玩这些已存在多年的游戏,以获取他们所需的数据。
 
在物理世界中,无论你是在研究自动驾驶汽车还是无人机,你都需要时间开车去熟悉一大堆街道或放飞一大堆东西。为了提高你学习其中一些东西的速度,你可以做的一件事就是模拟环境。通过创建这些虚拟环境——基本上在数据中心和计算机内——你可以进行更多的试验,并通过模拟学习更多的东西。所以,当你真正进入物理世界的时候,你进入了一个人工智能已经在模拟中学到了很多东西的物理世界。
 
James Manyika:一个很好的例子就是一些示范,例如,DeepMind Technologies的团队已经做过的示范。该团队在机器手臂远未应用到现实世界之前就为机器手臂进行了大量的模拟训练,在这些训练中,这些机器手臂能够开发和学习的大部分操作技术实际上都来自模拟的结果。当这样的技术出现在现实世界中时,它具备这些预先学习的数据集,这些数据集来自模拟,是一种绕过数据局限的方法。
 
David Schwartz:听起来,我们可能正在考虑一个更深层次的问题——机器智能究竟意味着什么。我们如何才能从机械的输入(rote input)和固定的输出过程转变为更符合人类学习方式的方法?
 
James Manyika:你如何构建可以学习任何东西的广义系统(generalizable system)?这在某种程度上是人们梦寐以求的,从某种意义上说,人类是非常了不起的,因为我们可以把在这里学到的东西都应用到也许是头一回看到的完全不同的问题上。这催生了一个通常被称为迁移学习(transfer learning)的巨大研究领域,即你如何从一个领域获取模型、知识或洞察并将其应用到另一个领域?虽然我们在迁移学习方面取得了进展,但实际上这是更棘手的问题之一。在那里,人们正在寻找新的技术。
 
在你生成数据集和模拟的地方模拟学习的这一想法是做这个的方法之一。AlphaGo更有趣的一个版本AlphaGo Zero已经学会了玩三种不同的游戏,但它只有一个广义的游戏结构。AlphaGo Zero能够通过这个游戏结构学习国际象棋和具有广义结构的Go-by。但即使这样也是有限的,因为它仍然局限于采取某种形式的游戏。
 
Michael Chui:在人工智能领域,我们正在对神经学家早就知道的东西形成新的认识,即作为人,我们不是像一块白板(tabula rasa)一样降临到这个世界的。实际上,我们的大脑中有很多结构针对某些事物进行了优化,不管是理解语言还是行为、生理行为等等。Geoff Hinton等人正在使用胶囊(capsule)和其它类型的概念。将一些知识植入到我们正在使用的系统结构的这种想法也是我们已经见过的。所以,你想知道对于迁移学习来说,明白我们不是从零开始,这是不是解决问题的途径之一。我们从已经具有一些配置的系统开始,这有助于我们将一些知识从一个地方带到另一个地方,因为实际上,我们天生就是做这个的料。
 
James Manyika:事实上,Steve Wozniak已经提出了一些建议,这导致了各种各样的问题——什么才是恰当的图灵测试或者你能对广义学习(generalized learning)想出什么样的测试类型。他想出来的一个版本就是所谓的“咖啡测试(coffee test)”,也就是说,有朝一日我们可以获得一个可以走进一个陌生的美国家庭并制作一杯咖啡的系统。这十分引人注目,因为这要求人工智能可以解释一个完全未知的环境,能够在一个完全陌生的地方有所发现,并能够在特定家庭中使用不陌生的设备制作某些东西。
 
在一个陌生的家庭中制作一杯咖啡的过程需要解决很多一般问题,与解决我们认为引人入胜的十分狭义的,高度技术性的特定问题相比,这听起来也许微不足道。我们越来越希望解决通常被泛化为普通的、现实世界的问题(坦率地说),那些问题实际上可能是测试我们是否有广义系统的真正考验。
 
顺便说一句,记住这点很重要——当我们考虑人工智能和机器学习中所有振奋人心的东西时,绝大多数东西(无论是技术还是应用程序)主要是解决非常具体的事情。这些东西正在解决自然语言处理问题、图像识别和非常非常具体的事情。人工智能可以做好多这样的事情,而解决更广义的问题的工作(虽然正在取得进展)却进展得特别缓慢。我们不应该混淆我们在这些狭义的,更具体的问题集上所取得的进展,因此,我们已经创建了一个广义系统。
 
还有另一个我们应该讨论的局限,David——由于各种原因,这是一个重大的局限。这就是“可解释性(explainability)”的问题。从本质上讲,神经网络在结构上是这样的,以至于很难确定某个特定结构为什么会成其为特定结构以及某物究竟在它的结构的什么地方导致了特定的结果。
 
David Schwartz:对。我听说我们正在处理非常复杂的问题。人们怎么彻底理解什么东西可能是黑匣子(或事实上就是一个黑匣子)?
 
James Manyika:这就是可解释性问题,即:我们是怎么知道的呢?你可以考虑我们在金融领域开始应用这些系统的地方——例如借贷。如果我们拒绝你的贷款申请,你可能想知道原因。导致该决策的数据点或功能集是什么?如果你将一套系统应用于刑事司法系统,如果有人被保释而其他人却没有,你可能想了解我们为什么得出了这样的结论。对于纯粹的研究目的而言,这也可能是一个重要的问题,在这种情况下,你试图以一己之力发现特定的行为,因此你设法了解数据的哪个特定部分会导致一系列特定的行为。
 
从结构的角度来说,这是一个非常难的问题。然而,好消息是,我们开始在这些事物上取得进展。我们取得进展的方式之一是使用所谓的生成对抗网络。这些是更广泛的加性模型(more generalized, additive model),与同时采用大量模型相反,你几乎可以一次采用一系列特征模型,并在此基础上继续构建。
 
例如,当你应用神经网络时,你正在探索一个特殊的特征,然后你在另一个特征上分层;因此,要是你愿意的话,你可以根据不同的特征模型的这种分层看到结果如何发生变化。你会看到,当结果发生变化时,哪些模型可能产生了最大的影响。这是开始了解究竟是什么推动了你正在得到的行为和结果的一个方法。
 
Michael Chui:可解释性的另一个重要推动因素是监管和监管机构。如果汽车决定左转而不是右转,并且有一些与此相关的责任,法律系统会问一个问题:“为什么汽车左转或右转?”在欧盟,有个叫《一般数据保护法规》(General Data Protection Regulation)的法规,该法规对这些机器可能做出的决策要求具备可解释性。机器是完全不可抗的。你可以说,“这里有一百万个与我们的模拟神经元(simulated neuron)相关的权重,这就是为什么”。但这对人类来说太无趣了。
 
另一个是首字母缩略为LIME(locally interpretable model-agnostic explanations,局部可理解的与模型无关的解释)的技术。这个想法就是从外到内(而不是看模型的结构),只能扰动模型的某些部分和输入,看看输出是否会产生什么影响。如果你正在查看图像并试图识别某个对象是皮卡车还是普通轿车,你可能会说,“如果我在输入中更改挡风玻璃,我会得到不同的输出吗?另一方面,如果我更改车辆的尾部,这看起来就不一样了。“这就是说,该技术在确定车辆是轿车还是皮卡时关注的是车辆的尾部。它基本上是在对模型进行实验,以发现是什么因素产生了影响。这是人们试图用来解释这些系统如何工作的一些技术。
 
David Schwartz:在某种程度上,我从一些问题或可能的回答中得知一个非常人性化的因素。这个问题就是:为什么答案是如此这般?答案可能是算法使然。但有人创建了这种算法,或某人——或一群这样的人——以及创建该算法的机器。这给我们带来了与众不同的局限:偏差(人类偏好)。James,你能进一步谈谈我们所面临的挑战吗?
 
James Manyika:偏差问题非常重要。我将它分为两个部分。
 
显然,这些算法在某些方面是对人类偏见的重大改善。这是偏差对话积极的一面。我们知道,例如,有时候,当人们在履历上解释数据时,因为他们有各种偏好,他们可能会倾向于一些属性而忽略另一些属性。事实上,与人类的偏见相比,这些算法的应用实际上是一项重大改进。从这个意义上说,这是一件好事。我们想要那样的好处。
 
但我认为谈话的第二部分是值得展开的,即使在我们应用这些算法时,我们确实知道它们是数据的产物和你输入的内容。如果你输入的那些内容本身就有一些固有的偏差,你可能会在更大规模上引入不同类型的偏差。
 
如果所收集的数据已经存在偏差,那么Julia Angwin等人的工作实际上已经证明了这一点。以警务为例,我们知道有些社区受到更严格的监管。因此,我们获得的数据以及就这些环境收集到的数据要多得多。如果我们对两个社区进行比较,一个社区被过度抽样——这意味着该社区有大量的数据,因为那里有大批警察——而另一个社区没有多少警察,因此没有多少可用的数据,我们可能会仅仅因为两个社区可用数据的对比而对所观测的环境下错误的结论。
 
偏差可以另辟蹊径。例如,在贷款的例子里,影响可能会相反。对于这样的人口或细分群体——我们有大量关于他们的经济数据,我们实际上有可能做出正确的决策,因为数据基本上是可用的,而在另一个环境里,我们谈论的是一部分我们不太了解的人口,我们所知道一点皮毛都以一种方式将决策发送出去。因此,这是欠采样(undersampling)产生偏差的另一个例子。
 
关于第二部分的要点是,我认为这很重要——确保我们充分考虑数据本身可能存在的固有偏差是什么,这可能就在数据集本身(无论是数据集实际被构建的方式,甚至是它的收集方式,或者是数据集的采样程度和粒度)。我们能以某种基本的方式方法去除偏差吗?
 
这就是为什么偏差问题对领导者来说特别重要,因这个问题使公司要面对各种可能的诉讼和社会问题的风险,特别是当你以具有社会影响的方式使用这些算法时。借贷再次成为一个很好的例子。刑事司法是另一个例子。医疗提供了另一个例子。这些例子成了考虑这些偏差问题非常重要的场地。
 
Michael Chui:数据存在偏差的一系列棘手案例的主要因素并不是人们对非此即彼的选择的固有偏见(至少在第一种情况下不是这样)。在很多情况下,这是因为采样——采样偏差,数据收集偏差等等的这些想法——这也不一定和无意识的人类偏见有关,而和数据来源的人为因素有关。
 
有一个非常著名但与人工智能关系不大的案例——美国城市在智能手机出现的早期使用了一个应用程序,这个应用程序能在你开车经过坑洞时根据加速度计的摇晃来确定坑洞的位置。奇怪的是,该应用程序发现,如果你查看一下数据就会发现这个城市的富裕地区似乎有更多的坑洞。这与城市的这个地方有更多的坑洼这件事情实际上没有任何关系,而是你恰好从城市的那个地方获得了更多的信息,因为当时更富裕的人群智能手机普及率更高。这就是并非因为人们存心不注意城市的某些部分的其中一个案例。了解数据的基础——理解正在采样的内容——非常重要。
 
还有另一位来自麻省理工学院媒体实验室的研究人员Joy Buolamwini,她做过一个著名的TED演讲,她在面部识别方面做了大量的工作,而且她是一名黑人女性。她说,“看,很多其他的研究人员都比我更具男性特征,比我更白。因此,面部识别中某些人群的准确率远远高于我”。所以,这并不一定是因为人们试图将一些人口排除在外,尽管有时会发生这种情况,这实际上与理解你正在使用的用于训练系统的样本的代表性有关。
 
因此,作为业务领袖,你要了解,如果你要训练机器学习系统:你正在使用的训练集有多大代表性?
 
James Manyika:这实际上创造了一种有趣的张力。这就是我描述第一部分和第二部分的原因。因为在第一个例子中,当你考察第一部分的问题,即正常的日常招聘和类似决策中固有的人类偏见时,你会对使用人工智能技术感到非常兴奋。你说,“哇,我们头一回有办法在日常决策中克服这些人类偏差”。但与此同时,我们应该特别关注,在你开始触及第二部分的这些问题时我们取得了什么结果,在这些结果里,你正在使用具有固有偏差的大型数据集。
 
我认为人们忘记了人工智能机器深度学习领域中的一个问题,那就是很多研究人员使用的多半是相同的共享数据集——这些数据集是公开的。除非你恰好是拥有大型专有数据集的公司,否则人们只能使用这种著名的CIFAR数据集,该数据集通常用于对象识别。它是公开场合可以使用的。大多数人根据这些可用的数据集对图像识别的性能进行基准测试。因此,如果每个人都使用可能具有这些固有偏差的通用数据集,那么我们有点像大规模复制偏差。充分考虑第一部分和第二部分之间的这种张力和这个偏差问题是非常重要。然而,好消息是,在过去几年中,人们对我们刚刚描述的问题有了越来越多的认识。而且我认为现在有很多地方正在努力对如何看待偏差的问题进行真正的研究。
 
David Schwartz:鉴于我们今天广泛的应用,局限以及我们面对的各种挑战的讨论,人工智能的最佳实践是什么?
 
Michael Chui:现在为时尚早,所以谈论最佳实践难免蜻蜓点水。我想借用曾经从Gary Hamel那里听来的一句话:从某种意义上说,我们可能会谈论下一步的做法。也就是说,我们从作为开拓者和先锋的领导者那里看到了一些东西。
 
第一件东西就是我们所说的“调整(get calibrated)”,但实际上这只是开始理解技术和可能性。对于我们今天谈到的一些东西,过去几年的业务领导者必须要对技术有更多的了解。这真的是最前沿的东西。因此,真的要设法了解技术的潜力。
 
然后,设法了解整个业务的潜在影响。正如我们所说,这些技术广泛适用。因此,了解你的业务在哪里获得价值,以及如何帮你获得价值,无论是营销、销售、供应链、制造业、人力资本还是风险。

关键字:人工智能

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^