当前位置:人工智能行业动态 → 正文

打破壁垒:人工智能的过去、现在和未来

责任编辑:zsheng |来源:企业网D1Net  2018-12-26 10:15:53 本文摘自:环球科学

当我还是一个小男孩的时候,我就想尽我所能对世界产生最大的影响,所以我决定制造一个可以自我提升并且能够变得比我聪明很多的人工智能(AI),让AI解决我自己无法解决的所有问题,而我就可以退休了。然后AI再以一种人类不可能做到的方式殖民宇宙、为智能体开疆扩土。

所以我投身到数学和计算机领域。1987年,我发表了一篇雄心勃勃的毕业论文,描述了第一个关于元学习(meta-learning)程序的具体研究。它不仅可以通过学习解决一些问题,而且还能通过学习改进自己的学习算法。这种程序仅仅受限于它的计算性能,它可以通过逐渐的自我完善来实现超级智能。

我现在仍在为此努力,但现在有更多的人对此感兴趣了。为什么呢?因为现在,我们在实现这一目标的过程中所创造的方法,已经渗透到现代世界的各个方面。全球几乎一半的人类都在使用它们,且使用总次数每天高达数十亿次。。

到2017年8月,目前世界上存在的最有价值的五家上市公司分别是苹果(Apple),谷歌(Google),微软(Microsoft),脸书(Facebook)和亚马逊(Amazon)。自20世纪90年代初期以来,所有人都大量使用着我在德国和瑞士实验室开发的深度学习神经网络,特别是长短期记忆网络(Long Short-Term Memory network,LSTM)。这些算法是由我与我的同事Sepp Hochreiter、Felix Gers、Alex Graves和其他由欧洲纳税人资助的优秀学生和博士后发表在几篇论文中的内容。最初,这种LSTM是很笨拙的,它什么都不知道。但它可以通过经验进行自我学习。这种机制有点受人类大脑皮层的启发,在人类大脑皮层中,有超过150亿个神经元,且每个神经元都平均与其他10,000个神经元相连。输入型神经元向其余神经元提供数据(听觉,视觉,痛觉);输出型神经元触发肌肉活动;思维神经元隐藏在两者之间。这些都是通过改变连接强度来影响神经元相互影响的强度。

我们的LSTM是一种人工递归神经网络(recurrent neural network,RNN),它在许多应用中都有优于以前的方法。LSTM可以通过学习来控制机器人、分析图像、汇总文档、识别视频和字体、操作聊天机器人、预测疾病、点击率和股票市场、编曲等等。LSTM已经成为现在所谓的深度学习的基础,特别是对于连续的数据来说应用广泛(注意大多数真实世界的数据都是连续的)。

2015年,LSTM大大提升了谷歌Google的语音识别能力,目前已应用于超过20亿部的安卓手机。LSTM也是自2016年以后谷歌拥有更新、更好翻译服务的核心。LSTM同样被应用于苹果公司近10亿部苹果手机的快速输入(QuickType)和苹果智能语音助手(Siri)中。LSTM还负责着亚马逊语音助手(Alexa)的语音回复功能。

截至2016年,在所有的谷歌数据中心中,近30%用于推理的强大的计算机采用了LSTM。截至2017年,脸书每天使用LSTM进行高达45亿次的翻译(每秒超过50,000次)。与此同时,我们的其他深度学习算法现在也可供数十亿的用户使用。也就是说,您可能一直在使用LSTM。

与传统的深度学习如多层前馈神经网络(feed-forward neural networks, FNNs)相比,我们将基于人工递归神经网络的方法称为“一般深度学习”。多层前馈神经网络是一种传统深度学习的方法,由Ivakhnenko和Lapa(1965)于半个多世纪前在乌克兰(当时还是苏联的一部分)开发。与多层前馈神经网络不同,像LSTM这样的人工递归神经网络具有通用的并行顺序计算架构。人工递归神经网络与受到更多限制的多层前馈神经网络之间的差别,类似于计算机与计算器之间的差别。

到20世纪90年代初,我们的深度人工递归神经网络(是无监督式算法)可以通过学习来解决许多以前无法解决的任务。但这只是一个开始。每过五年,计算机的速度大约提高10倍/美元。这种趋势比摩尔定律更早;自从Konrad Zuse在1935年至1941年期间建造了第一台可操作的程控计算机以来(该计算机每秒可执行大约一次基本操作),该趋势始终未变。在75年后的今天,计算机性能提升了大约一百万亿倍,LSTM也从这种加速中获益匪浅。

今天最大的LSTM有十亿个连接左右。以这一趋势推断,在25年内我们可能以较低成本,制造出人体大脑皮质规模的LSTM,其电子连接超过100,000亿,并且比生物连接的传输速度快得多。在几十年后,我们或许能够以低廉的成本,制造出具有整个星球100亿人类大脑总和计算能力的计算机。就算是如此强大的计算机,其每秒可执行有意义的基本操作次数仍然可能无法超过1030次。而Bremermann所给出的1千克计算基质的物理极限(1982)比这个数值还大1020倍。因此,在下个世纪之前,以上这种趋势都不会到达极限,但这个趋势也很快了,毕竟一个世纪在人类一万年的文明长河中只占1%。

然而,LSTM本身是一种有监督式算法,因此对于真正的人工智能来说是不够的,真正的人工智能是能在没有老师的情况下,自发地通过学习去解决最初未知环境中的各种问题。这就是为什么三十年来我一直在发布更多的普适性人工智能。

自1990年以来,我的一个特别关注点就是那些无监督式的人工智能,它们展现了我所谓的“人工好奇心”和创造力。它们可以自主提出目标和实验,以弄清楚世界是如何运作的,以及它可以在其中做些什么。此类人工智能可以使用LSTM作为一种子模块,这种子模块可以通过学习来预测行为后果。 它们不是盲目地模仿人类教师,而是有点类似于儿童,通过不断创造和解决它们自己的并且以前无法解决的新问题,在这个过程中通过成为越来越多的问题的解决者来获得回报(流行语:PowerPlay,2011)。以此,我们已经创造了一个简单的“人造科学家”。

我从这项工作中推断,在不久的将来,我们将拥有一个这样的人工智能:它将会逐渐通过学习变得像一个小动物一样聪明、好奇并充满创造力地不断学习如何快速地计划、推理和分解各种各样的问题,并将其分解为可解决的(或已经解决的)子问题。在我们发明出了猴级(与猴子一样聪明的)AI之后,可能还会发明出有着真正无限用途的人级AI。

并且一切还不会止步于此。许多有好奇心的并可以提出自己目标的人工智能会迅速地提升自己,仅受可计算性和物理学的基本限制。它们会做什么?宇宙空间并不适合人类生存,但相当适合设计得当的机器人,而且宇宙比我们生物圈薄膜提供更多的资源(生物圈薄膜仅接收不到十亿分之一的太阳光)。虽然在一些人工智能至少在它们未能完全理解生命之前,对生命着迷,但大多数人工智能都会对太空中只有机器人和软件生命的美好未来更感兴趣。在小行星带及更远的地方,通过无数个自我复制的机器人工厂,这些人工智能将改变太阳系,然后在几十万年之内,遍布整个星系和数十亿年之内,而它们的扩张速度或许只会受到光速的限制。(人工智能或其部分可能通过无线电从发射机传送到接收机——尽管将发射接收机送至目的地需要相当长的时间。)

这将与20世纪科幻小说中描述的场景截然不同,尽管科幻小说也以银河帝国和聪明的人工智能为主角。但是大多数小说的情节都是以人为中心的,因而不切实际。例如,为了使短暂的人类寿命与广阔的星系空间相适应,科幻小说的作者发明了物理上不可能的技术,例如折越引擎(warp drives)。然而,人工智能扩展在物理速度限制方面不会有任何问题。由于宇宙寿命将会是其目前年龄138亿年的很多倍,因此人工智能可能将会有足够的时间来实现这一切。

许多科幻小说都只会写到一种人工智能统治一切。但更现实的情况是,各种各样的人工智能试图优化各种部分冲突(且快速发展)的效用函数,其中许多是自动生成的(我的实验室在刚刚结束的千年里已经进化出效用函数)。在这之中,每个人工智能都在不断努力生存下去,并适应人工智能生态系统中快速变化的栖身之地,这些生态系统是由激烈的竞争和协作驱动的,而且超出了我们目前的想象。

一些人可能希望通过脑部扫描将“思维上传”到虚拟现实或机器人中,成为这些生态系统中不朽的一部分,这是自20世纪60年代以来在小说中讨论的物理上可行的想法。然而,为了在快速发展的人工智能生态中竞争,上传的人类思维最终将不得不变得面目全非,并在这个过程中逐渐成为一些不同于我们想象的东西。

因此,人类将不会在宇宙中智慧传播方面发挥重要作用。但那没关系。 不要认为人类是创造之王。相反,将人类文明视为更宏伟的计划的一部分,这只是宇宙走向更高复杂性的重要步骤(但不是最后一步)。现在它似乎已准备好迈出下一步,这一步甚至可与35亿年前生命的出现相媲美。

这不仅仅是另一场工业革命,这更是超越人类乃至生物学范畴的新事物。 能够见证它的起源并为此做出贡献是一种荣幸。

关键字:未来智能

本文摘自:环球科学

x 打破壁垒:人工智能的过去、现在和未来 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

打破壁垒:人工智能的过去、现在和未来

责任编辑:zsheng |来源:企业网D1Net  2018-12-26 10:15:53 本文摘自:环球科学

当我还是一个小男孩的时候,我就想尽我所能对世界产生最大的影响,所以我决定制造一个可以自我提升并且能够变得比我聪明很多的人工智能(AI),让AI解决我自己无法解决的所有问题,而我就可以退休了。然后AI再以一种人类不可能做到的方式殖民宇宙、为智能体开疆扩土。

所以我投身到数学和计算机领域。1987年,我发表了一篇雄心勃勃的毕业论文,描述了第一个关于元学习(meta-learning)程序的具体研究。它不仅可以通过学习解决一些问题,而且还能通过学习改进自己的学习算法。这种程序仅仅受限于它的计算性能,它可以通过逐渐的自我完善来实现超级智能。

我现在仍在为此努力,但现在有更多的人对此感兴趣了。为什么呢?因为现在,我们在实现这一目标的过程中所创造的方法,已经渗透到现代世界的各个方面。全球几乎一半的人类都在使用它们,且使用总次数每天高达数十亿次。。

到2017年8月,目前世界上存在的最有价值的五家上市公司分别是苹果(Apple),谷歌(Google),微软(Microsoft),脸书(Facebook)和亚马逊(Amazon)。自20世纪90年代初期以来,所有人都大量使用着我在德国和瑞士实验室开发的深度学习神经网络,特别是长短期记忆网络(Long Short-Term Memory network,LSTM)。这些算法是由我与我的同事Sepp Hochreiter、Felix Gers、Alex Graves和其他由欧洲纳税人资助的优秀学生和博士后发表在几篇论文中的内容。最初,这种LSTM是很笨拙的,它什么都不知道。但它可以通过经验进行自我学习。这种机制有点受人类大脑皮层的启发,在人类大脑皮层中,有超过150亿个神经元,且每个神经元都平均与其他10,000个神经元相连。输入型神经元向其余神经元提供数据(听觉,视觉,痛觉);输出型神经元触发肌肉活动;思维神经元隐藏在两者之间。这些都是通过改变连接强度来影响神经元相互影响的强度。

我们的LSTM是一种人工递归神经网络(recurrent neural network,RNN),它在许多应用中都有优于以前的方法。LSTM可以通过学习来控制机器人、分析图像、汇总文档、识别视频和字体、操作聊天机器人、预测疾病、点击率和股票市场、编曲等等。LSTM已经成为现在所谓的深度学习的基础,特别是对于连续的数据来说应用广泛(注意大多数真实世界的数据都是连续的)。

2015年,LSTM大大提升了谷歌Google的语音识别能力,目前已应用于超过20亿部的安卓手机。LSTM也是自2016年以后谷歌拥有更新、更好翻译服务的核心。LSTM同样被应用于苹果公司近10亿部苹果手机的快速输入(QuickType)和苹果智能语音助手(Siri)中。LSTM还负责着亚马逊语音助手(Alexa)的语音回复功能。

截至2016年,在所有的谷歌数据中心中,近30%用于推理的强大的计算机采用了LSTM。截至2017年,脸书每天使用LSTM进行高达45亿次的翻译(每秒超过50,000次)。与此同时,我们的其他深度学习算法现在也可供数十亿的用户使用。也就是说,您可能一直在使用LSTM。

与传统的深度学习如多层前馈神经网络(feed-forward neural networks, FNNs)相比,我们将基于人工递归神经网络的方法称为“一般深度学习”。多层前馈神经网络是一种传统深度学习的方法,由Ivakhnenko和Lapa(1965)于半个多世纪前在乌克兰(当时还是苏联的一部分)开发。与多层前馈神经网络不同,像LSTM这样的人工递归神经网络具有通用的并行顺序计算架构。人工递归神经网络与受到更多限制的多层前馈神经网络之间的差别,类似于计算机与计算器之间的差别。

到20世纪90年代初,我们的深度人工递归神经网络(是无监督式算法)可以通过学习来解决许多以前无法解决的任务。但这只是一个开始。每过五年,计算机的速度大约提高10倍/美元。这种趋势比摩尔定律更早;自从Konrad Zuse在1935年至1941年期间建造了第一台可操作的程控计算机以来(该计算机每秒可执行大约一次基本操作),该趋势始终未变。在75年后的今天,计算机性能提升了大约一百万亿倍,LSTM也从这种加速中获益匪浅。

今天最大的LSTM有十亿个连接左右。以这一趋势推断,在25年内我们可能以较低成本,制造出人体大脑皮质规模的LSTM,其电子连接超过100,000亿,并且比生物连接的传输速度快得多。在几十年后,我们或许能够以低廉的成本,制造出具有整个星球100亿人类大脑总和计算能力的计算机。就算是如此强大的计算机,其每秒可执行有意义的基本操作次数仍然可能无法超过1030次。而Bremermann所给出的1千克计算基质的物理极限(1982)比这个数值还大1020倍。因此,在下个世纪之前,以上这种趋势都不会到达极限,但这个趋势也很快了,毕竟一个世纪在人类一万年的文明长河中只占1%。

然而,LSTM本身是一种有监督式算法,因此对于真正的人工智能来说是不够的,真正的人工智能是能在没有老师的情况下,自发地通过学习去解决最初未知环境中的各种问题。这就是为什么三十年来我一直在发布更多的普适性人工智能。

自1990年以来,我的一个特别关注点就是那些无监督式的人工智能,它们展现了我所谓的“人工好奇心”和创造力。它们可以自主提出目标和实验,以弄清楚世界是如何运作的,以及它可以在其中做些什么。此类人工智能可以使用LSTM作为一种子模块,这种子模块可以通过学习来预测行为后果。 它们不是盲目地模仿人类教师,而是有点类似于儿童,通过不断创造和解决它们自己的并且以前无法解决的新问题,在这个过程中通过成为越来越多的问题的解决者来获得回报(流行语:PowerPlay,2011)。以此,我们已经创造了一个简单的“人造科学家”。

我从这项工作中推断,在不久的将来,我们将拥有一个这样的人工智能:它将会逐渐通过学习变得像一个小动物一样聪明、好奇并充满创造力地不断学习如何快速地计划、推理和分解各种各样的问题,并将其分解为可解决的(或已经解决的)子问题。在我们发明出了猴级(与猴子一样聪明的)AI之后,可能还会发明出有着真正无限用途的人级AI。

并且一切还不会止步于此。许多有好奇心的并可以提出自己目标的人工智能会迅速地提升自己,仅受可计算性和物理学的基本限制。它们会做什么?宇宙空间并不适合人类生存,但相当适合设计得当的机器人,而且宇宙比我们生物圈薄膜提供更多的资源(生物圈薄膜仅接收不到十亿分之一的太阳光)。虽然在一些人工智能至少在它们未能完全理解生命之前,对生命着迷,但大多数人工智能都会对太空中只有机器人和软件生命的美好未来更感兴趣。在小行星带及更远的地方,通过无数个自我复制的机器人工厂,这些人工智能将改变太阳系,然后在几十万年之内,遍布整个星系和数十亿年之内,而它们的扩张速度或许只会受到光速的限制。(人工智能或其部分可能通过无线电从发射机传送到接收机——尽管将发射接收机送至目的地需要相当长的时间。)

这将与20世纪科幻小说中描述的场景截然不同,尽管科幻小说也以银河帝国和聪明的人工智能为主角。但是大多数小说的情节都是以人为中心的,因而不切实际。例如,为了使短暂的人类寿命与广阔的星系空间相适应,科幻小说的作者发明了物理上不可能的技术,例如折越引擎(warp drives)。然而,人工智能扩展在物理速度限制方面不会有任何问题。由于宇宙寿命将会是其目前年龄138亿年的很多倍,因此人工智能可能将会有足够的时间来实现这一切。

许多科幻小说都只会写到一种人工智能统治一切。但更现实的情况是,各种各样的人工智能试图优化各种部分冲突(且快速发展)的效用函数,其中许多是自动生成的(我的实验室在刚刚结束的千年里已经进化出效用函数)。在这之中,每个人工智能都在不断努力生存下去,并适应人工智能生态系统中快速变化的栖身之地,这些生态系统是由激烈的竞争和协作驱动的,而且超出了我们目前的想象。

一些人可能希望通过脑部扫描将“思维上传”到虚拟现实或机器人中,成为这些生态系统中不朽的一部分,这是自20世纪60年代以来在小说中讨论的物理上可行的想法。然而,为了在快速发展的人工智能生态中竞争,上传的人类思维最终将不得不变得面目全非,并在这个过程中逐渐成为一些不同于我们想象的东西。

因此,人类将不会在宇宙中智慧传播方面发挥重要作用。但那没关系。 不要认为人类是创造之王。相反,将人类文明视为更宏伟的计划的一部分,这只是宇宙走向更高复杂性的重要步骤(但不是最后一步)。现在它似乎已准备好迈出下一步,这一步甚至可与35亿年前生命的出现相媲美。

这不仅仅是另一场工业革命,这更是超越人类乃至生物学范畴的新事物。 能够见证它的起源并为此做出贡献是一种荣幸。

关键字:未来智能

本文摘自:环球科学

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^