当前位置:人工智能行业动态 → 正文

大数据时代的人工智能,并不是“真正的人工智能”?

责任编辑:zsheng |来源:企业网D1Net  2019-01-12 11:51:07 本文摘自:新京报

“有些心理学研究表明,人就是有因果模式(pattern)的,人是从因果模式进化而来的。我们该如何想象让机器去进化出这些东西?所以侯世达很怀疑现在的人工智能。虽然如今人工智能很火,而且在社会上应用得很广泛,但我想说,那种应用不是真正意义上的人工智能,而是大数据应用的一些方式。在我看来,‘人工智能’这个名字名不副实。侯世达想要做‘真正的人工智能’,因此他必须自觉地与现在做人工智能的人保持距离。这是因为他们对自我的理解、对人的理解是非常不一样。人不是一个算法,这是侯世达一个很核心的观点。” 梅剑华说。

自我是不是一种幻觉?自由意志存在不存在?意识是什么?如果人只是一个纯粹物理性的存在,那所有的道德、情感、伦理和美该如何解释?想要做出侯世达眼里“真正的人工智能”,即一个跟人类一样的人工智能,就必须要解释以上的难题。在“人工智能威胁论”甚嚣尘上的今天,这种反思显得非常必要。我们在设计人工智能的过程中,也是一个不断发现和认清自我的过程。

1月6日,曾写过 “神书”《哥德尔、埃舍尔、巴赫——集异璧之大成》的作者侯世达的新书《我是个怪圈》,在中信书店芳草地店举行了新书发布会。在会上,首都师范大学哲学系教授梅剑华、果壳网的联合创始人小庄和中科创南的CTO、高级副总裁邹鹏程一起谈了谈作者侯世达、人工智能与生命和人类意识的秘密。

《我是个怪圈》,作者:侯世达,译者:修佳明,中信出版集团 | 湖岸,2019年1月

“现在的人工智能走在一个错误的道路上”

梅剑华认为,侯世达不能算一个严格意义上的哲学家,但是他的著作在哲学家中激起了强烈的反响。他的作品融汇了科学和哲学。他经常谈到哥德尔定理。假如要简单地用一句话去概述什么叫哥德尔定理,那就是“可证的不完全,完全的不可证”,即如果一个系统是可证的话,那么这个系统就不是完全的,肯定有漏掉的真理不能被定理表述出来;反过来说,如果这个系统是完全的,那么这里面起码有一个真理我们是证明不了的。

在梅剑华看来,这就是侯世达远离当下的人工智能研究的原因。侯世达认为,我们现在谈论的人工智能和“真正的人工智能”有很大区别。人可以发现一个形式系统里面不能证的东西,然后可以判定这个系统是不完全的,但是计算机却发现不了。侯世达认为,现在的人工智能走在一个错误的道路上。

侯世达

所以,侯世达并不是一个人工智能研究者,而是一个认知科学家。他在漫长的研究中发现,大家现在做的人工智能,不论是机器学习还是深度学习,都是数据整合,在根本就是算法。而我们的大脑是不能被算法所穷尽的。不能被穷尽的东西有很多。比如说,我们的意识,我们的感受,都不能被穷尽。说得更根本一点,算法连我们的因果评判能力都不能穷尽,连再弱的意识都不行。这样如何让机器学习做因果推断?这是不可能的。但小孩就能很快学会。比如说,小孩偶然间碰到火会“烫”,那下次他自然而然就不会去碰火。这是因为人有因果模式,并不是算法。

自我是一个幻觉?

那么,侯世达是如何理解意识和人的呢?我们通常认为人有两个部分——身体和心灵,或者更古老的说法叫灵魂。我们称之为身心二元论。这个立场也是哲学界的主流立场,无论是中国古代还是西方都有这种两分法,比如说,我们的灵魂最终会升向天空,或者是灵魂转世。但是,如果我们接受科学训练,或去读一些当代自然主义的作品,或当代的心理学、神经科学的作品,我们可能会得到一个相反的观念:人就是一个物理的存在,一个功能体,除此之外什么都不是。你所有的道德、情感、伦理、美都是源自这个东西,没有一个独立的心灵去为它承担解释。

当然,知道这个真相是很残酷的,所以很多人要守护我们的心灵,给人类留下最后的空间。梅剑华提到,昨天下午他刚在中国人民大学就这个问题争论过一次,他系里的同事叶峰老师是一个很强硬的物理主义者,和侯世达的观点非常一致。他说这个世界上唯一存在的就只是物理系统,其他所有东西都是派生的。“实质上成为一个物理主义者,或者是一个没有自我感觉的人的日常生活是非常平静的。叶峰老师就彻底无我,他把他所有关于项目的经费全都捐给我们去做很多学术活动了。他真的永远没有情绪,只有理性。”梅剑华调侃道。

所以,按照侯世达和叶峰的理解,自我是一个幻觉,实际上没有大家所认为的自我。这个观点其实比较像佛教,佛教最后也是要去掉“我执”。所以,当代心理学、心灵哲学和印度哲学,佛教有很多接轨的地方。很多人会讨厌这种说法,假若自我是一种幻觉,人实际上是没有自由意志的,这听起来很难受。但这就是哲学家的“求真强迫症”,他们想要向世界揭示这样的真相。

《哥德尔、艾舍尔、巴赫——集异璧之大成》,作者:侯世达,译者:严勇、刘皓明、莫大伟,出版社:商务印书馆,1997年5月

如果说自我是一个幻觉,那么活着的意义何处安放?如果说自我是一个幻觉,那我们的道德、伦理从哪里来呢?我们除了大脑里几亿个神经元的活动之外,实际上没有更多的东西,那么我们的选择和决定不就可能被预测和把握了?

梅剑华认为,可能有很多人因此会认为,自我是我们不能放弃的最后一个精神领地。但事实上,自我实际上是我们自己建构起来的幻觉,我们当然可以去把玩这种幻觉,只是这种幻觉对我们的生存来说有好多用处。

但梅剑华要补充的是,“自我是一种幻觉”绝不是心灵哲学的主流。实际上,有很多观点是反对它的。其中侯世达的学生大卫·查尔默斯就坚定地反对这种观点。他是一个反物理主义者,他要为意识和感受留一个余地。他不认为我们的心灵或所有的意识必须依附在物理上,因为我们并没有“最终的科学”。神经科学、大脑科学,远远没有到我们能够搞清这个问题的地步。

其次,查尔默斯为自己说法提供了一个论证,这个论证就是所谓的“僵尸实验”。我们通常会认为我们的心灵和物理之间是没有隔阂的,它们的关联是本质的、必然的,永远拆散不了的。但我们可以设想,完全可能存在着一些“哲学僵尸”,它和人类在外形和行为上一模一样,我们可以通过给它植入芯片来植入记忆。但是,这样的僵尸会有“内在层面”吗?比如说,我们现在在说话,我们能感觉到自己坐在这说话,因为我们有一个“内在层面”,可是僵尸没有。若是这种僵尸可能存在的话,那么这就表明心灵层面和物理层面是可以互相分离的,这也就表明,侯世达和叶峰等人都是错的。这就是查尔默斯的观点。

在理解心灵的问题上,还存在着很多截然不同的立场。比如“泛心论”。什么叫“泛心论”?有些人会认为天地万物都有“心”。他们认为,从人到植物,从低级动物到高级动物,心是一种程度,并不是说“有心”或“没心”,而是它们有百分之多少的“心”。

还有一种观点更简单,我们称之为“唯心论”。从极端“唯心论”到“泛心论”到身心二元论到物理主义,我们会发现关于心灵的看法很多。但在当代的讨论里,侯世达和查尔默斯所代表的两派是比较主流的看法。

只有把人类大脑的图景画出来,我们才能去建立类人的人工智能

梅剑华一直强调算法是有问题的,不完备的,但小庄认为,我们除算法也别无选择。我们确实没有完美地理解“我”是从哪里产生的,或意识是如何建立的。我们要认清自我是一个很漫长的过程。这当中很多观点和想法,都是这个大厦建设当中的某个部分,或是某个形成关键突破很重要的部分。

我们该如何理解人类大脑中上千亿的神经元?如果我们能把这样一幅图景画出来,我们才能去建立类人的人工智能。但这项工作特别难。人类基因组计划耗费了全世界科学家十年的努力才完成。他们要面对的只是三十亿个碱基对,而研究大脑要面对上千亿个神经元,他们的互相连接是指数级的。所以我们需要等待。

但是,像自我是什么这样的话题,始终可以被拿出来讨论,时代和科技的进步是讨论的基础。像自由意志,自我这样的话题,从物理的角度被认真的探讨应该可以追溯到1943年的《生命是什么》。虽然这本书没有什么新知识,但是它把一些基本的框架都提了出来,包括统计学如何在生命中起作用。为什么这个世界需要那么多的原子和粒子才能构成物体,为什么这么复杂?其实很好理解。只有在这么巨大的数量下,统计学才能起作用。如我们所看到的磁体的现象,如果我们放大去看,我们会发现,磁铁里并不是所有的原子都按照磁极分布的,在南极的一部分的原子可能是朝北的。但是在整个大的层面上,南极是朝南的,整个磁体才会呈现出这样的磁性。

《生命是什么》,作者:埃尔温·薛定谔,译者:张卜天,出版社:商务印书馆,2014年12月

人的思维会不断地跳跃,这是人和人工智能最大的区别

邹鹏程认为,人工智能并没有那么复杂,它和计算器一样只是工具,能放大他的智能,但它不会取代他的大脑。

侯世达认为人类思维中类比是很重要的。邹鹏程觉得,类比这个词有点淡,可以换成联想。因为联想有许多层次,它的特征是跳跃的。人的思维不断地跳跃,是人和人工智能最大的区别,这也是我们不用特别担心人工智能的原因。

梅剑华也表示赞同。在生活当中,类比论证可能比逻辑论证更重要。比如说,我们如何知道今天的自己和明天的自己是同一个人呢?最早讨论这个问题就来自于类比论证: “忒修斯之船”——请想象一下,一艘海上航行的船,其船身的木板逐步被新的木板替换,直至最后被完全替换,那么现在这艘船还是原来的那艘吗?这个例子跟侯世达讲的 “意识上传”的例子是类似的:如果把你的所有数据都上传到云端,那么云端的那个你是不是原来的那个你呢?

梅剑华认为,我们现在经常区分强人工智能和弱人工智能,其实我们根本无法模仿人的意识或情绪。有人认为,强人工智能我们是达不到的,但弱人工智能可以实现,但哥德尔就会说不可能。而Judea Pearl则会说,人跟机器如果有关键性区别的话,那就是人有一种因果性推理的能力。因此他曾尝试为因果推理建立了一个数学模型,但谷歌现在不给他投钱了,这使得这项研究面临着许多困难。

而除了因果之外,类比也是人理解世界和与人交往的一个基本方式。有时候在禅宗里面,经常会有所谓的“一句禅”,我们从中悟出些什么。这里面就有类比和因果的联系,我们的思维在当中进行跳跃。在科学哲学里面,类比也是一个很重要的话题,甚至在心理学里面,比如联想作为类比的一种,被分为图像式的联想、概念式的联想或者结构式的联想,都是很重要的议题。

因此,虽然梅剑华对人工智能的未来是乐观的,但从理论的层面来看,梅剑华对人工智能是悲观的。因为哲学家所定义的类人的人工智能是无法实现的:不仅是因为技术原因。即使技术水平达到了,人也会为自己保留一定的特权。不过,梅剑华觉得这种悲观的态度也无所谓,因为它和我们现在做的人工智能关系不大。

机器没有意识,是因为它没有生物基础,这会不会过于人类中心主义?

梅剑华提到,有一种观点认为,机器是没有意识的,因为它没有生物基础。从另一方面来想,这样会不会过于人类中心主义了呢?机器没有生物基础,但是它们也有可能用另一种方式在理解着我们。在语言哲学里,什么是理解的条件?其中一个条件就是,我要把你所说的话当作真,否则我无法跟你交流。此外,我还需要一个条件,就是“宽容原则”

(the principle of charity)

,即你所说的话不仅要前后一致,还得有所论断,无论是肯定还是否定,这样我才能理解你。其实机器也能做到这些。

小孩子学语言,究竟怎么样才算是掌握了一门语言呢?这个问题现在依然没有定论。在语言理解最浅显的层面来说,人和机器其实没有什么差别。哲学家约翰·塞尔有一个非常有名的“中文屋”思想实验:你一觉醒来发现自己所在的房间里堆满了篓子,篓子里都是中文符号,还有一本使用手册。你虽然看不懂中文,但可以看懂使用手册。突然间,有人从门缝递进来一张字条,上面写着一个中文符号,你翻看使用手册时,发现里面写道:“当你收到这个中文符号,就把另一个特定的中文符号递出去。”于是,你就照做了。很快,你就把整本使用手册都背了下来,不管接到哪个中文符号,都可以很快地把对应的符号再递出去。这样一来,虽然你并不懂中文,但你所做的事情和懂中文的人没有两样,因此房间外面的人也会相信你是懂中文的。同样的,如果你就是一台机器,那么你就通过了图灵测试。但是,我们依然会认为,机器确实是不懂中文的。梅剑华认为,这就是人类的“我执”。

哲学家约翰·塞尔

随着人和人工智能接触越来越多,人反而会不会变得像人工智能?

现场有观众提问,我们都在讨论怎么样把人工智能做得像人,但随着人和人工智能接触得越多,人会不会变得更像人工智能?人类的自我会不会渐渐消失?

邹鹏程作为工程师,因此对这个问题相对乐观。他认为,人工智能所暴露出来的问题,最终还是要依靠人去解决,甚至要依靠哲学家,要依靠文明和法律解决。所以他不担心人会因为人工智能而改变,因为我们不会像机器一样四处乱学,而会有一个方向性。这是因为人类文明延续下来的伦理。

梅剑华认为,我们会发现,我们待人方式和我们的孩子辈就不太一样。因为他们更独立,更愿意和机器打交道;机器也开始变得像人,这个鸿沟只会越来越小。1998年,查尔默斯和另外一个认知科学家安迪·克拉克合写了一篇论文,叫“Extended Mind”

(《延展心灵》)

,里面说,我们的心灵不是在大脑里面,我们的心灵延展到环境,其中手机就是延展的一个重要的部分。我们的认知不光靠大脑,还要和环境互动。

而关于我们的自我是否会逐渐消失,梅剑华的想法是不会的。他认为,我们塑造自我的方式只会变得不同。新的时代有新的自我。我们和机器人接触,会多一种塑造自我的方式。比如说,以后人和机器人有可能谈恋爱,这也是一种塑造自我经验的方式。即使你对机器人的爱不会完全像对人一样,但梅剑华认为这只是量的变化而不是质的变化。

自我是在不断流变的,我们很难划出自我的边界在哪。我们的手机让我很有自我感,但没有了它我们也能活下来;甚至于没了手或腿我们也能活下来,所以我们很难划出自我的界限。但是我们有自我感,我们根据这种自我感去筹划我们的人生。这在任何时代都是一样的。因此,我们并不会因为人工智能的到来而丧失自我。

关键字:智能时代数据

本文摘自:新京报

x 大数据时代的人工智能,并不是“真正的人工智能”? 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

大数据时代的人工智能,并不是“真正的人工智能”?

责任编辑:zsheng |来源:企业网D1Net  2019-01-12 11:51:07 本文摘自:新京报

“有些心理学研究表明,人就是有因果模式(pattern)的,人是从因果模式进化而来的。我们该如何想象让机器去进化出这些东西?所以侯世达很怀疑现在的人工智能。虽然如今人工智能很火,而且在社会上应用得很广泛,但我想说,那种应用不是真正意义上的人工智能,而是大数据应用的一些方式。在我看来,‘人工智能’这个名字名不副实。侯世达想要做‘真正的人工智能’,因此他必须自觉地与现在做人工智能的人保持距离。这是因为他们对自我的理解、对人的理解是非常不一样。人不是一个算法,这是侯世达一个很核心的观点。” 梅剑华说。

自我是不是一种幻觉?自由意志存在不存在?意识是什么?如果人只是一个纯粹物理性的存在,那所有的道德、情感、伦理和美该如何解释?想要做出侯世达眼里“真正的人工智能”,即一个跟人类一样的人工智能,就必须要解释以上的难题。在“人工智能威胁论”甚嚣尘上的今天,这种反思显得非常必要。我们在设计人工智能的过程中,也是一个不断发现和认清自我的过程。

1月6日,曾写过 “神书”《哥德尔、埃舍尔、巴赫——集异璧之大成》的作者侯世达的新书《我是个怪圈》,在中信书店芳草地店举行了新书发布会。在会上,首都师范大学哲学系教授梅剑华、果壳网的联合创始人小庄和中科创南的CTO、高级副总裁邹鹏程一起谈了谈作者侯世达、人工智能与生命和人类意识的秘密。

《我是个怪圈》,作者:侯世达,译者:修佳明,中信出版集团 | 湖岸,2019年1月

“现在的人工智能走在一个错误的道路上”

梅剑华认为,侯世达不能算一个严格意义上的哲学家,但是他的著作在哲学家中激起了强烈的反响。他的作品融汇了科学和哲学。他经常谈到哥德尔定理。假如要简单地用一句话去概述什么叫哥德尔定理,那就是“可证的不完全,完全的不可证”,即如果一个系统是可证的话,那么这个系统就不是完全的,肯定有漏掉的真理不能被定理表述出来;反过来说,如果这个系统是完全的,那么这里面起码有一个真理我们是证明不了的。

在梅剑华看来,这就是侯世达远离当下的人工智能研究的原因。侯世达认为,我们现在谈论的人工智能和“真正的人工智能”有很大区别。人可以发现一个形式系统里面不能证的东西,然后可以判定这个系统是不完全的,但是计算机却发现不了。侯世达认为,现在的人工智能走在一个错误的道路上。

侯世达

所以,侯世达并不是一个人工智能研究者,而是一个认知科学家。他在漫长的研究中发现,大家现在做的人工智能,不论是机器学习还是深度学习,都是数据整合,在根本就是算法。而我们的大脑是不能被算法所穷尽的。不能被穷尽的东西有很多。比如说,我们的意识,我们的感受,都不能被穷尽。说得更根本一点,算法连我们的因果评判能力都不能穷尽,连再弱的意识都不行。这样如何让机器学习做因果推断?这是不可能的。但小孩就能很快学会。比如说,小孩偶然间碰到火会“烫”,那下次他自然而然就不会去碰火。这是因为人有因果模式,并不是算法。

自我是一个幻觉?

那么,侯世达是如何理解意识和人的呢?我们通常认为人有两个部分——身体和心灵,或者更古老的说法叫灵魂。我们称之为身心二元论。这个立场也是哲学界的主流立场,无论是中国古代还是西方都有这种两分法,比如说,我们的灵魂最终会升向天空,或者是灵魂转世。但是,如果我们接受科学训练,或去读一些当代自然主义的作品,或当代的心理学、神经科学的作品,我们可能会得到一个相反的观念:人就是一个物理的存在,一个功能体,除此之外什么都不是。你所有的道德、情感、伦理、美都是源自这个东西,没有一个独立的心灵去为它承担解释。

当然,知道这个真相是很残酷的,所以很多人要守护我们的心灵,给人类留下最后的空间。梅剑华提到,昨天下午他刚在中国人民大学就这个问题争论过一次,他系里的同事叶峰老师是一个很强硬的物理主义者,和侯世达的观点非常一致。他说这个世界上唯一存在的就只是物理系统,其他所有东西都是派生的。“实质上成为一个物理主义者,或者是一个没有自我感觉的人的日常生活是非常平静的。叶峰老师就彻底无我,他把他所有关于项目的经费全都捐给我们去做很多学术活动了。他真的永远没有情绪,只有理性。”梅剑华调侃道。

所以,按照侯世达和叶峰的理解,自我是一个幻觉,实际上没有大家所认为的自我。这个观点其实比较像佛教,佛教最后也是要去掉“我执”。所以,当代心理学、心灵哲学和印度哲学,佛教有很多接轨的地方。很多人会讨厌这种说法,假若自我是一种幻觉,人实际上是没有自由意志的,这听起来很难受。但这就是哲学家的“求真强迫症”,他们想要向世界揭示这样的真相。

《哥德尔、艾舍尔、巴赫——集异璧之大成》,作者:侯世达,译者:严勇、刘皓明、莫大伟,出版社:商务印书馆,1997年5月

如果说自我是一个幻觉,那么活着的意义何处安放?如果说自我是一个幻觉,那我们的道德、伦理从哪里来呢?我们除了大脑里几亿个神经元的活动之外,实际上没有更多的东西,那么我们的选择和决定不就可能被预测和把握了?

梅剑华认为,可能有很多人因此会认为,自我是我们不能放弃的最后一个精神领地。但事实上,自我实际上是我们自己建构起来的幻觉,我们当然可以去把玩这种幻觉,只是这种幻觉对我们的生存来说有好多用处。

但梅剑华要补充的是,“自我是一种幻觉”绝不是心灵哲学的主流。实际上,有很多观点是反对它的。其中侯世达的学生大卫·查尔默斯就坚定地反对这种观点。他是一个反物理主义者,他要为意识和感受留一个余地。他不认为我们的心灵或所有的意识必须依附在物理上,因为我们并没有“最终的科学”。神经科学、大脑科学,远远没有到我们能够搞清这个问题的地步。

其次,查尔默斯为自己说法提供了一个论证,这个论证就是所谓的“僵尸实验”。我们通常会认为我们的心灵和物理之间是没有隔阂的,它们的关联是本质的、必然的,永远拆散不了的。但我们可以设想,完全可能存在着一些“哲学僵尸”,它和人类在外形和行为上一模一样,我们可以通过给它植入芯片来植入记忆。但是,这样的僵尸会有“内在层面”吗?比如说,我们现在在说话,我们能感觉到自己坐在这说话,因为我们有一个“内在层面”,可是僵尸没有。若是这种僵尸可能存在的话,那么这就表明心灵层面和物理层面是可以互相分离的,这也就表明,侯世达和叶峰等人都是错的。这就是查尔默斯的观点。

在理解心灵的问题上,还存在着很多截然不同的立场。比如“泛心论”。什么叫“泛心论”?有些人会认为天地万物都有“心”。他们认为,从人到植物,从低级动物到高级动物,心是一种程度,并不是说“有心”或“没心”,而是它们有百分之多少的“心”。

还有一种观点更简单,我们称之为“唯心论”。从极端“唯心论”到“泛心论”到身心二元论到物理主义,我们会发现关于心灵的看法很多。但在当代的讨论里,侯世达和查尔默斯所代表的两派是比较主流的看法。

只有把人类大脑的图景画出来,我们才能去建立类人的人工智能

梅剑华一直强调算法是有问题的,不完备的,但小庄认为,我们除算法也别无选择。我们确实没有完美地理解“我”是从哪里产生的,或意识是如何建立的。我们要认清自我是一个很漫长的过程。这当中很多观点和想法,都是这个大厦建设当中的某个部分,或是某个形成关键突破很重要的部分。

我们该如何理解人类大脑中上千亿的神经元?如果我们能把这样一幅图景画出来,我们才能去建立类人的人工智能。但这项工作特别难。人类基因组计划耗费了全世界科学家十年的努力才完成。他们要面对的只是三十亿个碱基对,而研究大脑要面对上千亿个神经元,他们的互相连接是指数级的。所以我们需要等待。

但是,像自我是什么这样的话题,始终可以被拿出来讨论,时代和科技的进步是讨论的基础。像自由意志,自我这样的话题,从物理的角度被认真的探讨应该可以追溯到1943年的《生命是什么》。虽然这本书没有什么新知识,但是它把一些基本的框架都提了出来,包括统计学如何在生命中起作用。为什么这个世界需要那么多的原子和粒子才能构成物体,为什么这么复杂?其实很好理解。只有在这么巨大的数量下,统计学才能起作用。如我们所看到的磁体的现象,如果我们放大去看,我们会发现,磁铁里并不是所有的原子都按照磁极分布的,在南极的一部分的原子可能是朝北的。但是在整个大的层面上,南极是朝南的,整个磁体才会呈现出这样的磁性。

《生命是什么》,作者:埃尔温·薛定谔,译者:张卜天,出版社:商务印书馆,2014年12月

人的思维会不断地跳跃,这是人和人工智能最大的区别

邹鹏程认为,人工智能并没有那么复杂,它和计算器一样只是工具,能放大他的智能,但它不会取代他的大脑。

侯世达认为人类思维中类比是很重要的。邹鹏程觉得,类比这个词有点淡,可以换成联想。因为联想有许多层次,它的特征是跳跃的。人的思维不断地跳跃,是人和人工智能最大的区别,这也是我们不用特别担心人工智能的原因。

梅剑华也表示赞同。在生活当中,类比论证可能比逻辑论证更重要。比如说,我们如何知道今天的自己和明天的自己是同一个人呢?最早讨论这个问题就来自于类比论证: “忒修斯之船”——请想象一下,一艘海上航行的船,其船身的木板逐步被新的木板替换,直至最后被完全替换,那么现在这艘船还是原来的那艘吗?这个例子跟侯世达讲的 “意识上传”的例子是类似的:如果把你的所有数据都上传到云端,那么云端的那个你是不是原来的那个你呢?

梅剑华认为,我们现在经常区分强人工智能和弱人工智能,其实我们根本无法模仿人的意识或情绪。有人认为,强人工智能我们是达不到的,但弱人工智能可以实现,但哥德尔就会说不可能。而Judea Pearl则会说,人跟机器如果有关键性区别的话,那就是人有一种因果性推理的能力。因此他曾尝试为因果推理建立了一个数学模型,但谷歌现在不给他投钱了,这使得这项研究面临着许多困难。

而除了因果之外,类比也是人理解世界和与人交往的一个基本方式。有时候在禅宗里面,经常会有所谓的“一句禅”,我们从中悟出些什么。这里面就有类比和因果的联系,我们的思维在当中进行跳跃。在科学哲学里面,类比也是一个很重要的话题,甚至在心理学里面,比如联想作为类比的一种,被分为图像式的联想、概念式的联想或者结构式的联想,都是很重要的议题。

因此,虽然梅剑华对人工智能的未来是乐观的,但从理论的层面来看,梅剑华对人工智能是悲观的。因为哲学家所定义的类人的人工智能是无法实现的:不仅是因为技术原因。即使技术水平达到了,人也会为自己保留一定的特权。不过,梅剑华觉得这种悲观的态度也无所谓,因为它和我们现在做的人工智能关系不大。

机器没有意识,是因为它没有生物基础,这会不会过于人类中心主义?

梅剑华提到,有一种观点认为,机器是没有意识的,因为它没有生物基础。从另一方面来想,这样会不会过于人类中心主义了呢?机器没有生物基础,但是它们也有可能用另一种方式在理解着我们。在语言哲学里,什么是理解的条件?其中一个条件就是,我要把你所说的话当作真,否则我无法跟你交流。此外,我还需要一个条件,就是“宽容原则”

(the principle of charity)

,即你所说的话不仅要前后一致,还得有所论断,无论是肯定还是否定,这样我才能理解你。其实机器也能做到这些。

小孩子学语言,究竟怎么样才算是掌握了一门语言呢?这个问题现在依然没有定论。在语言理解最浅显的层面来说,人和机器其实没有什么差别。哲学家约翰·塞尔有一个非常有名的“中文屋”思想实验:你一觉醒来发现自己所在的房间里堆满了篓子,篓子里都是中文符号,还有一本使用手册。你虽然看不懂中文,但可以看懂使用手册。突然间,有人从门缝递进来一张字条,上面写着一个中文符号,你翻看使用手册时,发现里面写道:“当你收到这个中文符号,就把另一个特定的中文符号递出去。”于是,你就照做了。很快,你就把整本使用手册都背了下来,不管接到哪个中文符号,都可以很快地把对应的符号再递出去。这样一来,虽然你并不懂中文,但你所做的事情和懂中文的人没有两样,因此房间外面的人也会相信你是懂中文的。同样的,如果你就是一台机器,那么你就通过了图灵测试。但是,我们依然会认为,机器确实是不懂中文的。梅剑华认为,这就是人类的“我执”。

哲学家约翰·塞尔

随着人和人工智能接触越来越多,人反而会不会变得像人工智能?

现场有观众提问,我们都在讨论怎么样把人工智能做得像人,但随着人和人工智能接触得越多,人会不会变得更像人工智能?人类的自我会不会渐渐消失?

邹鹏程作为工程师,因此对这个问题相对乐观。他认为,人工智能所暴露出来的问题,最终还是要依靠人去解决,甚至要依靠哲学家,要依靠文明和法律解决。所以他不担心人会因为人工智能而改变,因为我们不会像机器一样四处乱学,而会有一个方向性。这是因为人类文明延续下来的伦理。

梅剑华认为,我们会发现,我们待人方式和我们的孩子辈就不太一样。因为他们更独立,更愿意和机器打交道;机器也开始变得像人,这个鸿沟只会越来越小。1998年,查尔默斯和另外一个认知科学家安迪·克拉克合写了一篇论文,叫“Extended Mind”

(《延展心灵》)

,里面说,我们的心灵不是在大脑里面,我们的心灵延展到环境,其中手机就是延展的一个重要的部分。我们的认知不光靠大脑,还要和环境互动。

而关于我们的自我是否会逐渐消失,梅剑华的想法是不会的。他认为,我们塑造自我的方式只会变得不同。新的时代有新的自我。我们和机器人接触,会多一种塑造自我的方式。比如说,以后人和机器人有可能谈恋爱,这也是一种塑造自我经验的方式。即使你对机器人的爱不会完全像对人一样,但梅剑华认为这只是量的变化而不是质的变化。

自我是在不断流变的,我们很难划出自我的边界在哪。我们的手机让我很有自我感,但没有了它我们也能活下来;甚至于没了手或腿我们也能活下来,所以我们很难划出自我的界限。但是我们有自我感,我们根据这种自我感去筹划我们的人生。这在任何时代都是一样的。因此,我们并不会因为人工智能的到来而丧失自我。

关键字:智能时代数据

本文摘自:新京报

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^