当前位置:人工智能行业动态 → 正文

人工智能有多智能?

责任编辑:zsheng |来源:企业网D1Net  2018-07-29 10:31:18 本文摘自:山西新闻网--山西晚报

去年,成都某公司开发的机器人和高考状元展开了一场解答高考数学题的较量,虽然机器人最终落败,但其理解语义、逻辑分析以及快速学习的能力令人赞叹。

从简单的娱乐游戏到辅助人类智慧决策的工具,人工智能正更加广泛地应用到人们的生活中。尽管人工智能仍处于“婴儿期”,但它的时代或许正悄悄到来。

人工智能最重要的特征是有学习能力

关于人工智能,学界尚没有统一的准确定义。通常认为,人工智能的核心是算法,是一套利用机器智能解决问题的手段。“过去的算法,人类给计算机下达指令来解决问题;现在,我们只要告诉计算机想解决的问题,它就可以自行选择算法来解决,这是人工智能带来的根本性变革。”人工智能专家邓力说。“比如给瓶子安装盖子,如果只是机器人重复加装动作,不是真正的人工智能。只有机器人能根据瓶子方位的变化做出相应调整,并能对突发状况做出正确反应,才称得上是人工智能。”百度研究院院长林元庆说。

邓力认为,人工智能最重要的特征是有学习能力,即机器能根据以往的经验来不断优化算法。例如“阿尔法狗”就能梳理决策模式,并从之前的比赛中吸取经验,平时也会通过跟自己下棋来强化学习。

人工智能并不是一个新名词。上世纪50年代,科学家就提出了人工智能概念,并于上世纪70年代掀起了一个小高潮。但当时算法采用的是符号逻辑推理规则,缺乏自我学习能力。80年代,科学家改进了机器学习模型,但智能水平依旧较低,有价值的成果寥寥无几,人工智能研究进入低潮期。

大约10年前,一种被称为深度学习的新的机器学习方法,让人工智能的算法更智能。“深度学习通过多层结构算法,让机器对数据集的‘特征’进行筛选和提取,通过反复训练,最终获得了提取抽象概念的能力。”邓力说。

微软人工智能及微软研究事业部负责人沈向洋博士表示,当前人工智能火起来主要有三个原因:互联网大量的数据、强大的运算能力以及深度学习的突破。“深度学习是机器学习方法之一,是让计算机从周围世界或某个特定方面的范例中学习从而变得更加智能的一种方式。”

深度学习的广泛应用离不开计算机硬件的发展。浙江大学计算机科学与技术学院教授蔡登说,深度学习又叫深度神经网络模型,以前计算机硬件不行,没法学习很深的神经网络,随着计算机性能大幅提升,训练很多层数的神经网络成为可能。

有专家把人工智能的特点概括为“数据多了、计算大了、层次深了”。邓力认为,随着神经网络研究的深入,计算机视觉和听觉等有望让算法越来越精确。未来,计算机对自然语言的应用将大幅提高,电脑可以听懂、读懂人类平常所用的语言,而不仅仅是机器指令。

“人工智能拥有计算机视觉、语音识别、自然语言处理等能力,与之对应,它就能像人一样看、听、理解事物。随着技术的发展,人工智能可以达到甚至超过人类的识别精度。”林元庆说。

人工智能为人们决策提供支撑

“广州到武汉、长沙、岳阳的票十分充足,其中,余票最多的是广州到武汉,还有1534张。不过,车次主要是K字头和普列,基本都是无座票,一站到底,路途会比较辛苦……”这是国内某媒体写稿机器人的“处女作”。这篇出自人工智能之手的报道,粗看上去与记者写的报道没有差别。

人工智能应用到新闻生产得益于它对数据、语义等的理解和处理能力。人工智能通过大量数据的学习,模仿甚至理解相对固定的新闻写作方式,并依靠算法迅速筛选、整合出内容。

专家预测,2020年将有500亿台相互连接的智能设备,每天将产生海量数据。大数据在推进人工智能发展的同时,人工智能也反过来释放了大数据的潜能。“大数据并非高纯度的石油,而是含金量非常低的贫矿石。其数据量大、种类繁杂、价值密度低以及瞬息万变的特点,使得存储、统计、分析和呈现分类以及调用都异常困难。”人工智能专家、驭势科技联合创始人吴甘沙说,人工智能的研究方法和应用技术,如自然语言语义分析、信息提取、知识表现等,正在逐步地应用于大数据技术的前沿领域,结合预测分析方法,就能挖掘大数据蕴含的规律和价值,从而为人类决策提供支撑。

吴甘沙认为,人工智能帮助大数据分析的方式有很多,既能“见微”,即从小处细微的、个性化的洞察;又能“知著”,即看到宏观的变化规律。“比如,从前商家只能关注花钱的客户,人工智能则能帮忙发现潜在的消费群体,或者发掘老客户的新兴趣,实现用户体验和消费需求反馈。”

人工智能和大数据结合还给精准医疗带来了福音。专家介绍,医疗的精准建立在数据分析之上。对于很多疾病,尤其是罕见病,找到基因上微小的变化就可能找到了解决方案,但这意味着巨大的计算量,没有深度学习之前这几乎是不可想象的。现在,类似IBM人工智能“沃森”、百度大脑等应用了深度学习的计算处理系统,就可能通过已有数据进行训练,找出规律,帮助诊断疾病、研发新药。

计算机能像人一样“听”和“看”

安徽国家普通话水平考场里迎来了一位新“考官”,考生读完一段文字,这位“考官”立马就能打出分数。

评判口语发音标准的“考官”是一款人工智能程序,它运用的是科大讯飞智能口语评测技术。该技术已经应用于全国所有省份的国家普通话水平智能测试中,具有极高的精确度。

人工智能在语音识别上的突破,让机器能够像人一样去“听”。“听”懂之外,它还能通过对语音的不断学习,准确地转换出相应文本。目前,人工智能技术已经应用到一些语音助理、语音输入、家庭管家等产品中。不用打字,人们说话就能完成远程控制。

借助计算机视觉,人工智能还学会了“看”,具备识别出物体、场景和活动的能力。比如一些大型会议、活动举办时期,所在区域的人口流动量会瞬间扩大,这就加大了安防监控的难度。基于深度学习训练出来的人脸识别技术,能对海量视频监控数据、图像数据进行实时对照处理,遇到突发情况能快速响应。全国信息技术标准化委员会生物特征识别分委会专家委员张鑫说,机器“看”的人脸越多,训练数据越大,理解就越深,它对人脸的判断也会更准确、更迅速。

刷脸识别也给人们生活带来很多便利。过去,到银行开户必须拿着身份证验证身份,不仅耽误时间,也给一些行动不便者带来麻烦。借助人工智能人脸识别系统,人们在网上就能完成实名验证。

张鑫认为,未来,到商场购物、去银行取钱、乘高铁坐飞机等各种服务场景都将受益于人工智能的应用。

此外,人工智能被认为是能够推动无人驾驶汽车商业化的关键技术。处理好复杂的环境信息,是无人驾驶发展必须解决的问题。吴甘沙说,人工智能在环境感知、驾驶决策、路径规划、语音手势识别、眼球追踪、驾驶员监控和自然语言交互等功能方面的应用,能够帮助汽车应对复杂的路况,从而实现安全和舒适的自动驾驶。

让人工智能更加“智慧”是科学家努力的方向之一。比如,越来越多的研究试图将人工智能与脑科学连接起来。近年来,科学家正尝试将生物智能和机器智能互联互通,以达到更高级的人工智能形态。通过与神经学、生物学的结合,最终发展出能理解人类感情和文化的人工智能。

林元庆说,帮助人类拥有更好的生活,是人工智能的根本出发点和落脚点。现在,人工智能虽然可以帮助人们完成一部分工作,但在创造力方面还有很大空间。乐观的科学家估计,不久的将来,人工智能将更“智慧”,会和互联网一样成为我们生活中不可缺少的一部分。

相关

人工智能或许会对法律规范、道德伦理等产生冲击

你会爱上机器人吗

美国一家公司生产的超仿真机器人Sophia曾在电视节目上与人类对答如流,成为“网红”机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情真实得令人赞叹,网友惊呼:快和真人分不清了!

技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能会产生自主意识和情感吗?会不会因此给人类社会带来冲击?

法律争议

假设无人车伤了人,那么是开发者负责还是驾驶公司负责

关于人工智能带来的“伦理困境”,让很多专家感到纠结。尽管这样的场景在目前还只存在于设想中:一辆载满乘客的无人驾驶汽车正在行驶,遭遇一位孕妇横穿马路的突发状况,如果紧急刹车可能会翻车伤及乘客,但不紧急刹车可能会撞到孕妇。这种情况下,无人车会怎么做?

如果司机是人,那个瞬间完全取决于人的清醒判断,甚至是本能或直觉。可当人工智能陷入人类“伦理困境”的极端情景时,其每一步都是通过算法设定好了的。

“无人车依靠的是人工智能大脑,它目前不可能做超出人类算法中所设定范围的行为决策。”浙江大学计算机学院教授吴飞说,将全国每年的交通事故数据“喂”给计算机,人工智能可以学习海量数据里隐含的各种行为模式。简单来说,就是无人车会从以往案例数据库中选取一个与当前情景较相似案例,然后根据所选取案例来实施本次决策。

但遇到完全陌生的情景,计算机会怎么办?“无人车第一个选择仍然是搜索,即在‘大脑’中迅速搜索和当前场景相似度大于一定阈值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于阈值,即找不到相似场景,则算法可约束无人车随机选择一种方式处理。”吴飞说。“程序员可通过代码来约定无人车如何做,但这种约定始终要遵循普遍的社会伦理。这个过程中,程序员要和伦理学家一同参与把关,程序员要将符合伦理的决策用代码的形式体现出来,输入到系统中。”吴飞认为。

无人车伤害了人类,谁来负责呢?“当前人工智能尚未达到类人智能或超人智能水平,不能将人工智能作为行为主体对待。”浙江大学教授盛晓明说,从技术角度看,现在技术实现层次还很低,行为体出了问题肯定只能找它的设计者。从哲学角度看,赋予人工智能“主体”地位很荒诞。“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”。

“人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。”中国社科院社会学研究所副研究员赵联飞持同样观点。

“以无人车为例,究竟由人工智能开发者负责,还是无人驾驶公司负责甚至任何的第三方负责,或者这几者在何种情形下各自如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。”赵联飞说。

情感迷思

人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范

科幻影迷一定不会忘记这几个片段:电影《机械姬》的结尾,机器人艾娃产生了自主意识,用刀杀了自己的设计者;在电影《她》中,人类作家西奥多和化名为萨曼莎的人工智能操作系统产生了爱情。只可惜,西奥多发现萨曼莎同时与很多用户产生了爱情,二者所理解的爱情原来根本不是一回事。

尽管科幻电影对人工智能的描述偏向负面,但它也在一定程度上表达了人类的焦虑和担忧。现实中,人工智能会拥有自主意识,和人类会产生情感吗?“这要取决于如何界定‘产生’一词。人工智能的自主性,仍然取决于所学习的样板和过程。正如阿尔法狗对每一步对弈的选择是从海量可能棋局中选择一种走法一样,这种自主在终极意义上是一种有限的自主,它实际上取决于所学习的那些内容。”在赵联飞看来,人工智能意识和情感的表达,是对人类意识和情感的“习得”,而不会超过这个范围。

机器能不能超出对人类的学习,主动产生意识和情感?吴飞认为,以目前的研究来看,这是遥不可及的。但有一种假设的、可供探讨的路径是,通过把人的大脑认识通透,就可以造一个像人的大脑一样的机器出来。“遗憾的是,我们对人的大脑如何产生意识和情感这些根本问题还了解不够。”

人工智能越来越像人,人类对机器有了感情怎么办?“人类是否会与人工智能产生感情,将取决于这种过程是否给人类带来愉悦。正如互联网发展早期的一句常用语所说——在互联网上,没人知道你是一条狗。这表明,当人类在不知道沟通者的身份时,只要对方能够给自己带来愉悦,感情就可能产生。”赵联飞认为,这可能会对人类的交往模式带来影响。比如说,未来,知识型的人工智能可以回答人们能够想到的很多问题,从而导致个体学习方式、生活方式乃至社会化模式的变革。

假如人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范。“如果社会主流意见认为这种关系符合伦理,人们可能倾向于以类似于夫妻、父女之间的伦理准则来调节二者之间的关系;但如果人们始终认为,人与人工智能之间的关系是人占主导地位的‘游戏关系’,那么相应的伦理标准也就无从谈起。”赵联飞说。

未雨绸缪

专家建议完善人工智能技术规范和法律约束

面对人工智能带来的种种冲击,专家认为,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身的安全,但不得违反第一、第二定律。“归根结底,人是智能行为的总开关。”吴飞认为,人类完全可以做到未雨绸缪,应对人工智能可能带来的威胁。“开发者应该始终把人工智能对社会负责的要求,放在技术进步的冲动之上。正如生物克隆技术,从提出克隆技术那一天开始,克隆的社会伦理问题就始终优先于克隆的技术问题。”赵联飞认为,人类应该在开发人工智能的过程中,逐步积累控制人工智能的经验和技术,尤其是防止人工智能失控的经验和技术。

在技术上加强对人工智能的控制是完全可行的。“人工智能尽管日益高级,但究其根本,仍然是在智能程序对大量数据处理基础上得到的结果。进行编程时,开发者可以通过程序对其进行安全设置。比如,如果识别出来是人类,要自动保持距离;不能做出攻击性动作,从力学幅度上予以约束。”中科院自动化所研究员孙哲南说,还可以把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。“除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估,严格控制从技术转化为产品的环节。”赵联飞认为,此外,应从多个方面加强对人工智能的研究,跟踪、了解人工智能的发展趋势和实践,开展以未来学为基本范式的研究。

关键字:智能

本文摘自:山西新闻网--山西晚报

x 人工智能有多智能? 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

人工智能有多智能?

责任编辑:zsheng |来源:企业网D1Net  2018-07-29 10:31:18 本文摘自:山西新闻网--山西晚报

去年,成都某公司开发的机器人和高考状元展开了一场解答高考数学题的较量,虽然机器人最终落败,但其理解语义、逻辑分析以及快速学习的能力令人赞叹。

从简单的娱乐游戏到辅助人类智慧决策的工具,人工智能正更加广泛地应用到人们的生活中。尽管人工智能仍处于“婴儿期”,但它的时代或许正悄悄到来。

人工智能最重要的特征是有学习能力

关于人工智能,学界尚没有统一的准确定义。通常认为,人工智能的核心是算法,是一套利用机器智能解决问题的手段。“过去的算法,人类给计算机下达指令来解决问题;现在,我们只要告诉计算机想解决的问题,它就可以自行选择算法来解决,这是人工智能带来的根本性变革。”人工智能专家邓力说。“比如给瓶子安装盖子,如果只是机器人重复加装动作,不是真正的人工智能。只有机器人能根据瓶子方位的变化做出相应调整,并能对突发状况做出正确反应,才称得上是人工智能。”百度研究院院长林元庆说。

邓力认为,人工智能最重要的特征是有学习能力,即机器能根据以往的经验来不断优化算法。例如“阿尔法狗”就能梳理决策模式,并从之前的比赛中吸取经验,平时也会通过跟自己下棋来强化学习。

人工智能并不是一个新名词。上世纪50年代,科学家就提出了人工智能概念,并于上世纪70年代掀起了一个小高潮。但当时算法采用的是符号逻辑推理规则,缺乏自我学习能力。80年代,科学家改进了机器学习模型,但智能水平依旧较低,有价值的成果寥寥无几,人工智能研究进入低潮期。

大约10年前,一种被称为深度学习的新的机器学习方法,让人工智能的算法更智能。“深度学习通过多层结构算法,让机器对数据集的‘特征’进行筛选和提取,通过反复训练,最终获得了提取抽象概念的能力。”邓力说。

微软人工智能及微软研究事业部负责人沈向洋博士表示,当前人工智能火起来主要有三个原因:互联网大量的数据、强大的运算能力以及深度学习的突破。“深度学习是机器学习方法之一,是让计算机从周围世界或某个特定方面的范例中学习从而变得更加智能的一种方式。”

深度学习的广泛应用离不开计算机硬件的发展。浙江大学计算机科学与技术学院教授蔡登说,深度学习又叫深度神经网络模型,以前计算机硬件不行,没法学习很深的神经网络,随着计算机性能大幅提升,训练很多层数的神经网络成为可能。

有专家把人工智能的特点概括为“数据多了、计算大了、层次深了”。邓力认为,随着神经网络研究的深入,计算机视觉和听觉等有望让算法越来越精确。未来,计算机对自然语言的应用将大幅提高,电脑可以听懂、读懂人类平常所用的语言,而不仅仅是机器指令。

“人工智能拥有计算机视觉、语音识别、自然语言处理等能力,与之对应,它就能像人一样看、听、理解事物。随着技术的发展,人工智能可以达到甚至超过人类的识别精度。”林元庆说。

人工智能为人们决策提供支撑

“广州到武汉、长沙、岳阳的票十分充足,其中,余票最多的是广州到武汉,还有1534张。不过,车次主要是K字头和普列,基本都是无座票,一站到底,路途会比较辛苦……”这是国内某媒体写稿机器人的“处女作”。这篇出自人工智能之手的报道,粗看上去与记者写的报道没有差别。

人工智能应用到新闻生产得益于它对数据、语义等的理解和处理能力。人工智能通过大量数据的学习,模仿甚至理解相对固定的新闻写作方式,并依靠算法迅速筛选、整合出内容。

专家预测,2020年将有500亿台相互连接的智能设备,每天将产生海量数据。大数据在推进人工智能发展的同时,人工智能也反过来释放了大数据的潜能。“大数据并非高纯度的石油,而是含金量非常低的贫矿石。其数据量大、种类繁杂、价值密度低以及瞬息万变的特点,使得存储、统计、分析和呈现分类以及调用都异常困难。”人工智能专家、驭势科技联合创始人吴甘沙说,人工智能的研究方法和应用技术,如自然语言语义分析、信息提取、知识表现等,正在逐步地应用于大数据技术的前沿领域,结合预测分析方法,就能挖掘大数据蕴含的规律和价值,从而为人类决策提供支撑。

吴甘沙认为,人工智能帮助大数据分析的方式有很多,既能“见微”,即从小处细微的、个性化的洞察;又能“知著”,即看到宏观的变化规律。“比如,从前商家只能关注花钱的客户,人工智能则能帮忙发现潜在的消费群体,或者发掘老客户的新兴趣,实现用户体验和消费需求反馈。”

人工智能和大数据结合还给精准医疗带来了福音。专家介绍,医疗的精准建立在数据分析之上。对于很多疾病,尤其是罕见病,找到基因上微小的变化就可能找到了解决方案,但这意味着巨大的计算量,没有深度学习之前这几乎是不可想象的。现在,类似IBM人工智能“沃森”、百度大脑等应用了深度学习的计算处理系统,就可能通过已有数据进行训练,找出规律,帮助诊断疾病、研发新药。

计算机能像人一样“听”和“看”

安徽国家普通话水平考场里迎来了一位新“考官”,考生读完一段文字,这位“考官”立马就能打出分数。

评判口语发音标准的“考官”是一款人工智能程序,它运用的是科大讯飞智能口语评测技术。该技术已经应用于全国所有省份的国家普通话水平智能测试中,具有极高的精确度。

人工智能在语音识别上的突破,让机器能够像人一样去“听”。“听”懂之外,它还能通过对语音的不断学习,准确地转换出相应文本。目前,人工智能技术已经应用到一些语音助理、语音输入、家庭管家等产品中。不用打字,人们说话就能完成远程控制。

借助计算机视觉,人工智能还学会了“看”,具备识别出物体、场景和活动的能力。比如一些大型会议、活动举办时期,所在区域的人口流动量会瞬间扩大,这就加大了安防监控的难度。基于深度学习训练出来的人脸识别技术,能对海量视频监控数据、图像数据进行实时对照处理,遇到突发情况能快速响应。全国信息技术标准化委员会生物特征识别分委会专家委员张鑫说,机器“看”的人脸越多,训练数据越大,理解就越深,它对人脸的判断也会更准确、更迅速。

刷脸识别也给人们生活带来很多便利。过去,到银行开户必须拿着身份证验证身份,不仅耽误时间,也给一些行动不便者带来麻烦。借助人工智能人脸识别系统,人们在网上就能完成实名验证。

张鑫认为,未来,到商场购物、去银行取钱、乘高铁坐飞机等各种服务场景都将受益于人工智能的应用。

此外,人工智能被认为是能够推动无人驾驶汽车商业化的关键技术。处理好复杂的环境信息,是无人驾驶发展必须解决的问题。吴甘沙说,人工智能在环境感知、驾驶决策、路径规划、语音手势识别、眼球追踪、驾驶员监控和自然语言交互等功能方面的应用,能够帮助汽车应对复杂的路况,从而实现安全和舒适的自动驾驶。

让人工智能更加“智慧”是科学家努力的方向之一。比如,越来越多的研究试图将人工智能与脑科学连接起来。近年来,科学家正尝试将生物智能和机器智能互联互通,以达到更高级的人工智能形态。通过与神经学、生物学的结合,最终发展出能理解人类感情和文化的人工智能。

林元庆说,帮助人类拥有更好的生活,是人工智能的根本出发点和落脚点。现在,人工智能虽然可以帮助人们完成一部分工作,但在创造力方面还有很大空间。乐观的科学家估计,不久的将来,人工智能将更“智慧”,会和互联网一样成为我们生活中不可缺少的一部分。

相关

人工智能或许会对法律规范、道德伦理等产生冲击

你会爱上机器人吗

美国一家公司生产的超仿真机器人Sophia曾在电视节目上与人类对答如流,成为“网红”机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情真实得令人赞叹,网友惊呼:快和真人分不清了!

技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能会产生自主意识和情感吗?会不会因此给人类社会带来冲击?

法律争议

假设无人车伤了人,那么是开发者负责还是驾驶公司负责

关于人工智能带来的“伦理困境”,让很多专家感到纠结。尽管这样的场景在目前还只存在于设想中:一辆载满乘客的无人驾驶汽车正在行驶,遭遇一位孕妇横穿马路的突发状况,如果紧急刹车可能会翻车伤及乘客,但不紧急刹车可能会撞到孕妇。这种情况下,无人车会怎么做?

如果司机是人,那个瞬间完全取决于人的清醒判断,甚至是本能或直觉。可当人工智能陷入人类“伦理困境”的极端情景时,其每一步都是通过算法设定好了的。

“无人车依靠的是人工智能大脑,它目前不可能做超出人类算法中所设定范围的行为决策。”浙江大学计算机学院教授吴飞说,将全国每年的交通事故数据“喂”给计算机,人工智能可以学习海量数据里隐含的各种行为模式。简单来说,就是无人车会从以往案例数据库中选取一个与当前情景较相似案例,然后根据所选取案例来实施本次决策。

但遇到完全陌生的情景,计算机会怎么办?“无人车第一个选择仍然是搜索,即在‘大脑’中迅速搜索和当前场景相似度大于一定阈值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于阈值,即找不到相似场景,则算法可约束无人车随机选择一种方式处理。”吴飞说。“程序员可通过代码来约定无人车如何做,但这种约定始终要遵循普遍的社会伦理。这个过程中,程序员要和伦理学家一同参与把关,程序员要将符合伦理的决策用代码的形式体现出来,输入到系统中。”吴飞认为。

无人车伤害了人类,谁来负责呢?“当前人工智能尚未达到类人智能或超人智能水平,不能将人工智能作为行为主体对待。”浙江大学教授盛晓明说,从技术角度看,现在技术实现层次还很低,行为体出了问题肯定只能找它的设计者。从哲学角度看,赋予人工智能“主体”地位很荒诞。“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”。

“人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。”中国社科院社会学研究所副研究员赵联飞持同样观点。

“以无人车为例,究竟由人工智能开发者负责,还是无人驾驶公司负责甚至任何的第三方负责,或者这几者在何种情形下各自如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。”赵联飞说。

情感迷思

人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范

科幻影迷一定不会忘记这几个片段:电影《机械姬》的结尾,机器人艾娃产生了自主意识,用刀杀了自己的设计者;在电影《她》中,人类作家西奥多和化名为萨曼莎的人工智能操作系统产生了爱情。只可惜,西奥多发现萨曼莎同时与很多用户产生了爱情,二者所理解的爱情原来根本不是一回事。

尽管科幻电影对人工智能的描述偏向负面,但它也在一定程度上表达了人类的焦虑和担忧。现实中,人工智能会拥有自主意识,和人类会产生情感吗?“这要取决于如何界定‘产生’一词。人工智能的自主性,仍然取决于所学习的样板和过程。正如阿尔法狗对每一步对弈的选择是从海量可能棋局中选择一种走法一样,这种自主在终极意义上是一种有限的自主,它实际上取决于所学习的那些内容。”在赵联飞看来,人工智能意识和情感的表达,是对人类意识和情感的“习得”,而不会超过这个范围。

机器能不能超出对人类的学习,主动产生意识和情感?吴飞认为,以目前的研究来看,这是遥不可及的。但有一种假设的、可供探讨的路径是,通过把人的大脑认识通透,就可以造一个像人的大脑一样的机器出来。“遗憾的是,我们对人的大脑如何产生意识和情感这些根本问题还了解不够。”

人工智能越来越像人,人类对机器有了感情怎么办?“人类是否会与人工智能产生感情,将取决于这种过程是否给人类带来愉悦。正如互联网发展早期的一句常用语所说——在互联网上,没人知道你是一条狗。这表明,当人类在不知道沟通者的身份时,只要对方能够给自己带来愉悦,感情就可能产生。”赵联飞认为,这可能会对人类的交往模式带来影响。比如说,未来,知识型的人工智能可以回答人们能够想到的很多问题,从而导致个体学习方式、生活方式乃至社会化模式的变革。

假如人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范。“如果社会主流意见认为这种关系符合伦理,人们可能倾向于以类似于夫妻、父女之间的伦理准则来调节二者之间的关系;但如果人们始终认为,人与人工智能之间的关系是人占主导地位的‘游戏关系’,那么相应的伦理标准也就无从谈起。”赵联飞说。

未雨绸缪

专家建议完善人工智能技术规范和法律约束

面对人工智能带来的种种冲击,专家认为,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身的安全,但不得违反第一、第二定律。“归根结底,人是智能行为的总开关。”吴飞认为,人类完全可以做到未雨绸缪,应对人工智能可能带来的威胁。“开发者应该始终把人工智能对社会负责的要求,放在技术进步的冲动之上。正如生物克隆技术,从提出克隆技术那一天开始,克隆的社会伦理问题就始终优先于克隆的技术问题。”赵联飞认为,人类应该在开发人工智能的过程中,逐步积累控制人工智能的经验和技术,尤其是防止人工智能失控的经验和技术。

在技术上加强对人工智能的控制是完全可行的。“人工智能尽管日益高级,但究其根本,仍然是在智能程序对大量数据处理基础上得到的结果。进行编程时,开发者可以通过程序对其进行安全设置。比如,如果识别出来是人类,要自动保持距离;不能做出攻击性动作,从力学幅度上予以约束。”中科院自动化所研究员孙哲南说,还可以把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。“除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估,严格控制从技术转化为产品的环节。”赵联飞认为,此外,应从多个方面加强对人工智能的研究,跟踪、了解人工智能的发展趋势和实践,开展以未来学为基本范式的研究。

关键字:智能

本文摘自:山西新闻网--山西晚报

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^