当前位置:人工智能行业动态 → 正文

公众舆论如何塑造人工智能的未来

责任编辑:cres 作者:Darren Beauchamp |来源:企业网D1Net  2018-02-07 10:31:44 原创文章 企业网D1Net

如今,人工智能(AI)正在发展,消费者对其关注度越来越高。而人工智能在未来会给人们带来痛苦和恐惧吗?
 
人们对人工智能发展的焦虑如今非常明显。科学家斯蒂芬·霍金和特斯拉CEO伊隆·马斯克对于人类能够控制人工智能也表示怀疑。Facebook公司首席执行官马克•扎克伯格驳斥了这些可怕的问题,并称他们的说法“不负责任”。 人形机器人(Al Sophia)在沙特阿拉伯获得公民身份,这成为了媒体的头条新闻,但也给人们带来了一些疑虑。这个讨论吸引了大量的公众关注,并带来了直接的和延迟的后果。
 
公众舆论的影响可能会阻碍人工智能的采用。只要人们认为这种技术是危险的,不管事实与否,人工智能的发展都会受到阻碍。
 
然而,公众情绪受大众文化的影响多于对专家的影响。世界末日的荒凉情景对人们特别具有震撼力。伊隆·马斯克(Elon Musk)将人工智能称为是人类文明的基本存在风险时,人们对这种恐惧和疑虑产生了共鸣。
 
那么人们究竟害怕什么?以下来了解一些最流行的说法。
 
1.不受控制的发展
 
人工智能不仅仅是人类的工具。如果其变得足够强大,人工智能可以掌握自己的命运。根据这个说法,当人工智能进化到能够独立思考时,它会发现自己优于人类。因此,人类必须制服或消灭人工智能。这是一个经典的反乌托邦的故事。许多专家(包括伊隆·马斯克、比尔·盖茨、史蒂芬·霍金)都提出了对于这个问题的消极观点。
 
毁灭创造者的创造物是一个古老的主题。它在西方文化中的第一个突出的例子是科幻小说中的《弗兰肯斯坦》的怪物一样可怕。而其后来者(电影中的HAL 9000、终结者和矩阵)仍保持这个传统。不过,这个话题是非常具有争议的。即使是那些对人工智能保持警惕线阵营的人也认为这样的技术不会很快到来。
 
但是伊隆·马斯克提出的一点是非常重要的,人类专家必须积极主动应对,而在行业中保持领先是不够的。人们必须向前看,人工智能究竟是否会构成威胁,科学家必须想到所有可能的情景来安抚公众的想法和感受。
 
在采取预防措施的同时,要注意不要忽略人工智能实施的积极案例。而出现一次失误或漏洞可能会导致对整个行业不利的立法出台,并导致未来几年人工智能的发展停滞不前。
 
2.致命的错误
 
另一个流行的情况表明,过分信任技术是危险的。如果人工智能缺乏情感智能或数据,可能会错误地解读人类的要求。另外,由于错误或病毒的原因,人工智可能变得不稳定并且可能是危险的。正如O'Reilly Media公司创始人蒂姆・奥莱利(Tim O'Reilly)所说:“我们的算法系统有点像阿拉伯神话中的精灵。我们要求他们做某些事情,但如果我们没有清楚表达意愿,他们会曲解命令,会给人们带来意想不到的结果。”
 
人们还没有准备好处理不可预知的人工智能。百分百安全是消费者让虚拟助手和机器人进入人们日常生活的必要条件。例如,当一辆自动驾驶汽车发生一起交通事故时,人工智能的安全性总是会受到严格的审查。
 
到目前为止,只有一例人工智能的错误导致人员伤亡,但这足以引起人们的争议。当人工智能解决危险情况时,人们无法对这种单一的事件进行权衡。而其实全球每年发生的4万多起事故都是由于司机的大意疏忽或误操作导致伤亡。这些事故中78%以上的司机在驾驶汽车时在发短信。这是人工智能永远不会做的事情。
 
而且,在特斯拉汽车自动驾驶汽车发生的悲惨事故中,其自动驾驶系统未能识别出明亮天空背景中迎面驶来的汽车的白边,从而导致事故的发生,而车上的司机至少有7秒钟可以踩刹车,显然他没有注意。司机认为这辆车100%可以自动驾驶。人为错误(一厢情愿)导致了这一事故发生。
 
法院对这次特斯拉自动驾驶汽车车祸的裁决处理对于该行业的未来发展是幸运的,这是一个很好的结果。专家们必须以乐观的想法来解决这个问题。如果人工智能的能力是有限的,那么它就不能被当做“为人类驾驶汽车”或“理解人类的每一个愿望”的东西。如果产品的名称或其特定功能意味着自主性(“人工智能”,“智能”,“自我”,“智能”),则必须对其功能提供指导说明。明确其用户必须采取哪些措施。
 
恐怖谷
 
“恐怖谷”( Uncanny Valley)这一影片代表着人类对人工智能的形而上学和存在的恐惧。类人的人工智能会威胁到人类的独特性和身份,将挑战人类“特殊性”的观念。人们担心这些人工智能会取代人类的工作。而科幻作家在上世纪五六十年代就已经积极探索这个概念。
 
由于当今的大多数人工智能是虚拟助手和导航系统的组成部分,这种恐惧正在消失。但是,取代人力或减少可用职位数量的技术力量仍值得考虑。几乎三分之一的人担心人工智能会取代他们的工作岗位。
 
在“恐怖谷”背景下考虑的另一个非常重要的事情就是人工智能的情商。机器人如果有自己的梦想,这可能是令人毛骨悚然的,因为它们无能为力。他们确实感受到自己的情绪,但只是为了自我保护。他们不会尊重生物的痛苦,同情心对他们来说是陌生的事物。
 
许多专家认为,如果人们想创造一个能够真正提高生活质量的人工智能,那么其情商就非常重要。人们很难预测未来,但具有一定情商的机器人肯定是朝着正确的方向迈出的一步。
 
3.制度化偏见
 
最近,人们开始担心人工智能会使种族主义、性别歧视以及创作者的其他偏见变得形式化,并且重现。这是迄今为止最真实的恐惧。尽管机器的编程并没有掺杂偏见,但它们可以向人们学习,并采取相应行动。
 
微软公司的聊天机器人Tai的命运多舛的实验提供了一个机器学习机制可能会适得其反的例子。在搜索结果和面部识别问题上,有许多不太令人震惊的但却令人不安的情况。 Google Photos在2015年错误地将两个非洲裔美国人标记为大猩猩。2009年,惠普视频跟踪软件没有识别出肤色较暗的面孔。2015年,尼康相机软件对于一名东亚人的面孔总是错误地提示为“眨眼”。
 
HeyHuman公司总经理Neil Davidson认为,企业应该成为时代的救世主,并且不能让顾客失望。因此,企业必须尽一切力量创造一种无偏见和无害的人工智能。Davidson说:“随着这一技术领域的发展,人们需要从以前的失败教训中学习,并确保机器的功能具有一定的意识和直觉。”
 
被人类滥用
 
最后,人们担心其他人会用人工智能进行欺骗,欺骗他人的信任和爱情等。即使是在人工智能的帮助下营销也被视为一种操纵行为。90%的美国人认为,在市场营销中使用人工智能应该通过具有法律约束力的行为规范进行管理。四分之三的人认为企业应该在使用人工智能之前需要获得明确的控制权。
 
人们对机器的焦虑转移到人类自身,这绝对是朝着正确方向迈出的一步。这个世界观大多代表东方的反乌托邦传统,这在日本流行文化中表现出来。 “攻壳机动队”(漫画和电视连续剧)展示了未来世界,而犯罪仍然是由人类犯下的错误,罪犯具有人类的动机和动力,而机器人只是一种工具,尽管其很复杂。
 
人们可能争论这种清醒的态度和日本在机器人方面的成功是否是巧合。但有一点是肯定的——这种观点在西方文化中也慢慢成为主流。人们不太关心人工智能,而更多关心的是人类创造者。
 
影片《机械姬》(Ex Machina)”和“神秘博士”(Oxygen)代表了流行文化的这种转变。这二者都显示人类的贪婪和自私可能比任何先进的人工智能更具破坏性。
 
事实上,人们可能更信任人工智能。波士顿医学中心的Michael Paasche-Orlow博士分享了他对于绝症患者的观察。据他介绍,这些患者接受了旨在引导他们生命终结的人工智能,有时更倾向于将其作为人类照顾者。他说:“事实证明,病人很高兴能和电脑交谈。”这些患者非常明确表示,“医生从来没有问过我这些事情。”
 
小贴士
 
•工程师有责任确保人工智能的设计不会反映人类最坏的一面。对于在线服务,在邀请所有人加入之前,应该经常采取反滥用措施和过滤措施。另外,不能教授机器人知识的部分。
 
•训练人工智能,为其提供尽可能多样化的数据。对于使用各种口音训练语音识别。而面部识别使用不同年龄和种族的人来进行学习。在向公众发布最终产品之前,在各种条件下测试所有功能。让人工智能算法边做边学可能是代价高昂的错误。
 
•过于乐观的人工智能产品命名通常会引起误解,并危害整个行业。企业要非常清楚人工智能能做什么,不能做什么。人工智能需要情商来获得认可。情商在人类和机器人工作场所都有很高的需求。
 
•为了确保公众观念的改变,人们必须积极实施人工智能实施的积极案例。几十年来,人们习惯于不相信人工智能。这些根深蒂固的恐惧不会轻易消除。
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

x 公众舆论如何塑造人工智能的未来 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

公众舆论如何塑造人工智能的未来

责任编辑:cres 作者:Darren Beauchamp |来源:企业网D1Net  2018-02-07 10:31:44 原创文章 企业网D1Net

如今,人工智能(AI)正在发展,消费者对其关注度越来越高。而人工智能在未来会给人们带来痛苦和恐惧吗?
 
人们对人工智能发展的焦虑如今非常明显。科学家斯蒂芬·霍金和特斯拉CEO伊隆·马斯克对于人类能够控制人工智能也表示怀疑。Facebook公司首席执行官马克•扎克伯格驳斥了这些可怕的问题,并称他们的说法“不负责任”。 人形机器人(Al Sophia)在沙特阿拉伯获得公民身份,这成为了媒体的头条新闻,但也给人们带来了一些疑虑。这个讨论吸引了大量的公众关注,并带来了直接的和延迟的后果。
 
公众舆论的影响可能会阻碍人工智能的采用。只要人们认为这种技术是危险的,不管事实与否,人工智能的发展都会受到阻碍。
 
然而,公众情绪受大众文化的影响多于对专家的影响。世界末日的荒凉情景对人们特别具有震撼力。伊隆·马斯克(Elon Musk)将人工智能称为是人类文明的基本存在风险时,人们对这种恐惧和疑虑产生了共鸣。
 
那么人们究竟害怕什么?以下来了解一些最流行的说法。
 
1.不受控制的发展
 
人工智能不仅仅是人类的工具。如果其变得足够强大,人工智能可以掌握自己的命运。根据这个说法,当人工智能进化到能够独立思考时,它会发现自己优于人类。因此,人类必须制服或消灭人工智能。这是一个经典的反乌托邦的故事。许多专家(包括伊隆·马斯克、比尔·盖茨、史蒂芬·霍金)都提出了对于这个问题的消极观点。
 
毁灭创造者的创造物是一个古老的主题。它在西方文化中的第一个突出的例子是科幻小说中的《弗兰肯斯坦》的怪物一样可怕。而其后来者(电影中的HAL 9000、终结者和矩阵)仍保持这个传统。不过,这个话题是非常具有争议的。即使是那些对人工智能保持警惕线阵营的人也认为这样的技术不会很快到来。
 
但是伊隆·马斯克提出的一点是非常重要的,人类专家必须积极主动应对,而在行业中保持领先是不够的。人们必须向前看,人工智能究竟是否会构成威胁,科学家必须想到所有可能的情景来安抚公众的想法和感受。
 
在采取预防措施的同时,要注意不要忽略人工智能实施的积极案例。而出现一次失误或漏洞可能会导致对整个行业不利的立法出台,并导致未来几年人工智能的发展停滞不前。
 
2.致命的错误
 
另一个流行的情况表明,过分信任技术是危险的。如果人工智能缺乏情感智能或数据,可能会错误地解读人类的要求。另外,由于错误或病毒的原因,人工智可能变得不稳定并且可能是危险的。正如O'Reilly Media公司创始人蒂姆・奥莱利(Tim O'Reilly)所说:“我们的算法系统有点像阿拉伯神话中的精灵。我们要求他们做某些事情,但如果我们没有清楚表达意愿,他们会曲解命令,会给人们带来意想不到的结果。”
 
人们还没有准备好处理不可预知的人工智能。百分百安全是消费者让虚拟助手和机器人进入人们日常生活的必要条件。例如,当一辆自动驾驶汽车发生一起交通事故时,人工智能的安全性总是会受到严格的审查。
 
到目前为止,只有一例人工智能的错误导致人员伤亡,但这足以引起人们的争议。当人工智能解决危险情况时,人们无法对这种单一的事件进行权衡。而其实全球每年发生的4万多起事故都是由于司机的大意疏忽或误操作导致伤亡。这些事故中78%以上的司机在驾驶汽车时在发短信。这是人工智能永远不会做的事情。
 
而且,在特斯拉汽车自动驾驶汽车发生的悲惨事故中,其自动驾驶系统未能识别出明亮天空背景中迎面驶来的汽车的白边,从而导致事故的发生,而车上的司机至少有7秒钟可以踩刹车,显然他没有注意。司机认为这辆车100%可以自动驾驶。人为错误(一厢情愿)导致了这一事故发生。
 
法院对这次特斯拉自动驾驶汽车车祸的裁决处理对于该行业的未来发展是幸运的,这是一个很好的结果。专家们必须以乐观的想法来解决这个问题。如果人工智能的能力是有限的,那么它就不能被当做“为人类驾驶汽车”或“理解人类的每一个愿望”的东西。如果产品的名称或其特定功能意味着自主性(“人工智能”,“智能”,“自我”,“智能”),则必须对其功能提供指导说明。明确其用户必须采取哪些措施。
 
恐怖谷
 
“恐怖谷”( Uncanny Valley)这一影片代表着人类对人工智能的形而上学和存在的恐惧。类人的人工智能会威胁到人类的独特性和身份,将挑战人类“特殊性”的观念。人们担心这些人工智能会取代人类的工作。而科幻作家在上世纪五六十年代就已经积极探索这个概念。
 
由于当今的大多数人工智能是虚拟助手和导航系统的组成部分,这种恐惧正在消失。但是,取代人力或减少可用职位数量的技术力量仍值得考虑。几乎三分之一的人担心人工智能会取代他们的工作岗位。
 
在“恐怖谷”背景下考虑的另一个非常重要的事情就是人工智能的情商。机器人如果有自己的梦想,这可能是令人毛骨悚然的,因为它们无能为力。他们确实感受到自己的情绪,但只是为了自我保护。他们不会尊重生物的痛苦,同情心对他们来说是陌生的事物。
 
许多专家认为,如果人们想创造一个能够真正提高生活质量的人工智能,那么其情商就非常重要。人们很难预测未来,但具有一定情商的机器人肯定是朝着正确的方向迈出的一步。
 
3.制度化偏见
 
最近,人们开始担心人工智能会使种族主义、性别歧视以及创作者的其他偏见变得形式化,并且重现。这是迄今为止最真实的恐惧。尽管机器的编程并没有掺杂偏见,但它们可以向人们学习,并采取相应行动。
 
微软公司的聊天机器人Tai的命运多舛的实验提供了一个机器学习机制可能会适得其反的例子。在搜索结果和面部识别问题上,有许多不太令人震惊的但却令人不安的情况。 Google Photos在2015年错误地将两个非洲裔美国人标记为大猩猩。2009年,惠普视频跟踪软件没有识别出肤色较暗的面孔。2015年,尼康相机软件对于一名东亚人的面孔总是错误地提示为“眨眼”。
 
HeyHuman公司总经理Neil Davidson认为,企业应该成为时代的救世主,并且不能让顾客失望。因此,企业必须尽一切力量创造一种无偏见和无害的人工智能。Davidson说:“随着这一技术领域的发展,人们需要从以前的失败教训中学习,并确保机器的功能具有一定的意识和直觉。”
 
被人类滥用
 
最后,人们担心其他人会用人工智能进行欺骗,欺骗他人的信任和爱情等。即使是在人工智能的帮助下营销也被视为一种操纵行为。90%的美国人认为,在市场营销中使用人工智能应该通过具有法律约束力的行为规范进行管理。四分之三的人认为企业应该在使用人工智能之前需要获得明确的控制权。
 
人们对机器的焦虑转移到人类自身,这绝对是朝着正确方向迈出的一步。这个世界观大多代表东方的反乌托邦传统,这在日本流行文化中表现出来。 “攻壳机动队”(漫画和电视连续剧)展示了未来世界,而犯罪仍然是由人类犯下的错误,罪犯具有人类的动机和动力,而机器人只是一种工具,尽管其很复杂。
 
人们可能争论这种清醒的态度和日本在机器人方面的成功是否是巧合。但有一点是肯定的——这种观点在西方文化中也慢慢成为主流。人们不太关心人工智能,而更多关心的是人类创造者。
 
影片《机械姬》(Ex Machina)”和“神秘博士”(Oxygen)代表了流行文化的这种转变。这二者都显示人类的贪婪和自私可能比任何先进的人工智能更具破坏性。
 
事实上,人们可能更信任人工智能。波士顿医学中心的Michael Paasche-Orlow博士分享了他对于绝症患者的观察。据他介绍,这些患者接受了旨在引导他们生命终结的人工智能,有时更倾向于将其作为人类照顾者。他说:“事实证明,病人很高兴能和电脑交谈。”这些患者非常明确表示,“医生从来没有问过我这些事情。”
 
小贴士
 
•工程师有责任确保人工智能的设计不会反映人类最坏的一面。对于在线服务,在邀请所有人加入之前,应该经常采取反滥用措施和过滤措施。另外,不能教授机器人知识的部分。
 
•训练人工智能,为其提供尽可能多样化的数据。对于使用各种口音训练语音识别。而面部识别使用不同年龄和种族的人来进行学习。在向公众发布最终产品之前,在各种条件下测试所有功能。让人工智能算法边做边学可能是代价高昂的错误。
 
•过于乐观的人工智能产品命名通常会引起误解,并危害整个行业。企业要非常清楚人工智能能做什么,不能做什么。人工智能需要情商来获得认可。情商在人类和机器人工作场所都有很高的需求。
 
•为了确保公众观念的改变,人们必须积极实施人工智能实施的积极案例。几十年来,人们习惯于不相信人工智能。这些根深蒂固的恐惧不会轻易消除。
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^