当前位置:人工智能行业动态 → 正文

专家警告人工智能所造成的威胁必须得到解决

责任编辑:cres 作者:Nick Ismail |来源:企业网D1Net  2018-03-01 11:01:31 原创文章 企业网D1Net

如今,组织采用人工智能面临的风险不容忽视,但企业、政府和教育机构必须为此努力,从人工智能的应用中获益。
 
但专家警告说,人工智能也可能被流氓国家、罪犯和恐怖分子恶意使用。例如,无人驾驶飞机被改装成导弹,操纵政治舆论,自动化黑客攻击,这些只是不法之徒恶意使用人工智能技术的三个应用。
 
一个针对人工智能的调查报告表明,那些创建人工智能系统的个人和组织需要采取更多的措施来缓解可能出现的漏洞,而政府部门也需要开始考虑推行新的法律。这份长达100页的报告指出数字、物理和政治是最有可能被恶意使用人工智能的三个领域。
 
富士通公司EMEIA(欧洲、中东、印度及非洲)地区首席执行官Duncan Tait表示:“政府、企业和行业机构必须为人工智能的潜在影响做好准备。人们必须了解如何使用人工智能,并评估所需的监管和控制措施。人们必须对其对社会的影响采取有计划的方法,并集中精力重新提高员工和工作的安全水平。然而,人们利用人工智能的难以置信的价值来支持繁荣和幸福也是至关重要的。政府部门、教育机构、企业和社会的及时和协调的反应将是必不可少的,实际上,全球84%的商界领袖都赞成采取协调一致的应对措施,为变革做好准备。有了正确的领导和准备,人们都能从人工智能中获益。”
 
剑桥大学的生存风险研究中心的研究人员Shahar Avin表示,该报告主要针对人工智能在未来五年的应用发展,而不是遥远的将来。
 
该报告呼吁:
 
•政策制定者和技术研究人员共同努力,理解并对恶意使用人工智能做好应对准备。
 
•人们需要认识到,尽管人工智能有许多积极的应用,但它是一种具有双重用途的技术,人工智能研究人员和工程师应该关注,并积极预测其滥用的可能性。
 
•可以从长期处理双重用途风险的学科(如计算机安全)中学习和学习最佳实践。
 
•积极扩大利益相关者参与范围,预防和减轻恶意使用人工智能风险的范围。
 
避免人工智能的恶意使用
 
该报告特别关注的是,在没有人为的例子或人类指导的情况下,人工智能将被训练成超人的智力水平。
 
它概述了人工智能系统可能被恶意使用的一些假设例子。
 
•AlphaGo等技术可被黑客用于查找数据模式和代码中的新漏洞。
 
•不法之徒可以购买无人机,并使用面部识别软件对其进行培训,以针对个人和组织进行攻击。
 
•机器人可以自动或“伪造”以假乱真的视频用于操纵政治舆论。
 
•黑客可以使用语音合成来模拟他人的声音。
 
牛津大学未来人类研究所的研究员Miles Brundage表示:“人工智能将改变公民、组织和国家的风险状况,无论是犯罪分子在人类的经济或隐私方面采用机器进行黑客攻击,或采用钓鱼软件进行监视、剖析和抑制,这对个人和组织的安全具有巨大的全方位影响。”
 
他表示,在通常情况下,人工智能系统不仅达到了人类的水平,而且大大超过。
 
他说,“考虑到超人类的黑客攻击,监视、说服和物理目标识别的影响,以及人工智能的能力,这是令人不安的,但是也是必要的。虽然人工智能有些能力不如人类,但是扩展性更强。”
 
剑桥大学的生存风险研究中心SeánÓhÉigeartaigh博士补充说:“人工智能是一种改变游戏规则的游戏,这个调查报告对未来五到十年内世界可能会是什么样子提出了设想。”
 
他说,“我们生活在一个充斥着滥用人工智能的日常危险的世界中,人们需要承认问题的存在,因为风险是真实存在的。我们现在需要做出一些选择,我们在调查报告中呼吁全球政府、机构和个人需要采取相应的行动。几十年来,人工智能和机器学习方面的宣传和炒作超过了事实。这份报告着眼于人工智能安全,并提出了一些可能有效的方法,例如如何设计软件和硬件以使人工智能不被居心不良的人利用,以及采用什么类型的法律和国际法规限制人工智能的不良应用。”
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

x 专家警告人工智能所造成的威胁必须得到解决 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

专家警告人工智能所造成的威胁必须得到解决

责任编辑:cres 作者:Nick Ismail |来源:企业网D1Net  2018-03-01 11:01:31 原创文章 企业网D1Net

如今,组织采用人工智能面临的风险不容忽视,但企业、政府和教育机构必须为此努力,从人工智能的应用中获益。
 
但专家警告说,人工智能也可能被流氓国家、罪犯和恐怖分子恶意使用。例如,无人驾驶飞机被改装成导弹,操纵政治舆论,自动化黑客攻击,这些只是不法之徒恶意使用人工智能技术的三个应用。
 
一个针对人工智能的调查报告表明,那些创建人工智能系统的个人和组织需要采取更多的措施来缓解可能出现的漏洞,而政府部门也需要开始考虑推行新的法律。这份长达100页的报告指出数字、物理和政治是最有可能被恶意使用人工智能的三个领域。
 
富士通公司EMEIA(欧洲、中东、印度及非洲)地区首席执行官Duncan Tait表示:“政府、企业和行业机构必须为人工智能的潜在影响做好准备。人们必须了解如何使用人工智能,并评估所需的监管和控制措施。人们必须对其对社会的影响采取有计划的方法,并集中精力重新提高员工和工作的安全水平。然而,人们利用人工智能的难以置信的价值来支持繁荣和幸福也是至关重要的。政府部门、教育机构、企业和社会的及时和协调的反应将是必不可少的,实际上,全球84%的商界领袖都赞成采取协调一致的应对措施,为变革做好准备。有了正确的领导和准备,人们都能从人工智能中获益。”
 
剑桥大学的生存风险研究中心的研究人员Shahar Avin表示,该报告主要针对人工智能在未来五年的应用发展,而不是遥远的将来。
 
该报告呼吁:
 
•政策制定者和技术研究人员共同努力,理解并对恶意使用人工智能做好应对准备。
 
•人们需要认识到,尽管人工智能有许多积极的应用,但它是一种具有双重用途的技术,人工智能研究人员和工程师应该关注,并积极预测其滥用的可能性。
 
•可以从长期处理双重用途风险的学科(如计算机安全)中学习和学习最佳实践。
 
•积极扩大利益相关者参与范围,预防和减轻恶意使用人工智能风险的范围。
 
避免人工智能的恶意使用
 
该报告特别关注的是,在没有人为的例子或人类指导的情况下,人工智能将被训练成超人的智力水平。
 
它概述了人工智能系统可能被恶意使用的一些假设例子。
 
•AlphaGo等技术可被黑客用于查找数据模式和代码中的新漏洞。
 
•不法之徒可以购买无人机,并使用面部识别软件对其进行培训,以针对个人和组织进行攻击。
 
•机器人可以自动或“伪造”以假乱真的视频用于操纵政治舆论。
 
•黑客可以使用语音合成来模拟他人的声音。
 
牛津大学未来人类研究所的研究员Miles Brundage表示:“人工智能将改变公民、组织和国家的风险状况,无论是犯罪分子在人类的经济或隐私方面采用机器进行黑客攻击,或采用钓鱼软件进行监视、剖析和抑制,这对个人和组织的安全具有巨大的全方位影响。”
 
他表示,在通常情况下,人工智能系统不仅达到了人类的水平,而且大大超过。
 
他说,“考虑到超人类的黑客攻击,监视、说服和物理目标识别的影响,以及人工智能的能力,这是令人不安的,但是也是必要的。虽然人工智能有些能力不如人类,但是扩展性更强。”
 
剑桥大学的生存风险研究中心SeánÓhÉigeartaigh博士补充说:“人工智能是一种改变游戏规则的游戏,这个调查报告对未来五到十年内世界可能会是什么样子提出了设想。”
 
他说,“我们生活在一个充斥着滥用人工智能的日常危险的世界中,人们需要承认问题的存在,因为风险是真实存在的。我们现在需要做出一些选择,我们在调查报告中呼吁全球政府、机构和个人需要采取相应的行动。几十年来,人工智能和机器学习方面的宣传和炒作超过了事实。这份报告着眼于人工智能安全,并提出了一些可能有效的方法,例如如何设计软件和硬件以使人工智能不被居心不良的人利用,以及采用什么类型的法律和国际法规限制人工智能的不良应用。”
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^