当前位置:人工智能行业动态 → 正文

AI和ML潜在的五大致命威胁及解决办法

责任编辑:cres 作者:风车云马编译 |来源:企业网D1Net  2019-06-12 13:24:42 本文摘自:51CTO

人工智能(AI)和机器学习(ML)是这个时代最热门的话题,科学家对此也有很大争议,或许它们所带来的好处怎么强调都不为过,我们也需要关注和理解AI和ML潜在的致命威胁。
 
谁敢想象,有一天机器的智能会超过人类?——未来学家称之为奇点。著名科学家——人工智能的先驱——艾伦·图灵(Alan Turing)在1950年提出,机器可以像孩子那样训练。
 
图灵提出:“机器会思考吗?”他在著名的论文《计算机器与智能》中探讨了这个问题和相关问题的答案。
 
1955年,约翰·麦卡锡发明了一种叫做“人工智能”的编程语言LISP。几年后,研究人员和科学家开始使用计算机编码、识别图像和翻译语言等。早在1955年,人们就希望有一天能让电脑说话和思考。
 
伟大的研究人员,如机器人学家汉斯·莫拉维克(Hans Moravec )、科幻作家弗诺·文奇(Vernor Vinge)和雷·库兹韦尔(Ray Kurzweil),从更广泛的意义上思考这个问题,机器什么时候能够独自设计实现目标的方法。
 
曾经像史蒂芬·霍金这样的伟人警告过,当人们无法与先进的人工智能竞争时,这可能意味着人类的终结。“我想说我们不应该做的是,在不考虑潜在风险的情况下,就全力建设超级智能。”加州大学伯克利分校(University of California, Berkeley)计算机科学教授斯图尔特·拉塞尔(Stuart J. Russell)说。
 
以下是ML和AI的五个可能的危险以及解决办法:
 
1. 机器学习(ML)模型可能是有偏见的——本质上受人类的影响
 
尽管机器学习和人工智能很有前途,但它的模型也容易受到无意的偏见的影响。有些人认为ML模型在决策时是公正的,但他们却忘记了,是人类在训练这些机器——从本质上讲——我们并不完美。
 
此外,在决策过程中,ML模型在处理数据时也可能存在偏差。你提供的本身不完整的数据(片面的数据),机器还会给出正确的结果吗?
 
举个例子,你经营一家批发商店,想建立一个模型来了解顾客。所以你建立了一个模型,希望评估顾客对商品的购买力;您还希望在年底使用模型的结果来奖励客户。
 
所以,你收集客户购买记录——那些有着长期良好信用记录的客户。
 
如果你最信任的一群买家碰巧在银行负债,却无法及时站稳脚跟,他们的购买力将大幅下降。但是,模型无法预测客户的不可预见程度。从技术上讲,如果您决定在年底输出结果,那么得到的是有偏差的数据。
 
Note:当涉及到机器学习时,数据是一个易受影响的因素,为了克服数据偏见,请雇佣专家来处理这些数据。
 
还请注意,除了您之外,没有人记录客户的这些数据——可以说,您掌握着一定的话语权。
 
数据专家应该质疑数据积累过程中存在的任何问题;他们也应该积极寻找这些偏见如何在数据中表现出来的方法。这与您创建了什么类型的数据和记录也有关系。
 
2. 固定模式
 
在认知技术中,这是开发模型时不可忽视的风险之一。不幸的是,大多数已开发的模型,特别是为投资策略设计的模型,都存在这种风险。
 
想象一下,你花几个月的时间为投资开发出一个模型。经过多次试验,仍然得到了一个“准确的输出”。但用“真实世界的输入”来尝试该模型时,它可能给你一个毫无价值的结果。
 
为什么会这样?这是因为模型缺乏可变性。这个模型是使用一组特定的数据构建的。它只对设计时使用的数据有效。
 
因此,具有安全意识的AI和ML开发人员应该在将来开发任何算法模型时学会管理这种风险。通过输入他们能找到的所有形式的数据可变性,例如,演示数据集(当然这并不是所有的数据)。
 
3.对输出错误数据的解释可能比较困难
 
对输出错误数据的解释是机器学习未来可能面临的另一个风险。想象一下,在如此努力地工作以获得良好的数据之后,你决定和另一个人分享成果——也许是你的老板。
 
同样的数据结果,你老板的解释或许与你自己的观点都不一致。毕竟他的思维过程与你不同,因此他的见解也与你不同。
 
这种情况经常发生。这就是为什么数据科学家不仅应该在构建模型时注意,而且还应该在理解和正确解释来自任何设计模型的输出结果的“每一点”时注意。
 
在机器学习中,没有错误和假设的空间——它必须尽可能完美。如果我们不考虑每一个角度和可能性,就有可能让这项技术危害人类。
 
Note:对机器发布的任何信息的误读都可能给公司带来厄运。因此,数据科学家、研究人员以及任何相关人员都不应该忽视这方面。他们开发机器学习模型的意图应该是积极的而不是相反。
 
4. AI和ML还没有被科学的解释
 
从真正意义上说,许多科学家仍在努力全面理解AI和ML到底是什么。尽管它们还没在新兴市场站稳脚跟,但许多研究人员和数据科学家仍在努力了解更多信息。
 
许多人仍然感到害怕,因为他们相信仍然有一些未知的风险尚待了解。
 
即使是像谷歌、微软这样的大型科技公司仍然不完美。
 
人工智能聊天机器人Tay Ai由微软公司于2016年3月23日发布。它是通过twitter发布的,目的是与twitter用户互动——但不幸的是,它被认为是种族主义者。它在24小时内被关闭。
 
Facebook还发现,他们的聊天机器人偏离了最初的脚本,开始用自己创造的一种新语言交流。有趣的是,人类无法理解这种新创造的语言。很奇怪,对吧?
 
Note:为了解决“存在的威胁”,科学家和研究人员需要了解什么是AI和ML。此外,在正式向公众发布之前,他们还必须测试、测试、再测试机器运行模式的有效性。
 
5. 这就像一个控制欲极强的不朽独裁者
 
机器永远在运行——这是另一个不可忽视的潜在危险。AI和ML机器人不能像人类一样死去,他们是不朽的。一旦他们被训练去做一些任务,他们就会夜以继日,而且常常没有监督。
 
如果人工智能和机器学习特性没有得到充分的管理或监控,它们可能会发展成为一个独立的杀手机器。当然,这项技术可能对军方有利——但如果机器人不能区分敌人和无辜公民,无辜公民将会遭遇什么?
 
这种机器模型很容易操作。它们了解我们的恐惧、不喜欢和喜欢,并能利用这些数据来对付我们。注意:人工智能创造者必须准备好承担全部责任,确保在设计任何算法模型时考虑到这一风险。
 
结论
 
机器学习无疑是世界上最具技术价值的能力之一,具有现实世界的商业价值——尤其是与大数据技术合并时。
 
正因为如此,我们不应该忽视这样事实:它需要仔细的计划来适当地避免上述潜在的威胁:数据偏差、固定的模型、错误输出的解释、不确定性和极强的控制欲。

关键字:人工智能

本文摘自:51CTO

x AI和ML潜在的五大致命威胁及解决办法 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

AI和ML潜在的五大致命威胁及解决办法

责任编辑:cres 作者:风车云马编译 |来源:企业网D1Net  2019-06-12 13:24:42 本文摘自:51CTO

人工智能(AI)和机器学习(ML)是这个时代最热门的话题,科学家对此也有很大争议,或许它们所带来的好处怎么强调都不为过,我们也需要关注和理解AI和ML潜在的致命威胁。
 
谁敢想象,有一天机器的智能会超过人类?——未来学家称之为奇点。著名科学家——人工智能的先驱——艾伦·图灵(Alan Turing)在1950年提出,机器可以像孩子那样训练。
 
图灵提出:“机器会思考吗?”他在著名的论文《计算机器与智能》中探讨了这个问题和相关问题的答案。
 
1955年,约翰·麦卡锡发明了一种叫做“人工智能”的编程语言LISP。几年后,研究人员和科学家开始使用计算机编码、识别图像和翻译语言等。早在1955年,人们就希望有一天能让电脑说话和思考。
 
伟大的研究人员,如机器人学家汉斯·莫拉维克(Hans Moravec )、科幻作家弗诺·文奇(Vernor Vinge)和雷·库兹韦尔(Ray Kurzweil),从更广泛的意义上思考这个问题,机器什么时候能够独自设计实现目标的方法。
 
曾经像史蒂芬·霍金这样的伟人警告过,当人们无法与先进的人工智能竞争时,这可能意味着人类的终结。“我想说我们不应该做的是,在不考虑潜在风险的情况下,就全力建设超级智能。”加州大学伯克利分校(University of California, Berkeley)计算机科学教授斯图尔特·拉塞尔(Stuart J. Russell)说。
 
以下是ML和AI的五个可能的危险以及解决办法:
 
1. 机器学习(ML)模型可能是有偏见的——本质上受人类的影响
 
尽管机器学习和人工智能很有前途,但它的模型也容易受到无意的偏见的影响。有些人认为ML模型在决策时是公正的,但他们却忘记了,是人类在训练这些机器——从本质上讲——我们并不完美。
 
此外,在决策过程中,ML模型在处理数据时也可能存在偏差。你提供的本身不完整的数据(片面的数据),机器还会给出正确的结果吗?
 
举个例子,你经营一家批发商店,想建立一个模型来了解顾客。所以你建立了一个模型,希望评估顾客对商品的购买力;您还希望在年底使用模型的结果来奖励客户。
 
所以,你收集客户购买记录——那些有着长期良好信用记录的客户。
 
如果你最信任的一群买家碰巧在银行负债,却无法及时站稳脚跟,他们的购买力将大幅下降。但是,模型无法预测客户的不可预见程度。从技术上讲,如果您决定在年底输出结果,那么得到的是有偏差的数据。
 
Note:当涉及到机器学习时,数据是一个易受影响的因素,为了克服数据偏见,请雇佣专家来处理这些数据。
 
还请注意,除了您之外,没有人记录客户的这些数据——可以说,您掌握着一定的话语权。
 
数据专家应该质疑数据积累过程中存在的任何问题;他们也应该积极寻找这些偏见如何在数据中表现出来的方法。这与您创建了什么类型的数据和记录也有关系。
 
2. 固定模式
 
在认知技术中,这是开发模型时不可忽视的风险之一。不幸的是,大多数已开发的模型,特别是为投资策略设计的模型,都存在这种风险。
 
想象一下,你花几个月的时间为投资开发出一个模型。经过多次试验,仍然得到了一个“准确的输出”。但用“真实世界的输入”来尝试该模型时,它可能给你一个毫无价值的结果。
 
为什么会这样?这是因为模型缺乏可变性。这个模型是使用一组特定的数据构建的。它只对设计时使用的数据有效。
 
因此,具有安全意识的AI和ML开发人员应该在将来开发任何算法模型时学会管理这种风险。通过输入他们能找到的所有形式的数据可变性,例如,演示数据集(当然这并不是所有的数据)。
 
3.对输出错误数据的解释可能比较困难
 
对输出错误数据的解释是机器学习未来可能面临的另一个风险。想象一下,在如此努力地工作以获得良好的数据之后,你决定和另一个人分享成果——也许是你的老板。
 
同样的数据结果,你老板的解释或许与你自己的观点都不一致。毕竟他的思维过程与你不同,因此他的见解也与你不同。
 
这种情况经常发生。这就是为什么数据科学家不仅应该在构建模型时注意,而且还应该在理解和正确解释来自任何设计模型的输出结果的“每一点”时注意。
 
在机器学习中,没有错误和假设的空间——它必须尽可能完美。如果我们不考虑每一个角度和可能性,就有可能让这项技术危害人类。
 
Note:对机器发布的任何信息的误读都可能给公司带来厄运。因此,数据科学家、研究人员以及任何相关人员都不应该忽视这方面。他们开发机器学习模型的意图应该是积极的而不是相反。
 
4. AI和ML还没有被科学的解释
 
从真正意义上说,许多科学家仍在努力全面理解AI和ML到底是什么。尽管它们还没在新兴市场站稳脚跟,但许多研究人员和数据科学家仍在努力了解更多信息。
 
许多人仍然感到害怕,因为他们相信仍然有一些未知的风险尚待了解。
 
即使是像谷歌、微软这样的大型科技公司仍然不完美。
 
人工智能聊天机器人Tay Ai由微软公司于2016年3月23日发布。它是通过twitter发布的,目的是与twitter用户互动——但不幸的是,它被认为是种族主义者。它在24小时内被关闭。
 
Facebook还发现,他们的聊天机器人偏离了最初的脚本,开始用自己创造的一种新语言交流。有趣的是,人类无法理解这种新创造的语言。很奇怪,对吧?
 
Note:为了解决“存在的威胁”,科学家和研究人员需要了解什么是AI和ML。此外,在正式向公众发布之前,他们还必须测试、测试、再测试机器运行模式的有效性。
 
5. 这就像一个控制欲极强的不朽独裁者
 
机器永远在运行——这是另一个不可忽视的潜在危险。AI和ML机器人不能像人类一样死去,他们是不朽的。一旦他们被训练去做一些任务,他们就会夜以继日,而且常常没有监督。
 
如果人工智能和机器学习特性没有得到充分的管理或监控,它们可能会发展成为一个独立的杀手机器。当然,这项技术可能对军方有利——但如果机器人不能区分敌人和无辜公民,无辜公民将会遭遇什么?
 
这种机器模型很容易操作。它们了解我们的恐惧、不喜欢和喜欢,并能利用这些数据来对付我们。注意:人工智能创造者必须准备好承担全部责任,确保在设计任何算法模型时考虑到这一风险。
 
结论
 
机器学习无疑是世界上最具技术价值的能力之一,具有现实世界的商业价值——尤其是与大数据技术合并时。
 
正因为如此,我们不应该忽视这样事实:它需要仔细的计划来适当地避免上述潜在的威胁:数据偏差、固定的模型、错误输出的解释、不确定性和极强的控制欲。

关键字:人工智能

本文摘自:51CTO

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^