当前位置:人工智能行业动态 → 正文

由于严重的性别差异问题,人工智能存在偏见的风险

责任编辑:zsheng |来源:企业网D1Net  2019-01-05 11:15:13 本文摘自:砍柴网

人工智能需要由各种各样的开发者来创造,以防止产生偏见,但世界经济论坛(WEF)发现了一个严重的性别差异。

一段时间以来,STEM职业中的性别差距一直是个问题,但最终产品往往不太关心它是由什么性别开发的。人工智能将无处不在,重要的是它能代表它所服务的对象。

在本周发布的一份报告中,世界经济论坛写道:

“妇女和男子在这一深刻的经济和社会变革进程中的平等贡献至关重要。

社会比以往任何时候都更不能失去一半人类的技能、思想和观点,以实现管理良好的创新和技术所能带来的更繁荣和以人为中心的未来的希望。”

令人震惊的是,世界经济论坛的报告发现,不到四分之一的行业职位由女性担任。从这个角度来看,人工智能行业的性别差距大约是其他行业人才池的三倍。

世界经济论坛人工智能和机器学习主管凯•菲尔斯-巴特菲尔德(Kay Firth-Butterfield)表示:“创造人工智能的人代表整个人口,这一点绝对至关重要。”

在编码方面的偏见可能会让人工智能在某些社会群体中表现得比其他群体更好,这可能会给他们带来优势。这种偏见很少是有意的,但已经在人工智能的发展中找到了自己的方式。

美国公民自由联盟(ACLU)最近对亚马逊的面部识别技术进行了一次测试,发现它错误地将那些肤色较深的人贴上了罪犯的标签。

同样,NIST和达拉斯德克萨斯大学(University of Texas)的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法在识别东亚人方面做得更好,而在西方国家设计的算法在识别白种人方面更准确。

最近,谷歌在Gmail中发布了一个预测文本功能,该算法对使用女性代词的护士进行了有偏见的假设。

很明显,解决性别差距比以往任何时候都更加紧迫。

关键字:风险智能问题

本文摘自:砍柴网

x 由于严重的性别差异问题,人工智能存在偏见的风险 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

由于严重的性别差异问题,人工智能存在偏见的风险

责任编辑:zsheng |来源:企业网D1Net  2019-01-05 11:15:13 本文摘自:砍柴网

人工智能需要由各种各样的开发者来创造,以防止产生偏见,但世界经济论坛(WEF)发现了一个严重的性别差异。

一段时间以来,STEM职业中的性别差距一直是个问题,但最终产品往往不太关心它是由什么性别开发的。人工智能将无处不在,重要的是它能代表它所服务的对象。

在本周发布的一份报告中,世界经济论坛写道:

“妇女和男子在这一深刻的经济和社会变革进程中的平等贡献至关重要。

社会比以往任何时候都更不能失去一半人类的技能、思想和观点,以实现管理良好的创新和技术所能带来的更繁荣和以人为中心的未来的希望。”

令人震惊的是,世界经济论坛的报告发现,不到四分之一的行业职位由女性担任。从这个角度来看,人工智能行业的性别差距大约是其他行业人才池的三倍。

世界经济论坛人工智能和机器学习主管凯•菲尔斯-巴特菲尔德(Kay Firth-Butterfield)表示:“创造人工智能的人代表整个人口,这一点绝对至关重要。”

在编码方面的偏见可能会让人工智能在某些社会群体中表现得比其他群体更好,这可能会给他们带来优势。这种偏见很少是有意的,但已经在人工智能的发展中找到了自己的方式。

美国公民自由联盟(ACLU)最近对亚马逊的面部识别技术进行了一次测试,发现它错误地将那些肤色较深的人贴上了罪犯的标签。

同样,NIST和达拉斯德克萨斯大学(University of Texas)的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法在识别东亚人方面做得更好,而在西方国家设计的算法在识别白种人方面更准确。

最近,谷歌在Gmail中发布了一个预测文本功能,该算法对使用女性代词的护士进行了有偏见的假设。

很明显,解决性别差距比以往任何时候都更加紧迫。

关键字:风险智能问题

本文摘自:砍柴网

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^