当前位置:人工智能行业动态 → 正文

清晰的人工智能道德政策越来越重要

责任编辑:zsheng |来源:企业网D1Net  2019-01-05 11:25:57 本文摘自:端科技

围绕谷歌参与美国国防部项目Maven(一项自主无人机计划)的热情一周多一周后,另一台机器学习争议又回到了头条新闻:当地执法部署了亚马逊的Rekognition,这是一项计算机视觉服务。面部识别功能。

在致亚马逊首席执行官杰夫贝索斯的一封信中,19组股东表示担心,Rekognition的面部识别能力将被滥用,“违反”有色人种,移民和民间社会组织的“公民权利和人权”。 “他们说,它为向外国政府和专制政权销售软件奠定了基础。

据亚马逊称,它将“暂停......客户的使用权......服务[如Rekognition]”,如果它确定这些服务被“滥用”的话。但到目前为止,它已经拒绝定义明亮的服务。 - 会触发暂停的规则。

人工智能是一个新生的领域。Consortia和智库如人工智能合作伙伴关系,牛津大学的AI道德规范项目,哈佛大学的AI倡议和AI4All都致力于建立初步的最佳实践和指南。但IBM人工智能伦理的全球领导者Francesca Rossi认为,还有更多工作要做。

“每家公司都应该提出自己的原则,”她在电话采访中告诉VentureBeat。“他们应该根据他们所处的空间来阐明他们的原则。”

与政府合同相比,其利害攸关。随着谷歌,微软和IBM等科技巨头的人工智能研究人员将注意力转向医疗保健,机器学习算法的混淆性可能会疏远那些有利于患者的人。

例如,如果系统没有明确表明他们如何得出结论,那么人们可能会对预测患者生存几率的系统产生疑虑。(谷歌大脑团队中的一个这样的AI采用透明的方法,显示哪些PDF文档,手写图表和其他数据通知其结果。)

“医生为患者设计治疗[在AI的帮助下]和可以识别书籍的算法之间存在差异,”罗西解释说。“当我们做出决定时,我们通常甚至不会认识到我们的偏见,[并且]这些偏见可以被注入训练数据集或模型中。”

围绕数据收集的不透明政策已经让一些人工智能研究人员陷入了困境。去年,英国最高隐私监管机构信息专员办公室裁定,该国家的国家健康服务中心在Alphabet子公司DeepMind的AI现场试验中不正确地分享了160万患者的记录。

“用户想知道......人工智能已被审查过,”罗西说。“我对人工智能的看法是一个审计过程 - 一个非常严格的过程,通过这个过程,有人可信地查看了系统并分析了模型和培训数据。”

罗西表示,同样重要的是确保立法者,法律专家和政策团体对人工智能的潜在回报及其潜在风险有深刻的理解。

她说:“政策制定者必须接受有关AI是什么,可能出现的问题以及可能出现的问题的教育。” “对于构建人工智能的人来说,透明和明确他们所做的事情非常重要。”

对于AI报道,请向Khari Johnson和Kyle Wiggers发送新闻提示,并向Cosette Jarrett提交帖子。

关键字:政策智能

本文摘自:端科技

x 清晰的人工智能道德政策越来越重要 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

清晰的人工智能道德政策越来越重要

责任编辑:zsheng |来源:企业网D1Net  2019-01-05 11:25:57 本文摘自:端科技

围绕谷歌参与美国国防部项目Maven(一项自主无人机计划)的热情一周多一周后,另一台机器学习争议又回到了头条新闻:当地执法部署了亚马逊的Rekognition,这是一项计算机视觉服务。面部识别功能。

在致亚马逊首席执行官杰夫贝索斯的一封信中,19组股东表示担心,Rekognition的面部识别能力将被滥用,“违反”有色人种,移民和民间社会组织的“公民权利和人权”。 “他们说,它为向外国政府和专制政权销售软件奠定了基础。

据亚马逊称,它将“暂停......客户的使用权......服务[如Rekognition]”,如果它确定这些服务被“滥用”的话。但到目前为止,它已经拒绝定义明亮的服务。 - 会触发暂停的规则。

人工智能是一个新生的领域。Consortia和智库如人工智能合作伙伴关系,牛津大学的AI道德规范项目,哈佛大学的AI倡议和AI4All都致力于建立初步的最佳实践和指南。但IBM人工智能伦理的全球领导者Francesca Rossi认为,还有更多工作要做。

“每家公司都应该提出自己的原则,”她在电话采访中告诉VentureBeat。“他们应该根据他们所处的空间来阐明他们的原则。”

与政府合同相比,其利害攸关。随着谷歌,微软和IBM等科技巨头的人工智能研究人员将注意力转向医疗保健,机器学习算法的混淆性可能会疏远那些有利于患者的人。

例如,如果系统没有明确表明他们如何得出结论,那么人们可能会对预测患者生存几率的系统产生疑虑。(谷歌大脑团队中的一个这样的AI采用透明的方法,显示哪些PDF文档,手写图表和其他数据通知其结果。)

“医生为患者设计治疗[在AI的帮助下]和可以识别书籍的算法之间存在差异,”罗西解释说。“当我们做出决定时,我们通常甚至不会认识到我们的偏见,[并且]这些偏见可以被注入训练数据集或模型中。”

围绕数据收集的不透明政策已经让一些人工智能研究人员陷入了困境。去年,英国最高隐私监管机构信息专员办公室裁定,该国家的国家健康服务中心在Alphabet子公司DeepMind的AI现场试验中不正确地分享了160万患者的记录。

“用户想知道......人工智能已被审查过,”罗西说。“我对人工智能的看法是一个审计过程 - 一个非常严格的过程,通过这个过程,有人可信地查看了系统并分析了模型和培训数据。”

罗西表示,同样重要的是确保立法者,法律专家和政策团体对人工智能的潜在回报及其潜在风险有深刻的理解。

她说:“政策制定者必须接受有关AI是什么,可能出现的问题以及可能出现的问题的教育。” “对于构建人工智能的人来说,透明和明确他们所做的事情非常重要。”

对于AI报道,请向Khari Johnson和Kyle Wiggers发送新闻提示,并向Cosette Jarrett提交帖子。

关键字:政策智能

本文摘自:端科技

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^