当前位置:人工智能行业动态 → 正文

人工智能的危险甚至挑战了专家

责任编辑:zsheng |来源:企业网D1Net  2019-01-07 11:54:58 本文摘自:端科技

在今天波士顿的重新工作 深度学习峰会上,一个伦理学家和工程师小组讨论了人工智能面临的一些最大挑战:算法偏差,人工智能中的道德规范,以及是否应该广泛提供创建AI的工具。

该小组成员包括智库,未来社会的联合创始人兼副总裁Simon Mueller; Cansu Canca,AI道德实验室的创始人兼董事; Gabriele Fariello,哈佛大学机器学习讲师,神经信息学研究员,罗德岛大学首席信息官; 和Kathy Pham,谷歌,IBM和美国数字服务的校友,目前正在哈佛伯克曼克莱因中心和麻省理工学院媒体实验室的人工智能和软件工程研究伦理学。

穆勒以一个棘手的问题开始讨论:道德是否是人工智能进步最紧迫的问题?

“它始终是'工程优先,首先解决技术问题'的态度[涉及到AI],”Pham说。“有很多专家一直在考虑这个问题,[但]这些声音需要被认为与房间里的工程师一样有价值。”

Canca同意,产品线索和设计师之间不会经常讨论道德规范。“[工程师]应该从一开始就考虑人工智能,直到他们将产品商业化,”她说。“似乎[政策]通常与开发人员分开,并与讨论分开。”

Fariello回应了Pham的观点,并补充说,人工智能中道德的不再强调会对全国人民的生活产生负面影响。“有一些重大问题,”他说。“在医疗保健,司法系统和其他直接影响你生活的方面,都有真正的决定。”

他最近以威斯康星州最高法院的判决为例。2017年5月,它 统治了威斯康星州的Eric Loomis,他被判处六年监禁,部分原因是Northpointe的Compas软件的建议,该软件使用专有算法来预测被告犯下更多罪行的可能性。ProPublica 的一份报告发现,与白人被告相比,Compas“更有可能以更高的再犯率判断黑人被告”。

有偏见的算法不仅影响司法系统。Canca说,像谷歌新闻这样的个性化,机器学习驱动的新闻提供 “分裂人”。“随着信息的[多样性]缩小,与世界的接触变得与像你这样的人或与你有共同观点的人接触。”

Fariello指出,像Facebook这样的算法驱动型公司几乎都被激励,以通过积极的反馈循环来展示“确认[用户]信念”的内容。“我们变得两极分化,我们看不到其他观点。”

他说,政策制定者的无知正在助长这个问题。“这是我们有责任,当我们不投票,并联系我们的代表,如果他们没有在这个精通,他们与别人谁协商 是精通于此。”

Canca同意了。“我们需要在政策层面采取积极主动的做法,”她说。“大多数时候,[政府]正在追赶......通常,该政策遵循技术[部门]正在发生的事情。”

尽管存在与人工智能及其缪斯相关的问题,但小组成员对人工智能人工智能问题达成了一致意见:三者都表示人工智能开发工具和图书馆应该公开提供并开源。“让我们打开它,让人们使用它,”Canca说。“这是方向。”

Fariello说,工具本身不是问题。相反,它是保密和缺乏透明度。“大型神经网络本身就是黑盒子,”他说。“如果我们在黑匣子周围添加锁,我们就会遇到大麻烦。

关键字:专家智能

本文摘自:端科技

x 人工智能的危险甚至挑战了专家 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

人工智能的危险甚至挑战了专家

责任编辑:zsheng |来源:企业网D1Net  2019-01-07 11:54:58 本文摘自:端科技

在今天波士顿的重新工作 深度学习峰会上,一个伦理学家和工程师小组讨论了人工智能面临的一些最大挑战:算法偏差,人工智能中的道德规范,以及是否应该广泛提供创建AI的工具。

该小组成员包括智库,未来社会的联合创始人兼副总裁Simon Mueller; Cansu Canca,AI道德实验室的创始人兼董事; Gabriele Fariello,哈佛大学机器学习讲师,神经信息学研究员,罗德岛大学首席信息官; 和Kathy Pham,谷歌,IBM和美国数字服务的校友,目前正在哈佛伯克曼克莱因中心和麻省理工学院媒体实验室的人工智能和软件工程研究伦理学。

穆勒以一个棘手的问题开始讨论:道德是否是人工智能进步最紧迫的问题?

“它始终是'工程优先,首先解决技术问题'的态度[涉及到AI],”Pham说。“有很多专家一直在考虑这个问题,[但]这些声音需要被认为与房间里的工程师一样有价值。”

Canca同意,产品线索和设计师之间不会经常讨论道德规范。“[工程师]应该从一开始就考虑人工智能,直到他们将产品商业化,”她说。“似乎[政策]通常与开发人员分开,并与讨论分开。”

Fariello回应了Pham的观点,并补充说,人工智能中道德的不再强调会对全国人民的生活产生负面影响。“有一些重大问题,”他说。“在医疗保健,司法系统和其他直接影响你生活的方面,都有真正的决定。”

他最近以威斯康星州最高法院的判决为例。2017年5月,它 统治了威斯康星州的Eric Loomis,他被判处六年监禁,部分原因是Northpointe的Compas软件的建议,该软件使用专有算法来预测被告犯下更多罪行的可能性。ProPublica 的一份报告发现,与白人被告相比,Compas“更有可能以更高的再犯率判断黑人被告”。

有偏见的算法不仅影响司法系统。Canca说,像谷歌新闻这样的个性化,机器学习驱动的新闻提供 “分裂人”。“随着信息的[多样性]缩小,与世界的接触变得与像你这样的人或与你有共同观点的人接触。”

Fariello指出,像Facebook这样的算法驱动型公司几乎都被激励,以通过积极的反馈循环来展示“确认[用户]信念”的内容。“我们变得两极分化,我们看不到其他观点。”

他说,政策制定者的无知正在助长这个问题。“这是我们有责任,当我们不投票,并联系我们的代表,如果他们没有在这个精通,他们与别人谁协商 是精通于此。”

Canca同意了。“我们需要在政策层面采取积极主动的做法,”她说。“大多数时候,[政府]正在追赶......通常,该政策遵循技术[部门]正在发生的事情。”

尽管存在与人工智能及其缪斯相关的问题,但小组成员对人工智能人工智能问题达成了一致意见:三者都表示人工智能开发工具和图书馆应该公开提供并开源。“让我们打开它,让人们使用它,”Canca说。“这是方向。”

Fariello说,工具本身不是问题。相反,它是保密和缺乏透明度。“大型神经网络本身就是黑盒子,”他说。“如果我们在黑匣子周围添加锁,我们就会遇到大麻烦。

关键字:专家智能

本文摘自:端科技

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^