当前位置:人工智能行业动态 → 正文

纽约大学AI Now研究所发布人工智能2018现状报告

责任编辑:zsheng |来源:企业网D1Net  2018-12-10 18:41:36 本文摘自:Linux公社

纽约大学AI Now研究所昨天发布了第三份关于人工智能现状的年度报告。 2018年AI Now报告重点关注行业AI丑闻和不平等加剧等主题。它还评估了人工智能道德与有意义的问责制之间的差距,并研究了组织和监管在人工智能中的作用。

让我们来看看AI Now 2018报告中的主要建议。

关键要点

需要针对具体部门的AI治理和监管方法

今年的报告通过扩大特定部门机构(如美国联邦航空管理局和国家公路交通安全管理局)的权力来审计和监控基于域的这些技术,从而反映出需要加强人工授精法规。

人工智能系统的发展正在兴起,没有足够的治理,监督或问责制度来确保这些系统遵守人工智能的道德规范。该报告指出,一般的AI标准和认证模​​型如何不能满足卫生,教育,福利等不同部门的专业知识要求,这是加强监管的关键要求。

“我们需要一种特定于行业的方法,该方法不会优先考虑技术,而是专注于在特定领域内的应用”,报告中写道。

需要对面部识别AI系统更严格的监管

人们越来越担心面部识别技术,因为它们会导致隐私侵犯,大规模监视,种族歧视和其他问题。根据该报告,需要严格的监管法律,要求更强的监督,公共透明度和明确的限制。此外,仅提供公告不应成为公司应用这些技术的唯一标准。需要有一个同意的“高门槛”,牢记大规模监视技术的风险和危险。

该报告强调了“影响识别”,一种声称能够检测个性,内心感受,心理健康等的面部识别子类,取决于面部的图像或视频,需要特别注意,因为它是不受管制的。它阐述了这些主张如何没有足够的证据支持,并且以不道德和不负责任的方式被滥用。“将影响承认与雇用,获得保险,教育和警务联系起来,在个人和社会层面都产生了深刻的风险” ,阅读报告。

似乎正在这方面取得进展,就像昨天微软建议科技公司需要发布文件来解释技术的能力,局限性和后果,以防面部识别系统在公共场合使用。

人工智能治理需要新的方法

该报告指出,技术公司的内部治理结构无法有效实施人工智能系统的问责制。

“政府监管是一个重要组成部分,但人工智能行业的领先企业也需要超越道德准则的内部问责制结构”,报告中写道。这包括董事会,外部道德咨询委员会的普通员工代表,以及独立监督和透明度工作。

需要放弃商业秘密和其他法律索赔

该报告指出,在政府中使用AI和自动决策系统的供应商和开发商应同意放弃任何限制公众对其软件进行全面审计和理解的商业秘密或其他法律索赔。根据报告,公司保密法是一个障碍,因为它们很难分析偏见,竞争决策或纠正错误。希望在公共部门使用这些技术的公司应该要求供应商在达成协议之前放弃这些索赔。

公司应该保护工人免受道德问题的影响

员工组织和抵制技术以促进问责制和道德决策已经变得很普遍。这些技术公司有责任保护其员工组织,举报和促进其项目的道德选择的能力。

“这应该包括明确的政策,确保工人有权知道他们正在做什么,以及在没有报复或报复的情况下放弃这种工作的能力”,报告中写道。

在AI产品的广告中需要更多的事实

该报告强调,围绕人工智能的炒作导致营销承诺与实际产品性能之间存在差距,从而给个人和商业客户带来风险。

根据报告,人工智能供应商在做出承诺时应该保持高标准,特别是当没有足够的信息来说明这些承诺背后的后果和科学证据时。

需要解决工作场所内的排斥和歧视问题

报告指出,技术公司和人工智能领域专注于“管道模型”,旨在培训和雇用更多员工。

但是,对于技术公司而言,评估工作场所内基于性别,种族等的骚扰等更深层次的问题非常重要。 他们还应该研究排他性文化与他们建立的产品之间的关系,从而建立不会使偏见和歧视长期存在的工具。

“全栈供应链”的详细说明

根据该报告,有必要更好地了解人工智能系统的各个部分以及它所依赖的完整供应链,以便更好地追究责任。 “这意味着在产品生命周期中考虑培训数据,测试数据,模型,应用程序接口(API)和其他组件的来源和使用非常重要”,该文章读到。

这个过程被称为人工智能系统的“完整堆栈供应链”,这是更负责任的审计形式所必需的。完整的堆栈供应链考虑了AI系统的真实环境和劳动力成本。这包括能源使用,内容审核和培训数据创建的劳动力使用,以及依赖工人维护AI系统。

更多资金和支持诉讼,以及人工智能问题的劳工组织

该报告指出,需要增加对法律补救和公民参与的支持。

这包括向代表因算法决策而获得豁免社会服务的人的公共倡导者,民间社会组织和支持面临失业和剥削危险的群体的劳工组织者提供支持。

大学人工智能课程需要扩展到计算机科学学科之外

报告指出,大学课程和教学大纲需要扩大其学科定位。这意味着在大学AI课程中包含社会和人文学科。为了真正发挥社会影响的人工智能,有必要培养计算机科学系的教师和学生,研究社会世界。很多人已经开始实现这一点,例如,Mizhell Baker董事长,Mozilla的联合创始人谈到了技术行业通过引入人文科技来扩展技术技能的必要性。

“扩大人工智能研究的学科定位将确保更深入地关注社会背景,并更加关注当这些系统应用于人类群体时的潜在危害”,该论文写道。

关键字:智能报告研究纽约

本文摘自:Linux公社

x 纽约大学AI Now研究所发布人工智能2018现状报告 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

纽约大学AI Now研究所发布人工智能2018现状报告

责任编辑:zsheng |来源:企业网D1Net  2018-12-10 18:41:36 本文摘自:Linux公社

纽约大学AI Now研究所昨天发布了第三份关于人工智能现状的年度报告。 2018年AI Now报告重点关注行业AI丑闻和不平等加剧等主题。它还评估了人工智能道德与有意义的问责制之间的差距,并研究了组织和监管在人工智能中的作用。

让我们来看看AI Now 2018报告中的主要建议。

关键要点

需要针对具体部门的AI治理和监管方法

今年的报告通过扩大特定部门机构(如美国联邦航空管理局和国家公路交通安全管理局)的权力来审计和监控基于域的这些技术,从而反映出需要加强人工授精法规。

人工智能系统的发展正在兴起,没有足够的治理,监督或问责制度来确保这些系统遵守人工智能的道德规范。该报告指出,一般的AI标准和认证模​​型如何不能满足卫生,教育,福利等不同部门的专业知识要求,这是加强监管的关键要求。

“我们需要一种特定于行业的方法,该方法不会优先考虑技术,而是专注于在特定领域内的应用”,报告中写道。

需要对面部识别AI系统更严格的监管

人们越来越担心面部识别技术,因为它们会导致隐私侵犯,大规模监视,种族歧视和其他问题。根据该报告,需要严格的监管法律,要求更强的监督,公共透明度和明确的限制。此外,仅提供公告不应成为公司应用这些技术的唯一标准。需要有一个同意的“高门槛”,牢记大规模监视技术的风险和危险。

该报告强调了“影响识别”,一种声称能够检测个性,内心感受,心理健康等的面部识别子类,取决于面部的图像或视频,需要特别注意,因为它是不受管制的。它阐述了这些主张如何没有足够的证据支持,并且以不道德和不负责任的方式被滥用。“将影响承认与雇用,获得保险,教育和警务联系起来,在个人和社会层面都产生了深刻的风险” ,阅读报告。

似乎正在这方面取得进展,就像昨天微软建议科技公司需要发布文件来解释技术的能力,局限性和后果,以防面部识别系统在公共场合使用。

人工智能治理需要新的方法

该报告指出,技术公司的内部治理结构无法有效实施人工智能系统的问责制。

“政府监管是一个重要组成部分,但人工智能行业的领先企业也需要超越道德准则的内部问责制结构”,报告中写道。这包括董事会,外部道德咨询委员会的普通员工代表,以及独立监督和透明度工作。

需要放弃商业秘密和其他法律索赔

该报告指出,在政府中使用AI和自动决策系统的供应商和开发商应同意放弃任何限制公众对其软件进行全面审计和理解的商业秘密或其他法律索赔。根据报告,公司保密法是一个障碍,因为它们很难分析偏见,竞争决策或纠正错误。希望在公共部门使用这些技术的公司应该要求供应商在达成协议之前放弃这些索赔。

公司应该保护工人免受道德问题的影响

员工组织和抵制技术以促进问责制和道德决策已经变得很普遍。这些技术公司有责任保护其员工组织,举报和促进其项目的道德选择的能力。

“这应该包括明确的政策,确保工人有权知道他们正在做什么,以及在没有报复或报复的情况下放弃这种工作的能力”,报告中写道。

在AI产品的广告中需要更多的事实

该报告强调,围绕人工智能的炒作导致营销承诺与实际产品性能之间存在差距,从而给个人和商业客户带来风险。

根据报告,人工智能供应商在做出承诺时应该保持高标准,特别是当没有足够的信息来说明这些承诺背后的后果和科学证据时。

需要解决工作场所内的排斥和歧视问题

报告指出,技术公司和人工智能领域专注于“管道模型”,旨在培训和雇用更多员工。

但是,对于技术公司而言,评估工作场所内基于性别,种族等的骚扰等更深层次的问题非常重要。 他们还应该研究排他性文化与他们建立的产品之间的关系,从而建立不会使偏见和歧视长期存在的工具。

“全栈供应链”的详细说明

根据该报告,有必要更好地了解人工智能系统的各个部分以及它所依赖的完整供应链,以便更好地追究责任。 “这意味着在产品生命周期中考虑培训数据,测试数据,模型,应用程序接口(API)和其他组件的来源和使用非常重要”,该文章读到。

这个过程被称为人工智能系统的“完整堆栈供应链”,这是更负责任的审计形式所必需的。完整的堆栈供应链考虑了AI系统的真实环境和劳动力成本。这包括能源使用,内容审核和培训数据创建的劳动力使用,以及依赖工人维护AI系统。

更多资金和支持诉讼,以及人工智能问题的劳工组织

该报告指出,需要增加对法律补救和公民参与的支持。

这包括向代表因算法决策而获得豁免社会服务的人的公共倡导者,民间社会组织和支持面临失业和剥削危险的群体的劳工组织者提供支持。

大学人工智能课程需要扩展到计算机科学学科之外

报告指出,大学课程和教学大纲需要扩大其学科定位。这意味着在大学AI课程中包含社会和人文学科。为了真正发挥社会影响的人工智能,有必要培养计算机科学系的教师和学生,研究社会世界。很多人已经开始实现这一点,例如,Mizhell Baker董事长,Mozilla的联合创始人谈到了技术行业通过引入人文科技来扩展技术技能的必要性。

“扩大人工智能研究的学科定位将确保更深入地关注社会背景,并更加关注当这些系统应用于人类群体时的潜在危害”,该论文写道。

关键字:智能报告研究纽约

本文摘自:Linux公社

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^