当前位置:人工智能行业动态 → 正文

人工智能的三大风险以及如何避免

责任编辑:cres 作者:Kate Yuan |来源:企业网D1Net  2022-11-22 13:50:48 原创文章 企业网D1Net

人工智能系统和人工智能项目如今变得越来越普遍,因为企业可以利用这种新兴技术的力量来自动化决策和提高效率。
 
如果企业正在实施一个大规模的人工智能项目,那么应该如何准备?以下是与人工智能相关的三个最重要的风险,以及如何预防和减轻它们。
 
1.从隐私到安全
 
人们都很关注自己的隐私,而面部识别人工智能在某些方面正在迅速发展,引发了关于隐私和监控的伦理担忧。例如,这项技术可以让企业在未经用户同意的情况下跟踪用户的行为,甚至是情绪。美国政府最近提出了一项“人工智能权利法案”,以防止人工智能技术造成与核心价值观相悖的真正伤害,包括基本的隐私权。
 
IT领导者需要让用户知道正在收集什么数据,并获得用户的同意。除此之外,关于数据集的适当培训和实施对于防止数据泄露和潜在的安全漏洞至关重要。
 
测试人工智能系统以确保它实现目标,而不会产生意想不到的影响,例如允许黑客使用虚假的生物识别数据访问敏感信息。实施人工智能系统的监督,可以使企业在必要时停止或撤销它的行动。
 
2.从不透明到透明
 
许多使用机器学习的人工智能系统是不透明的,这意味着不清楚它们是如何做出决定的。例如,对抵押贷款数据广泛的研究表明,用于批准或拒绝贷款的预测性人工智能工具对少数族裔申请者的准确性较低。技术的不透明性侵犯了贷款被拒绝的申请者的“解释权”。
 
当企业的人工智能/机器学习工具对其用户做出了重要的决定时,需要确保他们得到通知,并能得到关于为什么做出这个决定的完整解释。
 
企业的人工智能团队还应该能够追踪导致每个决策的关键因素,并在这一过程中诊断出任何错误。内部面向员工的文档和外部面向客户的文档应该解释人工智能系统是如何以及为什么这样运作的。
 
3.从偏见到公平
 
最近的一项研究表明,根据具有偏见的数据训练的人工智能系统强化了歧视模式,从医学研究招募不足到科学家参与度降低,甚至少数族裔患者不太愿意参与研究。
 
人们需要问问自己:如果意想不到的结果发生了,它会影响谁或哪个群体?它是否平等地影响所有用户,还是只影响特定群体?
 
仔细查看历史数据,评估是否引入了任何潜在的偏见或减轻了偏见。一个经常被忽视的因素是企业的开发团队的多样性,而更加多样化的团队通常会引入更公平的过程和结果。
 
为了避免意外的伤害,企业需要确保来自人工智能/机器学习开发、产品、审计和治理团队的所有涉众完全理解指导企业的人工智能项目的高级原则、价值和控制计划。获得独立的评估,以确认所有项目都符合这些原则和价值观。
 
关于企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营18个IT行业公众号(微信搜索D1net即可关注)。
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

x 人工智能的三大风险以及如何避免 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

人工智能的三大风险以及如何避免

责任编辑:cres 作者:Kate Yuan |来源:企业网D1Net  2022-11-22 13:50:48 原创文章 企业网D1Net

人工智能系统和人工智能项目如今变得越来越普遍,因为企业可以利用这种新兴技术的力量来自动化决策和提高效率。
 
如果企业正在实施一个大规模的人工智能项目,那么应该如何准备?以下是与人工智能相关的三个最重要的风险,以及如何预防和减轻它们。
 
1.从隐私到安全
 
人们都很关注自己的隐私,而面部识别人工智能在某些方面正在迅速发展,引发了关于隐私和监控的伦理担忧。例如,这项技术可以让企业在未经用户同意的情况下跟踪用户的行为,甚至是情绪。美国政府最近提出了一项“人工智能权利法案”,以防止人工智能技术造成与核心价值观相悖的真正伤害,包括基本的隐私权。
 
IT领导者需要让用户知道正在收集什么数据,并获得用户的同意。除此之外,关于数据集的适当培训和实施对于防止数据泄露和潜在的安全漏洞至关重要。
 
测试人工智能系统以确保它实现目标,而不会产生意想不到的影响,例如允许黑客使用虚假的生物识别数据访问敏感信息。实施人工智能系统的监督,可以使企业在必要时停止或撤销它的行动。
 
2.从不透明到透明
 
许多使用机器学习的人工智能系统是不透明的,这意味着不清楚它们是如何做出决定的。例如,对抵押贷款数据广泛的研究表明,用于批准或拒绝贷款的预测性人工智能工具对少数族裔申请者的准确性较低。技术的不透明性侵犯了贷款被拒绝的申请者的“解释权”。
 
当企业的人工智能/机器学习工具对其用户做出了重要的决定时,需要确保他们得到通知,并能得到关于为什么做出这个决定的完整解释。
 
企业的人工智能团队还应该能够追踪导致每个决策的关键因素,并在这一过程中诊断出任何错误。内部面向员工的文档和外部面向客户的文档应该解释人工智能系统是如何以及为什么这样运作的。
 
3.从偏见到公平
 
最近的一项研究表明,根据具有偏见的数据训练的人工智能系统强化了歧视模式,从医学研究招募不足到科学家参与度降低,甚至少数族裔患者不太愿意参与研究。
 
人们需要问问自己:如果意想不到的结果发生了,它会影响谁或哪个群体?它是否平等地影响所有用户,还是只影响特定群体?
 
仔细查看历史数据,评估是否引入了任何潜在的偏见或减轻了偏见。一个经常被忽视的因素是企业的开发团队的多样性,而更加多样化的团队通常会引入更公平的过程和结果。
 
为了避免意外的伤害,企业需要确保来自人工智能/机器学习开发、产品、审计和治理团队的所有涉众完全理解指导企业的人工智能项目的高级原则、价值和控制计划。获得独立的评估,以确认所有项目都符合这些原则和价值观。
 
关于企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营18个IT行业公众号(微信搜索D1net即可关注)。
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^