Infosys知识研究院(Infosys的研究部门)对1500名AI决策者进行了调查并发布报告。调查显示,尽管78%的公司认为负责任的AI是推动业务增长的驱动力,但仅有2%的公司制定了充分控制措施,以防范AI可能引发的声誉风险和财务损失,该调查于今年3月至4月间开展。
那么,究竟什么是负责任的AI呢?调查报告的作者们概述了负责任的AI所必需的几个要素,首先是可解释性,“这是赢得对AI系统信任的关键部分”。
从技术角度来看,可解释性涉及通过展示对特定结果影响最大的特征来“解释单一预测”的技术,以及“找出改变模型结果所需的最小输入变化”的反事实分析,另一种技术——思维链推理,“将任务分解为中间推理阶段,使过程透明化”。
实现负责任的AI所需的其他流程还包括持续监控、异常检测、严格测试、验证、强大的访问控制、遵循伦理准则、人工监督,以及数据质量和完整性保障措施。
调查报告的作者们发现,大多数企业尚未采用这些技术,仅有4%的企业至少实施了上述五项措施中的一项,83%的企业在推进负责任的AI方面采取零散方式,平均而言,企业高管认为,他们在负责任的AI方面的投资至少少了30%。
采取更多负责任的AI措施已刻不容缓,几乎所有(95%)的调查受访者都表示,在过去两年中发生过与AI相关的事件,至少有77%的受访者表示,因AI相关事件而遭受了财务损失,53%的受访者表示此类事件对其声誉造成了影响。
四分之三的受访者表示,所遭受的损害至少被认为是“重大的”,其中39%的受访者称损害“严重”或“极其严重”。作者们指出,AI错误“比个别员工造成的简单数据库错误造成的损害更快、更广泛”。
那些在负责任的AI方面领先的企业,其AI事件造成的财务损失降低了39%,平均严重程度降低了18%。
过去两年中,主要的AI事件包括:
• 隐私泄露 33%
• 系统故障 33%
• 预测不准确或有害 32%
• 伦理违规 30%
• 缺乏可解释性 28%
调查报告的作者们表示,那些在负责任的AI方面举措更为先进的企业高管,采取了诸如开发更优的AI可解释性、主动评估并减轻偏见、严格测试和验证AI项目以及制定明确的事件响应计划等措施。
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。