思科最近的一项调查显示,75%的企业表示已制定了专门的AI治理流程,但只有12%的企业认为其治理工作已成熟。
思科2026年《数据与隐私基准研究》表明,AI治理流程仍在不断发展,同时隐私问题正推动企业采取更多“护栏”措施,93%的企业计划进一步投资,以跟上AI系统的复杂性以及客户和监管机构的期望。
AI专家一致认为,建立良好治理的难度确实很大,但思科负责法律创新与战略的高级副总裁Jen Yokoyama表示,受访的IT和安全专业人员意识到自己还有工作要做,这是个好迹象。
她说:“这一数据很好地反映了这些公司所面临的复杂情况,如果每个人都说,‘是的,我们有相关计划,这意味着我们已经准备就绪且治理成熟’,那反而显示出他们对这一问题的复杂性有点过于天真了。”
Yokoyama表示,对于部署AI的企业来说,一大挑战在于治理迄今为止仍落后于采纳速度。她补充说,许多IT领导者必须在技术推广的同时,就合规性、伦理问题和透明度做出决策。
“问题很大一部分在于追求速度、快速采纳,以及努力弄清楚如何从这项技术中获得回报,”她说,“他们需要快速行动,因为人们现在就在花钱,人们希望看到回报,所以你得加快节奏。”
Yokoyama表示,IT领导者在启动AI项目时,还需要考虑隐私、与AI供应商共享数据以及数据本地化和主权等问题。她补充说:“问题在于没有一种解决方案适用于所有情况。”
快速部署
营销IT供应商Eagle Eye Group的首席AI官Jean-Matthieu Schertzer也认同,AI的采纳速度使治理工作变得复杂。
“许多企业正在迅速在营销、自动化、个性化和运营效率等职能领域部署AI,但随着采纳规模的扩大,治理成熟度往往滞后,”他说,“许多AI系统的不透明性使得追踪决策、识别偏见以及在出现问题时明确责任变得困难。”
Schertzer指出,有效的AI治理依赖于结构化的操作实践,如记录模型局限性、进行偏见和安全审计,以及建立审查和监督工作流程。他补充说,同时,AI领导者必须满足围绕透明度、同意和监管合规性的日益增长的期望,这些问题涉及企业内的多个部门。
“这些要求涉及法律、数据、安全、营销和产品团队,当所有权不明确或举措仍局限于孤立的试点而非成为标准操作实践时,进展往往会放缓。”他说。
制造软件供应商QAD Redzone负责产品工程的高级副总裁兼AI主管Ron Davis补充说,使AI治理变得复杂的不仅是部署速度,还有技术本身的发展速度。
“AI创新的发展速度超过了大多数企业制定控制措施的速度,迫使团队在扩展技术的同时扩展治理,”他说,“使这些挑战更加复杂的是,AI治理仍是一个新兴领域,标准和操作模型仍在形成中。”
他补充说,在制造业,AI治理的挑战更加严峻,因为AI越来越多地影响影响安全和质量的生产决策。“因此,企业在平衡速度、风险、问责和安全的同时,还要应对不确定性。”Davis说。
不良数据治理
网络设备供应商Extreme Networks的首席信息与客户官Anisha Vaswani补充说,在许多企业中,对更好AI治理的追求源于缺乏良好的数据治理。她指出,许多企业仍在努力实现良好的数据治理。
“除此之外,你还面临着快速变化的技术格局、新的投资、人员技能提升等挑战,而这些都是实现有效治理所必需的,这加剧了问题,”她补充说,“你面临着数据复杂性和碎片化、模型碎片化、AI技术格局快速变化等诸多问题,而要治理这些问题,你需要了解它们,需要跟上它们的步伐,而它们的变化速度太快了。”
Vaswani建议企业建立跨职能团队来解决治理问题,她补充说,CIO和其他IT领导者在推动AI工具的可审计性和可解释性方面发挥着重要作用。
“治理的一部分就像扮演那个总是唱反调的尼尔莉,问‘可能会出什么问题,以及我们将如何减轻影响?’”她说,“我们还没有完全解决这个问题,这是一项新兴技术。”
思科的Yokoyama也认同,建立良好的实践将是一项协作努力,因为AI治理涉及企业内的多个学科。
“IT专业人员能看到法律看不到的、隐私看不到的、工程师看不到的东西,而在那个圈子里,工程师又能看到我们看不到的东西,”她说,“如果你没有一种机制来进行这种对话,特别是在大公司里,你就无法进行对话,你只能在事后学习,然后被动应对。”
Davis也认同,有效的AI治理需要广泛的跨职能参与。
“企业应召集产品、工程、运营、法律和业务领导者来定义共同的标准和问责制,”他说,“这不是一个一次性的框架,而是一个持续的运营模型,嵌入到整个企业的产品生命周期中,并随着AI能力和用例的成熟而不断发展。”
需要领导者
Davis补充说,领导力也很重要,高层管理者需要将治理定义为部署AI的核心责任,他建议领导者在AI产品生命周期中明确所有权、决策权和升级路径。
他补充说,企业还应避免将监管视为治理模型的唯一驱动力。“相反,领导者应将治理决策锚定在人类影响上,确保AI系统的设计、部署和使用都明确关注安全、信任和负责任的执行,”Davis说。
Eagle Eye Group的Schertzer也建议IT领导者将治理视为财务监督,而非繁文缛节。IT领导者应定期进行偏见审计。
“关键在于回答‘当AI出错时,谁来负责?’并明确角色和升级路径。”他说。
Schertzer表示,IT领导者还应记录哪些AI输出可以解释,哪些不能解释。他补充说:“成熟的计划不是承诺完美的可解释性,而是记录模型局限性、定义审查检查点,并创建监督和纠正工作流程,这才是将负责任的AI转化为日常可重复实践的关键。”
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内头部的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。






























































































京公网安备 11010502049343号