一、企业对员工使用AI的防护措施严重不足
仅有17%的企业部署了技术手段,用于拦截或扫描上传至公共AI工具的内容,其余83%的企业仅依赖培训课程、邮件警示或指导准则,部分企业甚至完全没有相关管理政策。
员工常通过安全团队无法监控的设备,向聊天机器人或AI助手分享客户记录、财务数据,甚至账号凭证。一旦这些数据进入AI系统,便再也无法撤回——它们可能在训练模型中留存数年,其访问方式往往超出企业的预测范围。
更值得警惕的是,企业对自身管控能力的过度自信进一步加剧了问题。三分之一的高管认为公司能够追踪所有AI使用行为,但实际上仅有9%的企业拥有可正常运行的AI治理系统。这种 “认知与现实的差距”,导致企业对员工泄露信息的规模完全不知情。
二、AI数据使用的合规风险持续凸显
全球监管机构正加速推进AI领域的监管工作。2024年,美国各机构发布的新AI监管法规达59项,数量较前一年翻倍,然而,仅有12%的企业将 “AI合规违规” 列为首要关注点,企业对合规风险的重视程度与监管力度严重不匹配。
日常运营中的实际风险远高于企业认知,具体可从三类法规要求与企业实践的矛盾中体现:
• 《通用数据保护条例》(GDPR)要求记录所有数据处理活动,但企业无法追踪员工向聊天机器人上传的内容,导致数据处理记录不完整;
• 《健康保险流通与责任法案》(HIPAA)规定,患者信息的访问需留存审计痕迹,但 “影子AI”(未经授权的AI使用行为)的存在,使审计追踪完全无法实现;
• 金融企业与上市公司在遵循《萨班斯 - 奥克斯利法案》(SOX)及相关管控要求时,也因无法监控AI数据流向,面临类似合规困境。
实际上,多数企业连 “哪些AI工具存储了客户数据”“若监管机构要求删除数据该如何操作” 等基础问题都无法回答。在缺乏数据可见性的情况下,员工向聊天机器人输入的每一条指令,都可能成为合规失败的隐患。
三、对CISO的核心启示
对CISO而言,报告结论明确了两大优先任务:
其一,强化技术管控能力。拦截敏感数据上传、在内容抵达AI平台前完成扫描,应被视为企业AI数据安全的基础防护措施。员工培训虽有辅助作用,但数据表明,仅靠培训无法独立应对当前的风险挑战。
其二,完善合规管理体系。监管机构已明确要求企业建立AI治理体系,并开始对违规行为实施处罚。CISO需证明其所在企业能够实时掌握数据流向AI系统的完整路径,并具备有效的管控能力。
Kiteworks企业营销与研究副总裁Patrick Spencer指出:“无论是中东地区企业100%无法实现24小时风险检测,欧洲企业仅12%达到《欧盟数据法案》合规要求,还是亚太地区35%的企业无法评估AI风险,其根本原因始终一致——企业无法保护‘看不见’的数据。”
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。