根据这份报告,与2023年1月至5月期间相比,2023年6月至10月期间泄露的ChatGPT凭据增加了36%,LummaC2被发现是最常用的数据泄露工具,此外,亚太地区的目标最为常见,其次是欧洲和中东。
此外,在此期间还开发了类似ChatGPT的工具,包括WormGPT、WolfGPT、DarkBARD和FraudGPT,这些工具通过社交攻击和网络钓鱼策略被用来启用信息窃取恶意软件活动。
这一发展突显了AI与敏感组织数据相关的威胁。出于工作目的,员工经常在聊天机器人中输入机密信息或专有代码,这可能会让坏人获得敏感情报。
有报道称,超过4%的员工将敏感数据输入到AI聊天机器人中,包括商业信息、个人身份信息和源代码,这突出了企业实施最佳实践的必要性,包括对复制-粘贴操作的控制和AI交互的组级安全控制。
企业网D1net(www.d1net.com):
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。