当前位置:安全行业动态 → 正文

AI的效能在网络安全方面受到限制,但在网络犯罪方面却是无限的

责任编辑:cres 作者:Aimei Wei |来源:企业网D1Net  2023-12-21 15:39:26 原创文章 企业网D1Net

尽管AI具有巨大的潜力,但在网络安全方面的应用却非常有限。AI安全解决方案存在信任问题,用于开发AI支持的安全产品的数据模型似乎长期处于风险之中,此外,在实施时,AI经常与人类智能发生冲突。
 
AI的双刃性使其成为一个复杂的工具,公司需要更深入地理解和更仔细地使用它。相比之下,威胁参与者正在利用AI,几乎没有任何限制。
 
缺乏信任
 
在网络安全中采用AI驱动的解决方案的最大问题之一是建立信任,许多公司对安全公司的AI产品持怀疑态度,这是可以理解的,因为其中几个AI安全解决方案被过度炒作,未能交付。许多被宣传为AI增强的产品并没有达到预期。
 
这些产品最广为人知的好处之一是,它们极大地简化了安全任务,即使是非安全人员也能完成这些任务,这种说法往往令人失望,特别是对于那些在网络安全人才匮乏的问题上苦苦挣扎的组织来说。AI本应是网络安全人才短缺的解决方案之一,但过度承诺和承诺不足的公司无助于解决问题-事实上,它们正在破坏与AI相关的说法的可信度。
 
让工具和系统变得更加用户友好,即使是对不了解情况的用户,也是网络安全的主要愿望之一,不幸的是,考虑到威胁的演变性质以及削弱安全态势的各种因素(如内部攻击),这很难实现。几乎所有的AI系统仍然需要人类的指导,AI没有能力推翻人类的决定,例如,AI辅助的SIEM可能会准确地指出异常情况,供安全人员评估,然而,内部威胁参与者可能会阻止对系统发现的安全问题的正确处理,使得在这种情况下使用AI实际上是徒劳的。
 
然而,一些网络安全软件供应商确实提供了充分利用AI好处的工具,例如,集成了AI的扩展检测和响应(XDR)系统在检测和响应复杂攻击序列方面有着良好的记录。通过利用ML来扩大安全操作并确保随着时间的推移更高效的检测和响应流程,XDR提供了实质性的好处,可以帮助缓解人们对AI安全产品的怀疑。
 
数据模型和安全性的限制
 
另一个影响使用AI对抗AI辅助威胁的有效性的问题是,一些公司倾向于关注有限或不具代表性的数据。理想情况下,AI系统应该提供真实世界的数据,以描述地面正在发生的事情和公司遇到的特定情况,然而,这是一项巨大的努力。从世界各地收集数据来代表所有可能的威胁和攻击场景的成本非常高,即使是最大的公司也试图尽可能避免这种情况。
 
在拥挤的市场中竞争的安全解决方案供应商也试图尽快推出他们的产品,尽他们所能提供各种花哨的东西,但很少或根本不考虑数据安全,这会使他们的数据面临可能的篡改或损坏。
 
好消息是,有许多具有成本效益的免费资源可以解决这些问题,公司可以求助于免费的威胁情报来源和声誉良好的网络安全框架,如MITRE、ATT和CK。此外,为了反映特定公司的行为和活动,AI可以针对用户或实体行为进行培训,这使系统能够超越一般威胁情报数据——例如危害指标和文件的好坏特征——并查看特定于公司的详细信息。
 
在安全方面,有许多解决方案可以成功地遏制数据泄露企图,但仅有这些工具是不够的,同样重要的是,制定适当的法规、标准和内部政策,从整体上挫败旨在防止AI正确识别和阻止威胁的数据攻击。正在进行的由政府发起的AI监管谈判以及MITRE提出的AI安全监管框架是朝着正确方向迈出的一步。
 
人类智慧至高无上
 
AI能够规避人类决策的时代还需要几十年甚至几个世纪的时间,这通常是一件积极的事情,但也有它的阴暗面,人类可以对AI的判断或决定不屑一顾,这是一件好事,但这也意味着,以人为目标的威胁,如社会攻击,仍然有效,例如,AI安全系统可能会在检测到风险后自动编辑电子邮件或网页中的链接,但人类用户也可以忽略或禁用这一机制。
 
简而言之,我们对人类智能的最终依赖正在阻碍AI技术对抗AI辅助的网络攻击的能力,虽然威胁参与者不分青红皂白地自动化新恶意软件的生成和攻击的传播,但现有的AI安全解决方案旨在屈服于人类的决策,防止完全自动化的行动,特别是在AI的“黑匣子问题”的情况下。
 
就目前而言,推动力并不是实现一个完全可以独立工作的AI网络安全系统,允许人类智能占上风造成的漏洞可以通过网络安全教育来解决,公司可以定期举办网络安全培训,以确保员工使用安全最佳实践,并帮助他们更熟练地检测威胁和评估事件。
 
顺从人类的智慧是正确的,也是必要的,至少目前是这样。尽管如此,重要的是要确保这不会成为网络犯罪分子可以利用的漏洞。
 
建造和保护东西比摧毁它们更难。由于各种因素,使用AI对抗网络威胁总是具有挑战性的,包括建立信任的需要,使用数据进行ML训练时所需的谨慎,以及人类决策的重要性。网络罪犯很容易忽视所有这些考虑,所以有时他们似乎占据了上风。
 
尽管如此,这个问题并不是没有解决方案,可以在标准和条例的帮助下建立信任,以及安全提供商在显示其索赔记录方面的认真努力,数据模型可以使用复杂的数据安全解决方案进行保护,与此同时,我们对人类决策的持续依赖可以通过充分的网络安全教育和培训来解决。
 
恶性循环仍在运行,但我们可以找到希望,因为它也适用于相反的情况:随着AI威胁的继续演变,AI网络防御也将不断演变。
 
企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)。
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:网络安全AI

原创文章 企业网D1Net

x AI的效能在网络安全方面受到限制,但在网络犯罪方面却是无限的 扫一扫
分享本文到朋友圈
当前位置:安全行业动态 → 正文

AI的效能在网络安全方面受到限制,但在网络犯罪方面却是无限的

责任编辑:cres 作者:Aimei Wei |来源:企业网D1Net  2023-12-21 15:39:26 原创文章 企业网D1Net

尽管AI具有巨大的潜力,但在网络安全方面的应用却非常有限。AI安全解决方案存在信任问题,用于开发AI支持的安全产品的数据模型似乎长期处于风险之中,此外,在实施时,AI经常与人类智能发生冲突。
 
AI的双刃性使其成为一个复杂的工具,公司需要更深入地理解和更仔细地使用它。相比之下,威胁参与者正在利用AI,几乎没有任何限制。
 
缺乏信任
 
在网络安全中采用AI驱动的解决方案的最大问题之一是建立信任,许多公司对安全公司的AI产品持怀疑态度,这是可以理解的,因为其中几个AI安全解决方案被过度炒作,未能交付。许多被宣传为AI增强的产品并没有达到预期。
 
这些产品最广为人知的好处之一是,它们极大地简化了安全任务,即使是非安全人员也能完成这些任务,这种说法往往令人失望,特别是对于那些在网络安全人才匮乏的问题上苦苦挣扎的组织来说。AI本应是网络安全人才短缺的解决方案之一,但过度承诺和承诺不足的公司无助于解决问题-事实上,它们正在破坏与AI相关的说法的可信度。
 
让工具和系统变得更加用户友好,即使是对不了解情况的用户,也是网络安全的主要愿望之一,不幸的是,考虑到威胁的演变性质以及削弱安全态势的各种因素(如内部攻击),这很难实现。几乎所有的AI系统仍然需要人类的指导,AI没有能力推翻人类的决定,例如,AI辅助的SIEM可能会准确地指出异常情况,供安全人员评估,然而,内部威胁参与者可能会阻止对系统发现的安全问题的正确处理,使得在这种情况下使用AI实际上是徒劳的。
 
然而,一些网络安全软件供应商确实提供了充分利用AI好处的工具,例如,集成了AI的扩展检测和响应(XDR)系统在检测和响应复杂攻击序列方面有着良好的记录。通过利用ML来扩大安全操作并确保随着时间的推移更高效的检测和响应流程,XDR提供了实质性的好处,可以帮助缓解人们对AI安全产品的怀疑。
 
数据模型和安全性的限制
 
另一个影响使用AI对抗AI辅助威胁的有效性的问题是,一些公司倾向于关注有限或不具代表性的数据。理想情况下,AI系统应该提供真实世界的数据,以描述地面正在发生的事情和公司遇到的特定情况,然而,这是一项巨大的努力。从世界各地收集数据来代表所有可能的威胁和攻击场景的成本非常高,即使是最大的公司也试图尽可能避免这种情况。
 
在拥挤的市场中竞争的安全解决方案供应商也试图尽快推出他们的产品,尽他们所能提供各种花哨的东西,但很少或根本不考虑数据安全,这会使他们的数据面临可能的篡改或损坏。
 
好消息是,有许多具有成本效益的免费资源可以解决这些问题,公司可以求助于免费的威胁情报来源和声誉良好的网络安全框架,如MITRE、ATT和CK。此外,为了反映特定公司的行为和活动,AI可以针对用户或实体行为进行培训,这使系统能够超越一般威胁情报数据——例如危害指标和文件的好坏特征——并查看特定于公司的详细信息。
 
在安全方面,有许多解决方案可以成功地遏制数据泄露企图,但仅有这些工具是不够的,同样重要的是,制定适当的法规、标准和内部政策,从整体上挫败旨在防止AI正确识别和阻止威胁的数据攻击。正在进行的由政府发起的AI监管谈判以及MITRE提出的AI安全监管框架是朝着正确方向迈出的一步。
 
人类智慧至高无上
 
AI能够规避人类决策的时代还需要几十年甚至几个世纪的时间,这通常是一件积极的事情,但也有它的阴暗面,人类可以对AI的判断或决定不屑一顾,这是一件好事,但这也意味着,以人为目标的威胁,如社会攻击,仍然有效,例如,AI安全系统可能会在检测到风险后自动编辑电子邮件或网页中的链接,但人类用户也可以忽略或禁用这一机制。
 
简而言之,我们对人类智能的最终依赖正在阻碍AI技术对抗AI辅助的网络攻击的能力,虽然威胁参与者不分青红皂白地自动化新恶意软件的生成和攻击的传播,但现有的AI安全解决方案旨在屈服于人类的决策,防止完全自动化的行动,特别是在AI的“黑匣子问题”的情况下。
 
就目前而言,推动力并不是实现一个完全可以独立工作的AI网络安全系统,允许人类智能占上风造成的漏洞可以通过网络安全教育来解决,公司可以定期举办网络安全培训,以确保员工使用安全最佳实践,并帮助他们更熟练地检测威胁和评估事件。
 
顺从人类的智慧是正确的,也是必要的,至少目前是这样。尽管如此,重要的是要确保这不会成为网络犯罪分子可以利用的漏洞。
 
建造和保护东西比摧毁它们更难。由于各种因素,使用AI对抗网络威胁总是具有挑战性的,包括建立信任的需要,使用数据进行ML训练时所需的谨慎,以及人类决策的重要性。网络罪犯很容易忽视所有这些考虑,所以有时他们似乎占据了上风。
 
尽管如此,这个问题并不是没有解决方案,可以在标准和条例的帮助下建立信任,以及安全提供商在显示其索赔记录方面的认真努力,数据模型可以使用复杂的数据安全解决方案进行保护,与此同时,我们对人类决策的持续依赖可以通过充分的网络安全教育和培训来解决。
 
恶性循环仍在运行,但我们可以找到希望,因为它也适用于相反的情况:随着AI威胁的继续演变,AI网络防御也将不断演变。
 
企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)。
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:网络安全AI

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^