网络中的AI需要复杂的成本与收益分析

科技2020-08-16 18:55:28
导读

可能表示攻击或由于攻击而丢失的数据量要求监控水平超出人类网络安全专家团队所能达到的水平。威胁和异常检测(TAD)的确切定义是自动化的秘诀:在数据集中查找异常值,这是识别模式的重复性任务。

使用AI自动化某些网络安全任务有明显的优势。这些模式的识别可以有助于建立预测模型,以在攻击发生之前进行识别,或者在攻击进行时提供决策支持。

这些AI应用程序通常可以从无监督学习中收集他们的见解,以进行模型开发或神经网络,从而产生非常有希望的结果。但是,他们缺乏为单个决策提供透明解释的能力。

网络安全中的AI有两个主要缺点

自动化给网络安全带来了争议。我们证明自动化合理性的方法固有地需要信任。如果目标是将宝贵的人员能力从重复的,费时的任务中解放出来,则我们从根本上希望将人员从这些任务中解脱出来,这意味着我们必须信任该系统,以产生比团队负责的结果更好或更好的结果。

有一个基线假设,那就是当我们实现自动化时,这是因为我们相信系统能够令人满意地完成任务。网络安全中自动化的许多好处来自AI应用程序,这些应用程序长期以来无法调用信任。

将AI应用程序用于预测性和自动化的网络安全态势,对赢得公司和受保护利益相关者的信任带来了两个主要挑战。

首先,这些预测性网络安全实施中的许多实施都依赖于无监督的学习技术或神经网络,而这些技术或神经网络目前无法提供人类可读的本地化解释。

其次,这些应用程序还展示了黑客可能利用的新漏洞,从而增加了公司的攻击向量。对AI应用程序的攻击采用与传统攻击不同的形式。对AI应用程序的攻击不是窃取有效载荷,而是试图改变或影响AI应用程序的行为,从而对黑客有利。尽管在开发追溯应用的解释模型方面做出了努力并取得了一些成功,但在将AI用于自动网络安全策略时,目前尚无法建立高度信任。

网络安全中的AI付出了代价

这两个方面-AI非常适合许多网络安全任务,以及当前无法在不熟悉的环境中信任不熟悉的技术-意味着当信任仍然存在时,我们将无法管理AI。我们需要针对AI的不同管理策略,尤其是对于网络安全。我们需要不断监控,基准测试,评估和改进这些系统,而不是信任它们。

由于我们尚无法可靠地信任我们的AI网络安全工具来提供解释或不受后门攻击或数据中毒的影响,因此我们必须对用来训练包括输入数据的模型的框架保持怀疑,产生的结果以及我们对成功的衡量。

免责声明:本文由用户上传,如有侵权请联系删除!