译自:Revolutionizing Offensive Security: A New Era With Agentic AI 作者:Shahar Peled
如果我们审视人类和自动化攻击性安全方面的局限性,我们就会对 Agentic AI 正在实现的范式转变感到兴奋。
回顾过去十年安全领域的发展,我对安全升级到现代 DevOps、CI/CD 和云实践所做的出色工作感到无比钦佩和自豪。但仔细观察后,我发现进攻性安全(渗透测试、红队演练、道德黑客),长期以来被认为是发现具有业务影响的真正可利用漏洞的最有效方法之一,实际上还停留在远古时代。
它几乎完全是手动的,主要以服务而非产品的形式提供。虽然我们今天所知的这些服务可以提供有价值的见解,但它们也受到以下问题的困扰:
大多数进攻性安全服务侧重于数量而非质量,通常依赖于初级测试人员或外包团队。对于试图跟上快速发展的威胁形势的企业来说,目前的方法还远远不够。
进攻性安全的内在价值在于能够摆脱管理数百万未经证实的漏洞,而只关注那些真正可利用且可能对业务产生实际影响的漏洞。这是最终的现实检验。
没有猜测或理论上的风险管理。进攻性安全会准确地告诉你,如果攻击者今天以你的业务为目标,他们可能会取得什么成果。
以基础设施为中心的进攻性安全工具在自动化网络渗透测试方面取得了进展,但对于 Web 应用程序和其他面向客户的资产,产品化解决方案始终无法满足需求。
这又回到了每个系统和领域中众所周知的最后一英里问题,无论是 DevOps、DevSecOps 还是 AppSec。这是因为每个应用程序都不同,每个企业都面临着独特的风险,而历史上不可能复制导航这些细微差别所需的人类般的推理能力。工具最终依赖于硬编码的用例,这些用例是肤浅的,并且主要迎合了最低的共同点。但对于现代系统和应用程序的复杂性而言,根本没有一种万能的方法。
这反映了 DAST(动态应用程序安全测试)类别的失败,该类别难以提供深度、适应独特的场景或提供可操作的后续步骤。
结果呢?
公司仍然依赖于进攻性安全服务,不是因为他们想这样做,而是因为他们不得不这样做。无论是为了 SOC2 等合规性要求、面向客户的报告,还是为了更深入地了解可利用的漏洞,都没有可行的替代方案。
如前所述,一些已知的进攻性安全限制被转移到渗透测试的自动化变体中,而这些变体根本经不起时间的考验。
这些包括:
多年来,进攻性安全的艺术一直由人类的创造力来定义,这是一把双刃剑。虽然这有助于进攻性安全的情境感知思维、适应性推理以及模拟攻击者心态的能力,从而使这些服务如此有效,但最终它变得难以扩展。
然后,生成式 AI (GenAI) 出现了,它改变了许多领域。安全也不例外。
随着大型语言模型 (LLM)的兴起,我们进入了一个机器可以以模仿甚至超越人类智能的方式进行思考、推理和适应的时代。这种转变开启了新的可能性。
借助 Agentic AI,我们已经能够大规模地复制最佳进攻性安全专业人员的深度、创造力和适应性。
如果我们审视人类和自动化进攻性安全方面的局限性,我们就会开始对 agentic AI 带来的范式转变感到兴奋。
以前该领域不可能实现的功能已经出现。它具有以下特点:
这不仅仅是合规驱动的安全,而是真实的保护。
需要明确的是:这项技术还不完善。LLM 可能会产生幻觉,它们的输出并不总是确定性的,并且监管问题仍然悬而未决。这就是为什么人为因素仍然至关重要,并且(尚未)可以完全被机器取代。
通过将 AI 与人工监督相结合,我们可以实现两全其美。这种未来主义的进攻性安全会是什么样子?智能、学习、自适应的 LLM 与以下各项相结合:
这种混合模型弥合了 AI 驱动的可扩展性与企业所依赖的、并且尚未准备好完全放弃的(并且有充分的理由!)值得信赖的专业知识之间的差距。
随着越来越多的法规、标准和其他繁文缛节,安全常常变得以合规性为导向,而不是实用。
网络安全的未来不是关于被动防御或合规驱动的测试。而是关于真正主动、智能和可扩展的保护。进攻性安全一直是了解风险的最有效方法,但直到现在,它的实施过于繁琐,使得许多企业无法充分利用它并遥不可及。
Agentic AI 的定位是彻底重置该领域。通过将日益成熟的新技术与值得信赖的人工专业知识相结合,我们正在努力使数字世界对每个人都更安全。