Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【顶会论文分享】BARS:基于深度学习的流量分析系统的鲁棒性认证

【顶会论文分享】BARS:基于深度学习的流量分析系统的鲁棒性认证

作者头像
绿盟科技研究通讯
发布于 2024-01-02 09:48:55
发布于 2024-01-02 09:48:55
8220
举报

一. 引言

深度学习技术被广泛应用于各种流量分析系统,如网络入侵检测系统、概念漂移流量检测系统、流量多分类系统等。然而深度学习在面对攻击数据时易受数据扰动影响,这将导致流量分析器的检测性能下降。本篇研究集中解决基于深度学习模型的鲁棒性认证问题。

本文介绍一篇来自Network and Distributed System Security Symposium (NDSS) 的文章《BARS: Local Robustness Certification for Deep Learning based Traffic Analysis Systems》[1],它是一种基于边界自适应随机平滑的深度学习流量分析系统的通用鲁棒性认证框架,旨在提高基于深度学习流量分析系统的鲁棒性能力。

二. 模型框架

深度学习的流量分析系统的以下三个属性,使得鲁棒性认证方法具有挑战性:

(1) 流量特征具有高度异构性;

(2) 流量分析器的模型设计多样;

(3) 流量分析器通常运行在对抗环境中;

BARS的提出可以很好的解决上述问题,其核心思想是生成优化的平滑噪声,该噪声在异构特征下收敛于分类边界,并提供严格的鲁棒性保证。BARS的整体框架如图1所示。

图1 BARS框架图

图1左侧表示在三个实用的基于深度学习的流量分析系统上进行BARS的实现与评估,分别是Kitsune(零正NIDS)、CADE(概念漂移检测系统)、ACID (监督多分类系统)。

中间部分为BARS的基本框架,分为训练阶段和认证阶段。分布变换器是一个参数化模型,可以将各向同性的经典噪声分布转换为各向异性的优化噪声分布,并提供维度异构鲁棒性保证。为优化平滑噪声,对其使用特殊分布函数的叠加,并使用基于梯度的算法搜索其参数,以优化噪声形状和优化噪声强度。

图1右侧部分展示了五个实际案例,表明安全操作员可以通过使用BARS定量评估鲁棒性,减少误报,意识到逃避攻击,防御逃避攻击,并解释基于深度学习流量分析系统的攻击检测。

三. BARS设计细节

3.1

构建分布变换器

通过分布变换器模型将各向同性的经典平滑噪声转换为各向异性的优化平滑噪声使得在流量分析领域提供严密的鲁棒性保证。如图2所示,中间彩色模块是分布变换器,不同颜色的模块作用于不同特征,每个模块将左侧的各向同性的经典平滑噪声转换为右侧的各向异性的优化平滑噪声。

图2 分布变换器

鲁棒性保证的紧密性取决于噪声分布尺度和噪声分布函数,为保证较强鲁棒性本文提出两种分布变压器,一种是线性的,称为BARS-L;另一种是对分布变换器采用分布函数,称为BARS-G。

3.2

优化噪声分布

该部分主要包括噪声形状优化和噪声强度优化。

首先基于梯度优化噪声形状,生成尽可能靠近分类边界的特征噪声。举个二维特征例子如图3,通过优化参数最终使得错误分类的噪声样本(上和下)向正确的决策区域移动,使正确分类的噪声样本(左和右)向错误的决策区域移动,通过此方法使得噪声样本在多维上接近分类边界。

图3 优化噪声形状

文章提出基于梯度的优化噪声尺度的搜索算法,图4给出了噪声尺度优化的详细过程。

图4 优化噪声尺度

3.3

BARS实际应用

在使用BARS对流量分析器进行应用时,需要进行如下处理:

(1) 过滤掉不可预见的类,对于未预见类别的样本没必要证明其局部鲁棒性。

(2) 对于多类数据集,设置类特定的分布变换器。

(3) 用噪声数据增强对流量分析器进行再训练以提高性能和鲁棒性。

(4) 为定量描述认证数据集下流量分析器的鲁棒性,可以将维度异构鲁棒性半径扩展到数据集的均值(MRR)。即MRR越大流量分析系统鲁棒性越强。

四. 实验评估

4.1

数据集介绍

在以下三种基于深度学习的流量分析器中进行BARS性能的评估:Kitsune(零正NIDS)、CADE(概念漂移检测系统)和ACID(监督多分类系统)。实验数据如表1。

表1 实验数据集

4.2

稳健性评估

实验基于认证精度和稳健性半径的流量分析器比较了BARS与基线方法稳健性保证紧密性。

在CROWN-IBP、α-CROWN、β-CROWN中,为了绘制完整的曲线,需要在不同的扰动下多次运行它们(本文中为100次)。

实验结果如图5所示。在所有经过认证的基于DL的流量分析器中,BARS显著优于基线方法。另外,由于特征噪声的叠加分布,BARS-G的性能优于BARS-L。

图5 各流量分析系统中不同稳健性认证方法的认证精度和稳健性半径

4.3

延迟性评估

实验中实时认证效率决定了运营商能否快速响应攻击活动。实验比较了三个流量分析器使用BARS与其他基线方法的认证延迟和MRR。

实验结果如表2所示。发现BARS认证延迟低于除V.R.S.外的所有基线方法,BARS相比于V.R.S.使用了优化的噪声分布。另外,随着特殊分布数量的增加,BARS-G的认证延迟也会增加。

表2流量分析系统在不同鲁棒性认证方法的认证延迟比较

4.4

定量评估稳健性

以Kitsune为例,实验结果如图6,F1值是性能的体现,MRR是鲁棒性的体现,图中反应了F1值与MRR随着阈值设置大小的变化。因此在进行阈值的选择时需同时考虑性能和鲁棒性。

图6 Kitsune在不同检测阈值下的MRR 和 F1得分

五. 总结

深度学习作为人工智能领域的核心组成,其鲁棒性一直是研究和应用的重要课题。本文介绍了一种基于深度学习技术的流量分析系统的通用鲁棒性认证框架BARS,通过分布变压器产生优化噪声,再使用两种基于梯度的算法优化噪声形状和强度,实现了在深度学习流量分析系统上的鲁棒性评估。希望读者能够通过此文深度思考深度学习模型鲁棒性在安全领域应用问题,并探索实际落地中的挑战和解决方案。

参考文献

【1】Wang K, Wang Z, Han D. BARS: Local Robustness Certification for Deep Learning based Traffic Analysis Systems. Network and Distributed System Security Symposium.

内容编辑:创新研究院 薛甜 责任编辑:创新研究院 舒展

本公众号原创文章仅代表作者观点,不代表绿盟科技立场。所有原创内容版权均属绿盟科技研究通讯。未经授权,严禁任何媒体以及微信公众号复制、转载、摘编或以其他方式使用,转载须注明来自绿盟科技研究通讯并附上本文链接。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-12-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 绿盟科技研究通讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
深度学习模型的可靠性研究(综述)
在大数据时代下,深度学习理论和技术取得的突破性进展,为人工智能提供了数据和算法层面的强有力 支撑,同时促进了深度学习的规模化和产业化发展.然而,尽管深度学习模型在现实应用中有着出色的表现,但 其本身仍然面临着诸多的安全威胁.为了构建安全可靠的深度学习系统,消除深度学习模型在实际部署应用中的潜在安全风险,深度学习模型鲁棒性分析问题吸引了学术界和工业界的广泛关注,一大批学者分别从精确和近似的角度对深度学习模型鲁棒性(Robustness,亦称稳健性、可靠性)问题进行了深入的研究,并且提出了一系列的模型鲁棒性量化分析方法。
算法进阶
2023/08/28
8070
深度学习模型的可靠性研究(综述)
论文精读|2024[KDD]ImputeFormer: 用于广义时空补全的低秩诱导的Transformer
题目:ImputeFormer: Low Rankness-Induced Transformers for Generalizable Spatiotemporal Imputation
时空探索之旅
2024/11/19
6000
论文精读|2024[KDD]ImputeFormer: 用于广义时空补全的低秩诱导的Transformer
​AI论文速读 |2024[IJCAI]TrajCL: 稳健轨迹表示:通过因果学习隔离环境混杂因素
题目:Towards Robust Trajectory Representations: Isolating Environmental Confounders with Causal Learning
时空探索之旅
2024/11/19
1840
​AI论文速读 |2024[IJCAI]TrajCL: 稳健轨迹表示:通过因果学习隔离环境混杂因素
CVPR 2021| 基于深度图匹配的鲁棒点云配准框架
Robust Point Cloud Registration Framework Based on Deep Graph Matching
计算机视觉
2021/03/17
1.6K0
研学社•架构组 | 实时深度学习的推理加速和连续学习
机器之心原创 作者:Yanchen Wang 参与:panda 在本技术分析报告的第一部分《研学社·系统组 | 实时深度学习的推理加速和持续训练》,我们介绍了最近一些用于 DNN 推理加速的硬件和算法技术。在这第二部分,我们将基于最近一篇论文《在连续学习场景中对深度神经网络进行微调(Fine-Tuning Deep Neural Networksin Continuous Learning Scenarios)》探讨 DNN 连续学习,该论文的作者为 Christoph Kading、Erik Rodner
机器之心
2018/05/08
8180
研学社•架构组 | 实时深度学习的推理加速和连续学习
SL-SLAM:基于深度特征提取和鲁棒匹配的视觉惯性SLAM
文章:SL-SLAM: A robust visual-inertial SLAM based deep feature extraction and matching
点云PCL博主
2024/05/20
1.2K0
SL-SLAM:基于深度特征提取和鲁棒匹配的视觉惯性SLAM
LIR-LIVO:一种轻量级、鲁棒的激光雷达/视觉/惯性里程计,具备对光照变化具有适应性的深度特征
文章:LIR-LIVO: A Lightweight,Robust LiDAR/Vision/Inertial Odometry with Illumination-Resilient Deep Features
点云PCL博主
2025/03/07
2080
LIR-LIVO:一种轻量级、鲁棒的激光雷达/视觉/惯性里程计,具备对光照变化具有适应性的深度特征
深度学习模型用于心理状态解码
在心理状态解码中,研究人员旨在确定可以从大脑区域(或网络)的活动模式中可靠地识别的心理状态(例如,体验快乐或恐惧)的集合。深度学习(DL)模型对于心理状态解码来说是非常有希望的,因为它们在学习复杂数据的多功能表征方面具有无可比拟的能力。然而,它们在心理状态解码中的广泛应用受到了阻碍,因为它们缺乏可解释性,难以将其应用于小数据集,也难以确保其可重复性和稳健性。我们建议通过利用可解释人工智能(XAI)和迁移学习的最新进展来应对这些挑战,并就如何提高心理状态解码中DL模型的可重复性和稳健性提供建议。
悦影科技
2023/04/18
4100
物理攻击「损害」深度学习系统,CV、语音领域如何防御?
机器之心分析师网络 作者:Jiying 编辑:H4O  本文结合三篇最新的论文具体讨论计算机视觉领域中的物理攻击及检测方法,包括视觉领域和音频领域。 0、引言 对抗性攻击的概念首先由 Goodfellow 等人提出 [6],近年来,这一问题引起了越来越多研究人员的关注,对抗性攻击的方法也逐渐从算法领域进入到物理世界,出现了物理对抗性攻击。文献[1] 中首次提出了利用掩模方法将对抗性扰动集中到一个小区域,并对带有涂鸦的真实交通标志实施物理攻击。与基于噪声的对抗性攻击相比,物理攻击降低了攻击难度,进一步损害了
机器之心
2022/04/06
9980
物理攻击「损害」深度学习系统,CV、语音领域如何防御?
【硬核书】机器学习对抗鲁棒性
来源:专知本文为书籍介绍,建议阅读5分钟本书介绍了对抗性攻击、防御和验证的常用算法。 机器学习的对抗性鲁棒性综述了该课题的最新进展,介绍了对抗性攻击、防御和验证的常用算法。章节涵盖了对抗性攻击、验证和防御,主要关注图像分类应用,这是对抗性鲁棒性社区考虑的标准基准。其他部分讨论了图像分类以外的对抗例子,测试时间攻击以外的其他威胁模型,以及对抗鲁棒性的应用。对于研究人员,本书提供了一个全面的文献综述,总结了该领域的最新进展,可以作为一个很好的参考,进行未来的研究。此外,本书还可以作为研究生课程的教材,讲授对抗
数据派THU
2022/09/23
6910
【硬核书】机器学习对抗鲁棒性
【论文复现】单目深度估计的新突破
在计算机视觉领域,深度学习技术已经成为解决许多任务的主要方法,其中包括图像分类、目标检测、语义分割等。然而,在单目深度估计方面,仍然存在着一些挑战。单目深度估计是指从单张RGB图像中估计场景中每个像素点的深度信息,这是许多视觉任务的关键前提。本文介绍了两种前沿的方法:稳定扩散和仿射不变深度估计,旨在解决深度估计中的关键问题。在本节中,我们将简要介绍这两个概念,并探讨研究的背景和动机。
Eternity._
2024/11/26
7250
【论文复现】单目深度估计的新突破
【ICLR2018 最高分论文】利用分布鲁棒优化方法应对对抗样本干扰
【导读】近日,深度学习顶会ICLR2018评审结果出炉,得分最高的论文是 《Certifiable Distributional Robustness with Principled Adversarial Training》,得到的是9,9,9的高分,三个评审人都给出了非常肯定的评价,这篇论文主要是针对在有对抗样本时,神经网络会非常脆弱,训练集中有个别的对抗样本常常就会导致训练的模型完全失效的问题,如何利用神经网络学到鲁棒的数据分布是一个非常重要的研究方向,论文提出一种称作分布鲁棒优化的方法来确保模型在有
WZEARW
2018/04/11
3.2K0
【ICLR2018 最高分论文】利用分布鲁棒优化方法应对对抗样本干扰
CVPR 2022 | 常见3D损坏和数据增强
论文名称:3D Common Corruptions and Data Augmentation(CVPR2022[Oral])
3D视觉工坊
2023/04/29
6440
CVPR 2022 | 常见3D损坏和数据增强
【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台
在对抗攻击场景下,攻击者通过对合法输入的微扰生成对抗样本(Adversarial Example, AE),并试图使用对抗样本使目标深度学习(DL)模型误分类。由于DL模型在对抗样本的攻击下较为脆弱,因此限制了深度学习应用于具有较高安全性要求的领域,如自动驾驶、人脸识别、恶意软件检测等。防守方通常希望增强模型对对抗样本的防御能力,同时又能最大限度地保证模型的分类性能。虽然学术界和工业界对对抗样本的研究逐渐深入,攻击和防御手段在不断更新,但是仍很难说明哪些攻击样本隐蔽性或可转移性更高,或者哪种防御方法更加有效通用。
绿盟科技研究通讯
2023/02/22
1.4K0
【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台
深度学习中的标签噪声处理:WANN方法与鲁棒损失函数的比较研究 !
深度神经网络在众多领域取得了显著的成果,这要归功于不断增长的计算能力。这一进步使得可以开发出更深层次、具有更强大学习能力的架构。然而,这些高度参数化的架构通常被认为需要大量数据才能有效地泛化。收集和标注这样的大型数据集既耗资又耗时,可能会引入机器和人为错误。事实上,真实世界数据集中损坏标签的比例范围从8-38.5%(Song等人,2022年)。尽管最近无监督和半监督方法在研究社区中受到了广泛关注,但受监督方法仍然广泛应用,因为它们的性能通常更高。因此,错误的标签给深度模型带来了巨大的挑战,特别是在安全关键领域,例如医疗保健中,它们倾向于记忆标签噪声,从而严重影响了泛化能力。正如张等人(2021年)所展示的那样,这个问题正在阻碍人工智能系统在安全关键领域的应用。
未来先知
2024/09/26
2270
深度学习中的标签噪声处理:WANN方法与鲁棒损失函数的比较研究 !
如何从频域的角度解释CNN(卷积神经网络)?
时域卷积=频域乘积,卷积神经网络大部分的计算也在卷积部分,如何从频域的角度思考卷积神经网络,如何从频域的角度解释ResNet。
abs_zero
2020/11/11
1.3K0
如何从频域的角度解释CNN(卷积神经网络)?
深度学习在股市的应用概述
股票市场预测由于其非线性、高度波动性和复杂性,一直是个复杂的问题。近年来,深度学习在许多领域占据了主导地位,在股市预测方面取得了巨大的成功和普及。本文以深度学习技术为重点,对其应用于股市预测研究进行结构化和全面的概述,介绍了股市预测的四个子任务及股市预测主流模型,并分享了一些关于股市预测的新观点及未来的几个方向。
算法进阶
2023/09/15
1.2K0
深度学习在股市的应用概述
60项基于深度学习的SLAM顶会开源方案汇总(下篇)
深度学习结合SLAM是近年来很热门的研究方向,也因此诞生了很多开源方案。笔者最近在阅读SLAM综述论文“A Survey on Deep Learning for Localization and Mapping: Towards the Age of Spatial Machine Intelligence”,该综述参考了255篇SLAM领域的顶会顶刊论文,并且涵盖了VO、建图、特征提取、定位、描述子提取、BA优化、回环、数据集等多个方向,非常全面。
3D视觉工坊
2023/04/29
1.5K0
60项基于深度学习的SLAM顶会开源方案汇总(下篇)
今日 Paper | 人体图像生成和衣服虚拟试穿;鲁棒深度学习;图像风格迁移等
为了帮助各位学术青年更好地学习前沿研究成果和技术,AI科技评论联合Paper 研习社(paper.yanxishe.com),推出【今日 Paper】栏目, 每天都为你精选关于人工智能的前沿学术论文供你学习参考。以下是今日的精选内容——
AI科技评论
2020/01/16
8660
今日 Paper | 人体图像生成和衣服虚拟试穿;鲁棒深度学习;图像风格迁移等
ICLR 2018 | 斯坦福大学论文通过对抗训练实现可保证的分布式鲁棒性
选自ICLR 作者:Aman Sinha, Hongseok Namkoong, John Duchi 机器之心编译 参与:Jane W、黄小天、许迪 神经网络容易受到对抗样本的影响,研究者们提出了许多启发式的攻击和防御机制。本文主要从分布式鲁棒优化的角度出发,从而保证了对抗输入扰动下神经网络的性能。 试想经典的监督学习问题,我们最小化期望损失函数 EP0 [ℓ(θ;Z)](θ∈Θ),其中 Z〜P0 是空间 Z 上的分布,ℓ 是损失函数。在许多系统中,鲁棒性对于变化的数据生成分布 P0 是可取的,不管它们来
机器之心
2018/05/10
6610
推荐阅读
相关推荐
深度学习模型的可靠性研究(综述)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档