到目前为止,深度神经网络(DNN)已被证明是非常有前途的广泛应用,包括图像和音频分类。然而,它们的性能很大程度上取决于用于训练它们的数据量,并且大型数据集并不总是容易获得。
如果DNN没有得到足够的培训,他们将更容易对数据进行错误分类。这使得它们容易受到特定类型的网络攻击,这些攻击被称为反击。在对抗性攻击中,攻击者创建旨在欺骗DNN的真实数据的副本(即对抗性数据),并将其欺骗为错误分类的数据,从而破坏其功能。
近年来,计算机科学家和开发人员提出了各种工具,通过检测原始数据和对策数据之间的差异来保护深度神经架构免受这些攻击。然而,到目前为止,这些解决方案还没有被证明是普遍有效的。
武汉大学和武汉软件工程职业学院的研究人员最近推出了一个平台,可以通过计算复制图像的难易程度来评估抵抗DNN的能力,从而评估图像对攻击的鲁棒性。这一名为“傻瓜检查器”的新平台是在爱思唯尔的《神经计算杂志》上发表的一篇论文中介绍的。
研究人员在论文中写道:“我们的论文提出了一个名为FoolChecker的平台,该平台用于从图像本身而不是DNN模型的角度来评估图像对攻击的鲁棒性。”“我们定义了原始示例和对抗示例之间的最小感知距离,以量化对抗攻击的鲁棒性。”
FoolChecker是最早量化图像抗攻击鲁棒性的方法之一。在仿真中,该技术取得了显著的效果,在较短的时间内完成了计算。
在开发该平台时,研究人员比较了许多指标,以量化原始图像和对立图像之间的距离。证明了最有效的测量方法是原始样本和反向样本之间的扰动灵敏度距离。
愚人检测器的工作原理是计算成功欺骗DNN分类器所需的最小PSD。虽然需要人工计算,但研究人员开发了一种将称为差分进化(DE)的技术与贪婪算法相结合的方法,这是一种直观的体系结构,通常用于解决优化问题。
研究人员写道:“首先,应用差分进化来生成具有高干扰优先级的候选干扰单元。”“然后,贪婪算法试图将具有最高干扰优先级的像素添加到干扰单元,直到它欺骗了DNN模型。最后,计算干扰单元的感知距离作为评估图像抵抗攻击的鲁棒性的指标。”
研究人员通过一系列测试对蛮牛检查器进行了评估,发现它可以有效地计算出一些图像经过多DNN处理后对攻击的鲁棒性。他们的研究提供了证据,证明DNN模型的对抗脆弱性也可能是由外部因素(即与模型的性能无关)引起的,例如它正在处理的图像的特征。
换句话说,研究小组发现,图像本身可能在容易修改的程度上有所不同,这可能会导致DNN对数据进行错误分类。未来,他们开发的平台可用于评估馈送给DNN的数据的健壮性,这可能会防止攻击者创建对抗性数据并相应地发起攻击。