马里兰大学开发出一种”隐形斗篷” 可以让监控无法识别到你

该项目为马里兰大学帕克分校和 Facebook AI 的研究人员,关于现实世界中对对象检测器的对抗性攻击研究。

研究团队开发了一种能够在物理和数字环境中有效降低对象检测器性能的对抗性模式,即通过在对象上覆盖特定图案来欺骗检测器,使之无法正确识别对象。

也就是如何在真实世界中欺骗对象检测器。对象检测器是一种技术,通常用在如安全监控和自动驾驶汽车中,用来识别和定位图片中的物体。研究人员创建了一种特殊图案,当这种图案覆盖在物体上时,可以使这些高级检测器无法正确识别或定位物体,就像隐身一样

研究目的:

  1. 对象检测器的安全漏洞:展示了对象检测器可以被有意设计的对抗性图案欺骗,这在安全敏感的应用(如监控和自动驾驶车辆)中可能造成严重问题。
  2. 对抗性攻击的传递性:研究了在不同检测器模型、不同对象类别和不同数据集之间对抗性攻击的传递性。
  3. 物理世界的攻击实施:解决了如何将数字对抗性攻击转换到物理世界的问题,即如何确保数字生成的对抗性图案在现实世界中同样有效。

研究者开发了一种特殊的对抗性图案,当这些图案被应用到物体表面(如衣物)时,可以使得这些物体对对象检测器来说变得“隐形”。以下是其主要功能和工作原理:

主要功能:

  1. 生成对抗性图案:通过设计图案,使得当物体被摄像头捕捉时,对象检测器无法正确识别或定位该物体。
  2. 适应多种检测器模型:图案能够在多种不同的对象检测器上有效,包括那些基于不同算法和训练数据集的检测器。
  3. 适用于物理世界:确保这些图案不仅在数字模拟中有效,还可以在现实世界中通过印刷在物体或衣物上来实现效果。

工作原理:

使用机器学习技术,特别是对抗性训练方法,生成能够扰乱检测器算法的图案。这些图案通过在训练过程中微调,使其能够最大程度地降低检测器的对象识别分数。

该技术方法涉及几个关键步骤,主要包括对抗性模式的设计、优化、以及实际应用。

  1. 对抗性模式设计

    对抗性模式或补丁是通过对抗性训练方法生成的,目的是干扰和欺骗对象检测器。这些模式在检测器试图识别覆盖这些模式的对象时会导致失败。

    • 数据集选择:使用标准的对象检测数据集,如 COCO 数据集,这包含了多种类别的图像,提供了丰富的训练材料。
    • 模式初始化:从一个随机的噪声图案开始,逐步通过学习过程调整以对特定或多个检测器产生干扰。

    2. 优化算法应用

    通过梯度下降算法调整模式的像素,以最小化对象检测器在检测到的对象上的“对象得分”,这是检测器对对象存在的信心度。

    • 损失函数定义:设计一个损失函数,该函数评估对象检测器对一个区域是否包含目标对象的判断准确性。对抗性训练旨在增加这种判断的错误率。
    • 多尺度和多角度考量:优化过程中需要考虑不同的尺寸、角度和光照条件,以确保模式在多种现实世界的条件下都有效。

    3. 实体测试和迭代

    将数字模式应用到实体物体上,如印刷到衣物或海报上,并在真实环境中进行测试。

    • 打印和材质选择:选择适合打印对抗性图案的材料和技术,确保图案在物理世界中的可用性和持久性。
    • 环境测试:在各种环境条件下测试这些衣物或物体,例如不同的光照和距离条件下,观察模式的效果如何变化。

    4. 量化分析

    对攻击的有效性进行严格的量化分析,包括使用标准的对象检测性能指标,如平均精度(Average Precision, AP)和成功/失败率。

    • 性能评估:通过与未经对抗训练的基线模型比较,量化对抗性补丁的有效性。
    • 跨模型泛化能力测试:测试补丁在不同检测器模型之间的转移性,确认其在广泛的应用场景中的可用性。

通过这种方法,研究团队能够创建一种新的防御机制,这种机制可以应用于提高个人隐私保护,或在军事和安全领域中用于防御自动化监视系统。同时,这项技术的开发也揭示了当前对象检测技术的潜在脆弱性,为未来的研究和改进提供了重要的洞见。

来源:https://www.cs.umd.edu/~tomg/projects/invisible/

论文:https://arxiv.org/abs/1910.14667

退出移动版