Analysis of Adversarial Examples for NMS Algorithms Using PSNR and SSIM

PSNR과 SSIM을 활용한 NMS 알고리즘 대상 Adversarial Examples 분석

  • Gwang-Nam Kim (Dept. of Computer Science, Yonsei University) ;
  • Han-Ju Lee (Dept. of Computer Science, Yonsei University) ;
  • Han-Jin Lee (Dept. of Computer Science, Yonsei University) ;
  • Seok-Hwan Choi (Dept. of Software, Yonsei University)
  • 김광남 (연세대학교 전산학과) ;
  • 이한주 (연세대학교 전산학과) ;
  • 이한진 (연세대학교 전산학과) ;
  • 최석환 (연세대학교 소프트웨어학부)
  • Published : 2024.05.23

Abstract

딥러닝 모델이 다양한 분야에 적용되면서, 딥러닝 모델에 대한 보안이 큰 이슈가 되고 있다. 특히, 입력 데이터에 섭동(perturbation)을 추가하여 모델의 정상적인 추론을 방해하는 적대적 공격(Adversarial Attack)에 대한 연구가 활발하게 진행되고 있다. 본 논문에서는 객체 탐지 모델의 NMS(Non-Maximum Suppression) 알고리즘에 대한 적대적 공격 기법 중 하나인 Phantom Sponges 공격을 수행하여 적대적 예제(Adversarial Example)를 생성하고, 원본 이미지와의 유사성을 측정하여 분석하고자 한다.

Keywords

Acknowledgement

본 연구는 정부(과학기술정보통신부)의 재원으로 한국연구재단(RS-2023-00243075) 및 과학기술정보통신부 및 정보통신기획평가원의 대학ICT연구센터사업(IITP-2023-RS-2023-00259967)의 지원을 받아 수행된 연구임.

References

  1. Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy, "Explaining and harnessing adversarial examples.", arXiv preprint arXiv:1412.6572, 2014.
  2. Xie, Cihang, et al. "Adversarial examples for semantic segmentation and object detection." Proceedings of the IEEE international conference on computer vision. 2017.
  3. Shapira, Avishag, et al. "Phantom sponges: Exploiting non-maximum suppression to attack deep object detectors." Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. 2023.
  4. Hore, Alain, and Djemel Ziou. "Image quality metrics: PSNR vs. SSIM." 2010 20th international conference on pattern recognition. IEEE, 2010.