DOI QR코드

DOI QR Code

데이터 증강 기반의 효율적인 포이즈닝 공격 방어 기법

Efficient Poisoning Attack Defense Techniques Based on Data Augmentation

  • 전소은 (성신여자대학교 미래융합기술공학과) ;
  • 옥지원 (성신여자대학교 미래융합기술공학과) ;
  • 김민정 (성신여자대학교 미래융합기술공학과) ;
  • 홍사라 (성신여자대학교 미래융합기술공학과) ;
  • 박새롬 (성신여자대학교 융합보안공학과/미래융합기술공학과) ;
  • 이일구 (성신여자대학교 융합보안공학과/미래융합기술공학과)
  • 투고 : 2022.08.31
  • 심사 : 2022.09.15
  • 발행 : 2022.09.30

초록

최근 이미지 인식 및 탐지 분야에 딥러닝 기반의 기술이 도입되면서 영상 처리 산업이 활성화되고 있다. 딥러닝 기술의 발전과 함께 적대적 공격에 대한 학습 모델 취약점이 계속해서 보고되고 있지만, 학습 시점에 악의적인 데이터를 주입하는 포이즈닝 공격의 대응 방안에 대한 연구가 미흡한 실정이다. 종래 포이즈닝 공격의 대응 방안은 매번 학습 데이터를 검사하여 별도의 탐지 및 제거 작업을 수행해야 한다는 한계가 있었다. 따라서, 본 논문에서는 포이즌 데이터에 대해 별도의 탐지 및 제거과정 없이 학습 데이터와 추론 데이터에 약간의 변형을 가함으로써 공격 성공률을 저하시키는 기법을 제안한다. 선행연구에서 제안된 클린 라벨 포이즌 공격인 원샷킬 포이즌 공격을 공격 모델로 활용하였고, 공격자의 공격 전략에 따라 일반 공격자와 지능형 공격자로 나누어 공격 성능을 확인하였다. 실험 결과에 따르면 제안하는 방어 메커니즘을 적용하면 종래 방법 대비 최대 65%의 공격 성공률을 저하시킬 수 있었다.

Recently, the image processing industry has been activated as deep learning-based technology is introduced in the image recognition and detection field. With the development of deep learning technology, learning model vulnerabilities for adversarial attacks continue to be reported. However, studies on countermeasures against poisoning attacks that inject malicious data during learning are insufficient. The conventional countermeasure against poisoning attacks has a limitation in that it is necessary to perform a separate detection and removal operation by examining the training data each time. Therefore, in this paper, we propose a technique for reducing the attack success rate by applying modifications to the training data and inference data without a separate detection and removal process for the poison data. The One-shot kill poison attack, a clean label poison attack proposed in previous studies, was used as an attack model. The attack performance was confirmed by dividing it into a general attacker and an intelligent attacker according to the attacker's attack strategy. According to the experimental results, when the proposed defense mechanism is applied, the attack success rate can be reduced by up to 65% compared to the conventional method.

키워드

과제정보

이 논문은 2022년도 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원(No. 2020R1F1A1061107)과 2022년도 정부(산업통상자원부)의 재원으로 한국산업기술진흥원의 지원(P0008703, 2022년 산업혁신인재성장지원사업), 과학기술정보통신부 및 정보통신기획평가원의 ICT혁신인재4.0 사업의 연구결과로 수행되었음 (IITP-2022-RS-2022-00156310).

참고문헌

  1. D. Lee, "Security threat verification and defense techniques in artificial intelligence for image processing(Masters thesis)", Chungnam National University, 2021.
  2. I. J. Goodfellow, J. Shlens, C. Szegedy, "Explaining and Harnessing Adversarial Examples", International Conference on Learning Representations(ICLR), 2015..
  3. K. Eykholt,, I. Evtimov, E. Fernandes, "Robust Physical-World Attacks on Deep Learning Visual Classification.", Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1625-1634, 2018.
  4. H. C. Kwon, S. J. Lee, J. Y. Choi, B. H. Chung, S. W. Lee, J. C. Nah, "Security Trends for Autonomous Driving Vehicle", Electronics and Telecommunications Trends, Vol. 33, No. 1, pp. 78-88, 2018.
  5. H. Chacon, S. Silva and P. Rad, "Deep Learning Poison Data Attack Detection", IEEE 31st International Conference on Tools with Artificial Intelligence (ICTAI), pp. 971-978, 2019. doi: 10.1109/ICTAI.2019.00137.
  6. P. Neehar, G. Neal and Huang, W. Ronny, F. Liam, Z., Chen, F. Soheil, G. Tom, D. John "Deep k-NN Defense Against Clean-Label Data Poisoning Attacks," Computer Vision - ECCV 2020 Workshops: Glasgow, UK, August 23-28, 2020, Proceedings, Part I, vol 12535. 2020. https://doi.org/10.1007/978-3-030-66415-2_4.
  7. A. Shafahi, W. R Huang., M. Najibi, O. Suciu, C. Studer, T. Dumitras, and T. Goldstein, "Poison frogs! targeted clean-label poisoning attacks on neural networks", Advances in neural information processing systems, Vol. 31, 2018.
  8. C. Zhu, W.R. Huang, H. Li, G. Taylor, C. Studer, T. Goldstein, "Transferable clean-label poisoning attacks on deep neural nets," International Conference on Machine Learning. pp. 7614-7623, 2019.
  9. E. N. R. Ko, and J. S. Moon, "Adversarial Example Detection and Classification Model Based on the Class Predicted by Deep Learning Model.", Journal of the Korea Institute of Information Security & Cryptology, Vol. 31, No. 6, pp. 1227-1236, 2021.
  10. W. Xu, D. Evans, Y. Qi, "Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks," Symposium on Network and Distributed Systems Security, 2018.
  11. C. Shorten, T. M. Khoshgoftaar, "A survey on Image Data Augmentation for Deep Learning",. J Big Data Vol. 6, No. 60. 2019. https://doi.org/10.1186/s40537-019-0197-0.
  12. Dong bin Na, 'Poison-Frogs-OneShotKillAttack-PyTorch', https://github.com/ndb796/Poison-Frogs-OneShotKillAttack-PyTorch, 검색일: 2022. 8. 18.
  13. Dong bin Na, 'simple_dog_and_cat_dataset', https://github.com/ndb796/Poison-Frogs-OneShotKillAttack-PyTorch/tree/main/simple_dog_and_cat_dataset, 검색일: 2022. 8. 18.