의료 영상에 대한 적대적 공격 기술의 연구

A Study on Adversarial Attack Techniques in Medical Imaging

  • 박윤지 (단국대학교 소프트웨어학과) ;
  • 민지수 (가톨릭대학교 인공지능학과) ;
  • 박린 (수원대학교 정보보호학과) ;
  • 양진 (서울여자대학교 정보보호학과) ;
  • 이규영 (한국과학기술원 정보보호대학원)
  • Yun-Ji Park (Dept. of Software, Dan-Kook University) ;
  • Ji-Su Min (Dept. of Artificial Intelligence, The Catholic University of Korea) ;
  • Ryn Park (Dept. of Information Security, Suwon University) ;
  • Jin Yang (Dept. of Information Security, Seoul Women's University) ;
  • Gyu-young Lee (Graduate School of Information Security, KAIST)
  • 발행 : 2024.10.31

초록

적대적 공격은 영상에 사람의 육안으로는 구분할 수 없는 섭동을 넣어 딥러닝 모델의 오판을 유도한다. 이러한 기술은 의료 분야에서 보험사기 등으로 악용될 수 있고, 이를 해결하기 위해서는 적대적 공격의 원리와 방어기법을 상시 연구하는 노력이 필요하다. 본 논문에서는 다양한 적대적 공격을 코드로 구현하고, 이를 활용하여 의료 CT 영상에 공격을 가하는 실험을 수행하였으며, 그 결과 공격유형 별 원리와 특장점 및 성능 등을 종합적으로 평가하여 방어연구를 촉진하였다.

키워드

과제정보

본 논문에 있는 학부생들은 모두 공동 1 저자이며, 논문 작성에 기여한 정도가 같습니다. 본 논문은 과학기술정보통신부 대학디지털교육역량강화 사업의 지원을 통해 수행한 ICT 멘토링 프로젝트 결과물입니다.

참고문헌

  1. 김휘영, "딥러닝 기반 의료 영상 인공지능 모델의 취약성: 적대적 공격," 대한영상의학회지, vol. 80, 2019.
  2. N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik and A. Swami, "The Limitations of Deep Learning in Adversarial Settings," IEEE, 2016.
  3. Seyed-Mohsen Moosavi-Dezfooli, Alhussein Fawzi, Pascal Frossard "DeepFool: a simple and accurate method to fool deep neural networks" arXiv, 2015
  4. Nicholas Carlini and David Wagner, "Towards Evaluating the Robustness of Neural Networks," University of California, Berkeley, 2017.