프라이버시 보호를 위한 적대적 AI 공격기법의 연구

A Study on Adversarial AI Attack Techniques for Privacy Protection

  • 조혜원 (이화여자대학교 전자전기공학과 ) ;
  • 한지은 (강남대학교 데이터사이언스학과 ) ;
  • 김민솔 (홍익대학교 컴퓨터공학과 ) ;
  • 박주현 (동덕여자대학교 데이터사이언스학과 ) ;
  • 홍예령 (성신여자대학교 AI융합학부) ;
  • 이규영 (한국과학기술원 정보보호대학원)
  • Hye-Won Jo (Dept. of Electronic & Electrical Engineering, Ewha Woman's University) ;
  • Ji-Eun Han (Dept. of Data Science, Kangnam University) ;
  • Min-Sol Kim (Dept. of Computer Engineering, Hongik University) ;
  • Ju-Hyeon Park (Dept. of Data Science, Dongduk Women's University) ;
  • Ye-Ryeong Hong (Dept. of AI Convergence, Sungshin Women's University) ;
  • Gyu-young Lee (Graduate School of Information Security, KAIST)
  • 발행 : 2024.10.31

초록

AI 기술이 발전함에 따라 개인정보 유출 및 딥페이크 등의 프라이버시 침해가 심각한 사회적 문제로 대두되고 있다. 본 연구는 프라이버시 보호를 위해 FGSM, One-Pixel, Deepfool, JSMA 등 적대적 공격기법을 소프트웨어로 구현하고, 이를 활용하여 얼굴인식 AI 시스템을 공격하는 실험을 수행하였으며, 그 결과 정보 보호를 위한 최적의 적대적 공격 방안을 도출하였다.

키워드

과제정보

본 논문은 과학기술정보통신부 대학디지털교육역량강화 사업의 지원을 통해 수행한 ICT멘토링 프로젝트 결과물입니다.

참고문헌

  1. 이범기 "적대적 AI 공격 기법을 활용한 프라이버시 보호", 정보처리학회 ACK 2023 학술대회.
  2. Alex Vakanski, Special Topics: Adversarial Machine Learning, University of Idaho, 2021.
  3. paperswithcode.com/dataset/celeba-hq
  4. https://paperswithcode.com/dataset/cifar-10