A Study on Deep Learning Privacy

딥러닝 프라이버시에 관한 연구

  • Si-Hyeon Roh (Dept. of Electrical and Computer Engineering, Seoul National University) ;
  • Byoung-Young Lee (Dept. of Electrical and Computer Engineering, Seoul National University)
  • 노시현 (서울대학교 전기정보공학부 ) ;
  • 이병영 (서울대학교 전기정보공학부)
  • Published : 2024.05.23

Abstract

딥러닝은 선형 연산과 비선형 연산을 조합하여 목표로 하는 시스템을 잘 표현할 수 있는 함수를 찾기 위해 사용하며, 이미지 분류 및 생성, 거대 언어 모델 및 객체 인식의 영역에서 활발하게 사용되고 있다. 그러나 딥러닝 연산을 위해서는 모델과, 연산을 수행하고자 하는 데이터가 하나의 공간에 저장되어야 한다. 모델과 데이터를 데이터 소유자가 관리할 경우, 데이터 소유자가 모델 데이터의 프라이버시를 침해할 수 있으며, 이는 모델을 적대적 예제 생성 공격에 취약하도록 만드는 원인이 된다. 한편 모델과 데이터를 모델 소유자가 관리할 경우, 모델 소유자는 데이터의 프라이버시를 침해하여 데이터 소유자의 정보를 악의적으로 이용할 수 있다. 본 논문에서는 딥러닝 모델과 데이터의 프라이버시를 모두 보호하기 위해 주어진 딥러닝 모델의 암호화와 복호화를 수행하는 EncNet 을 구현하였으며, MNIST 와 Cifat-10 데이터셋에 대하여 실효성을 테스트하였다.

Keywords

References

  1. Ian J. Goodfellow "Explaining and Harnessing Adversarial Examples " ICLR, San Diego, 2015, 11
  2. Yuhng Zhang "The Secret Revealer: Generative Model-Inversion Attacks Against Deep Neural Networks" CVPR, Seattle, 2020, 9
  3. Floran Tramer "Slalom: Fast, Verifiable and Private Execution of Neural Networks in Trusted Hardware" ICLR, New Orleans, 2019, 19
  4. Stvros Volos "Graviton: Trusted Execution Environments on GPUs" OSDI, California, 2018, 17
  5. Bria Knott "CrypTen: Secure Multi-Party Computation Meets Machine Learning" NeurIPS, Vancouver, 2021, 23
  6. Moritz Lipp "Meltdown: Reading Kernel Memory from User Space" Usenix Security, Baltimore, 2018, 19