Gradient Leakage Defense Strategy based on Discrete Cosine Transform

이산 코사인 변환 기반 Gradient Leakage 방어 기법

  • Published : 2021.05.03

Abstract

In a distributed machine learning system, sharing gradients was considered safe because it did not share original training data. However, recent studies found that malicious attacker could completely restore the original training data from shared gradients. Gradient Leakage Attack is a technique that restoring original training data by exploiting theses vulnerability. In this study, we present the image transformation method based on Discrete Cosine Transform to defend against the Gradient Leakage Attack on the federated learning setting, which training in local devices and sharing gradients to the server. Experiment shows that our image transformation method cannot be completely restored the original data from Gradient Leakage Attack.

분산된 환경에서 머신 러닝의 학습 가중치를 공유하여 학습하는 방법은 훈련 데이터를 직접 공유하는 것이 아니기 때문에 안전한 것으로 여겨졌다. 하지만, 최근 연구에 따르면 악의적인 공격자가 공유된 가중치를 분석하여 원본 데이터를 완벽하게 복원할 수 있는 취약점이 발견되었다. Gradient Leakage Attack은 이러한 취약점을 이용해 훈련 데이터를 복원하는 공격 기법이다. 본 연구에서는 개별 장치에서 학습을 진행하고 가중치를 서버와 공유하는 학습 환경인 연합 학습 환경에서 해당 공격을 방어하기 위해 이산 코사인 변환에 기반한 이미지 변환 기법을 제시한다. 실험 결과, 우리의 이미지 변환 기법을 적용하면 공유된 가중치로부터 원본 데이터를 완벽하게 복원할 수 없다.

Keywords

Acknowledgement

이 논문은 2021년도 정부(과학기술정보통신부)의 재원으로 정보통신산업진흥원의 지원을 받아 수행된 헬스케어 AI 융합 연구개발 사업(No.S0316-21-1006)과 5G-IoT 환경에서 이기종·비정형·대용량 데이터의 고신뢰·저지연 처리를 위한 플랫폼 개발 및 실증 사업(No.2020-0-00990)의 지원을 받아 수행된 연구임