연합학습에서의 모델 탈취 공격 방어를 위한 노이즈 기반 글로벌 모델 보호

Noise-based Global Model Protection for Defending Against Model Theft Attacks in Federated Learning

  • 권대호 (숭실대학교 수학과) ;
  • 최봉준 (숭실대학교 컴퓨터학과)
  • Dae Ho Kwon (Dept. of Mathematics, Soongsil University) ;
  • Bong Jun Choi (School of Computer Science and Engineering, Soongsil University)
  • 발행 : 2024.10.31

초록

크라우드소싱 기반 연합학습에서 글로벌 모델은 모델 제작 의뢰자의 중요한 자산이다. 하지만, 연합학습 플랫폼 운영 주체는 모델 학습을 위해 글로벌 모델의 파라미터를 클라이언트에게 공유해야 한다. 이 과정에서 악의적인 클라이언트로부터 모델 탈취 공격이 발생할 수 있다. 본 연구는 모델의 파라미터에 노이즈를 추가함으로써, 공유되는 모델의 정확도를 낮은 수준으로 유지하는 동시에 취합된 로컬 모델로부터 만들어진 글로벌 모델의 높은 정확도는 보장하고자 하는 데 목적이 있다.

키워드

과제정보

본 성과는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(NRF-2022R1A2C4001270). 또한, 본 연구는 과학기술정보통신부 및 정보통신기획평가원의 대학ICT연구센터육성지원사업의 연구결과로 수행되었음(IITP-2024-RS-2020-0-01602).

참고문헌

  1. S.R. Pandey, et al, "A Crowdsourcing Framework for On-Device Federated Learning", IEEE Transactions on Wireless Communications, vol.19, no.5, pp.3241-3256, 2020
  2. McMahan, et al, "Communication-efficient Learning of Deep Networks from Decentralized Data", Artificial Intelligence and Statistics, PMLR, pp. 1273-1282, 2017