인공지능 보안 이슈

  • 발행 : 2017.06.30

초록

머신러닝을 위주로 하는 인공지능 기술이 여러 분야에서 다양하게 적용되고 있다. 머신러닝 기술은 시험 데이터에 대해 높은 성능을 보였지만, 악의적으로 만들어진 데이터에 대해서는 오동작을 하는 경우가 보고되고 있다. 그 외에도 학습데이터 오염시키기, 학습된 모델 탈취 등 새로운 공격 유형이 보고되고 있다. 기계학습에 사용된 훈련데이터에 대한 보안과 프라이버시 또한 중요한 이슈이다. 인공지능 기술의 개발 및 적용에 있어 이러한 위험성에 대한 고려와 대비가 반드시 필요하다.

키워드

참고문헌

  1. "Poison attacks against machine learning, Security and spam-detection programs could be affected", The Kurzweil Accelerating Intelligence , July, 2012
  2. Mozaffari-Kermani, Mehran, et al. "Systematic poisoning attacks on and defenses for machine learning in healthcare." IEEE journal of biomedical and health informatics, 19.6, 1893-1905, 2015 https://doi.org/10.1109/JBHI.2014.2344095
  3. Szegedy, Christian, et al. "Intriguing properties of neural networks." arXiv preprint arXiv, 1312.6199, 2013.
  4. T. Vaidya, Y. Zhang, M. Sherr, and C. Shields, "Cocaine noodles:exploiting the gap between human and machine speech recognition," in 9th USENIX Workshop on Offensive Technologies (WOOT 15), 2015
  5. Tramèr, Florian, et al. "Stealing machine learning models via prediction apis." USENIX Security. 2016.
  6. Fredrikson, Matt, Somesh Jha, and Thomas Ristenpart. "Model inversion attacks that exploit confidence information and basic countermeasures." Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security. ACM, 2015.
  7. https://en.wikipedia.org/wiki/Sanitization_(classi fied_information)