DOI QR코드

DOI QR Code

A Study on the Strategies for Ensuring Trustworthiness of Artificial Intelligence Modeling - Focusing on eXplainable AI's Use Cases -

인공지능 모형의 신뢰성 확보 방안에 관한 고찰 -설명 가능한 인공지능의 활용사례를 중심으로-

  • 김윤명 (건국대학교 산업공학과) ;
  • 김영묵 (인하대학교 컴퓨터공학과)
  • Published : 2022.11.21

Abstract

본 논문에서는 설명가능한 머신러닝 모델과 관련된 다양한 도구를 활용해보고, 최근 각광받는 주제인 신뢰성에 대해서도 고찰해보았다. 근래의 인공지능 모델은 설명력을 덧붙여 정보 장벽을 낮추는 방향으로 진화하고 있다. 이에 따라 AI 모형이 제공하는 정보량이 늘고 사용자 진화적 인 방식으로 바뀌면서 사용자층이 확대되고 있는 추세이다. 또한 데이터 분석 분야의 영향력이 높아지고 연구 주체들이 다양해지면서, 해당 모델이나 데이터에 관한 신뢰성을 확보해야한다는 요구가 많아지고 있다. 이에 많은 연구자들이 인공지능 모델의 신뢰성의 확보를 위해 노력하고 있다. 본 연구에서는 이러한 노력의 발자취를 따라가보면서 인공지능의 설명가능성에 관하여 소개하려고 한다. 그 과정에서 민감한 데이터를 다루어보면서 신뢰성 활보의 필요성에 대해서도 논의해보려고 한다.

Keywords

Acknowledgement

본 프로젝트는 과학기술정보통신부 정보통신창의인재양성사업의 지원을 통해 수행한 ICT 멘토링 프로젝트 결과물입니다.