• 제목/요약/키워드: XAI

검색결과 87건 처리시간 0.023초

설명 가능한 인공지능(XAI)을 활용한 침입탐지 신뢰성 강화 방안 (The Enhancement of intrusion detection reliability using Explainable Artificial Intelligence(XAI))

  • 정일옥;최우빈;김수철
    • 융합보안논문지
    • /
    • 제22권3호
    • /
    • pp.101-110
    • /
    • 2022
  • 다양한 분야에서 인공지능을 활용한 사례가 증가하면서 침입탐지 분야 또한 다양한 이슈를 인공지능을 통해 해결하려는 시도가 증가하고 있다. 하지만, 머신러닝을 통한 예측된 결과에 관한 이유를 설명하거나 추적할 수 없는 블랙박스 기반이 대부분으로 이를 활용해야 하는 보안 전문가에게 어려움을 주고 있다. 이러한 문제를 해결하고자 다양한 분야에서 머신러닝의 결정을 해석하고 이해하는데 도움이 되는 설명 가능한 AI(XAI)에 대한 연구가 증가하고 있다. 이에 본 논문에서는 머신러닝 기반의 침입탐지 예측 결과에 대한 신뢰성을 강화하기 위한 설명 가능한 AI를 제안한다. 먼저, XGBoost를 통해 침입탐지 모델을 구현하고, SHAP을 활용하여 모델에 대한 설명을 구현한다. 그리고 기존의 피처 중요도와 SHAP을 활용한 결과를 비교 분석하여 보안 전문가가 결정을 수행하는데 신뢰성을 제공한다. 본 실험을 위해 PKDD2007 데이터셋을 사용하였으며 기존의 피처 중요도와 SHAP Value에 대한 연관성을 분석하였으며, 이를 통해 SHAP 기반의 설명 가능한 AI가 보안 전문가들에게 침입탐지 모델의 예측 결과에 대한 신뢰성을 주는데 타당함을 검증하였다.

XAI를 활용한 통신사 이탈고객의 특성 이해와 마케팅 적용방안 연구 (Research on Understanding Churned Customer and Application of Marketing in Telco. industry Using XAI)

  • 임진희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.21-24
    • /
    • 2022
  • 최근 통신업계에서는 축적된 빅데이터를 활용하여 고객의 특성을 이해하고 맞춤형 마케팅에 이용하려는 노력이 지속되어 왔다. 본 연구에서는 CatBoost 모델을 사용하여 이탈 가능성이 높은 고객을 예측하고 XAI(eXplainable Artificial Intelligence) 기법 중 하나인 SHAP을 적용하여 이탈에 영향을 미치는 요인을 설명하고자 하였다. SHAP의 global explanation 기법을 사용하여 특정 고객 segmentation 에 대한 이해력을 높이고, local explanation 기법을 사용하여 개별 고객에 대한 설명과 개인화 마케팅에 적용 가능성을 제시하였다. 본 연구는 기존의 이탈 예측모델인 블랙박스 모델이 갖는 한계점을 극복하고 고객의 특성을 이해하여 실제 비즈니스에 활용 가능성을 높였다는 점에서 의의를 가진다.

XAI 를 활용한 기업 부도예측 분류모델 연구 (A Study on Classification Models for Predicting Bankruptcy using XAI)

  • 김지홍;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.571-573
    • /
    • 2022
  • 최근 금융기관에서는 축적된 금융 빅데이터를 활용하여 차별화된 서비스를 강화하고 있다. 기업고객에 투자하기 위해서는 보다 정밀한 기업분석이 필요하다. 본 연구는 대만기업 6,819개의 95개 재무데이터를 가지고, 비대칭 데이터 문제해결, 데이터 표준화 등 데이터 전처리 작업을 하였다. 해당 데이터는 로지스틱 회기, SVM, K-NN, 나이브 베이즈, 의사결정나무, 랜덤포레스트 등 9가지 분류모델에 5겹 교차검증을 적용하여 학습한 후 모델 성능을 비교하였다. 이 중에서 성능이 가장 우수한 분류모델을 선택하여 예측 결정 이유를 판단하고자 설명 가능한 인공지능(XAI)을 적용하여 예측 결과에 대한 설명을 부여하여 이를 분석하였다. 본 연구를 통해 데이터 전처리에서부터 모델 예측 결과 설명에 이르는 분류예측모델의 전주기를 자동화하는 시스템을 제시하고자 한다.

Transforming Patient Health Management: Insights from Explainable AI and Network Science Integration

  • Mi-Hwa Song
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.307-313
    • /
    • 2024
  • This study explores the integration of Explainable Artificial Intelligence (XAI) and network science in healthcare, focusing on enhancing healthcare data interpretation and improving diagnostic and treatment methods. Key methodologies like Graph Neural Networks, Community Detection, Overlapping Network Models, and Time-Series Network Analysis are examined in depth for their potential in patient health management. The research highlights the transformative role of XAI in making complex AI models transparent and interpretable, essential for accurate, data-driven decision-making in healthcare. Case studies demonstrate the practical application of these methodologies in predicting diseases, understanding drug interactions, and tracking patient health over time. The study concludes with the immense promise of these advancements in healthcare, despite existing challenges, and underscores the need for ongoing research to fully realize the potential of AI in this field.

소프트웨어 분야 취업 결정 요인에 대한 XAI 모델 적용 연구 : 일반대학교와 전문대학 졸업자를 중심으로 (Application of XAI Models to Determine Employment Factors in the Software Field : with focus on University and Vocational College Graduates)

  • 권준희;김성림
    • 디지털산업정보학회논문지
    • /
    • 제20권1호
    • /
    • pp.31-45
    • /
    • 2024
  • The purpose of this study is to explain employment factors in the software field. For it, the Graduates Occupational Mobility Survey by the Korea employment information service is used. This paper proposes employment models in the software field using machine learning. Then, it explains employment factors of the models using explainable artificial intelligence. The models focus on both university graduates and vocational college graduates. Our works explain and interpret both black box model and glass box model. The SHAP and EBM explanation are used to interpret black box model and glass box model, respectively. The results describes that positive employment impact factors are major, vocational education and training, employment preparation setting semester, and intern experience in the employment models. This study provides a job preparation guide to universitiy and vocational college students that want to work in software field.

AI 모델의 Robustness 향상을 위한 효율적인 Adversarial Attack 생성 방안 연구 (A Study on Effective Adversarial Attack Creation for Robustness Improvement of AI Models)

  • 정시온;한태현;임승범;이태진
    • 인터넷정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.25-36
    • /
    • 2023
  • 오늘날 AI(Artificial Intelligence) 기술은 보안 분야를 비롯하여 다양한 분야에 도입됨에 따라 기술의 발전이 가속화되고 있다. 하지만 AI 기술의 발전과 더불어 악성 행위 탐지를 교묘하게 우회하는 공격 기법들도 함께 발전되고 있다. 이러한 공격 기법 중 AI 모델의 분류 과정에서 입력값의 미세한 조정을 통해 오 분류와 신뢰도 하락을 유도하는 Adversarial attack이 등장하였다. 앞으로 등장할 공격들은 공격자가 새로이 공격을 생성하는 것이 아닌, Adversarial attack처럼 기존에 생성된 공격에 약간의 변형을 주어 AI 모델의 탐지체계를 회피하는 방식이다. 이러한 악성코드의 변종에도 대응이 가능한 견고한 모델을 만들어야 한다. 본 논문에서는 AI 모델의 Robustness 향상을 위한 효율적인 Adversarial attack 생성 기법으로 2가지 기법을 제안한다. 제안하는 기법은 XAI 기법을 활용한 XAI based attack 기법과 모델의 결정 경계 탐색을 통한 Reference based attack이다. 이후 성능 검증을 위해 악성코드 데이터 셋을 통해 분류 모델을 구축하여 기존의 Adversarial attack 중 하나인 PGD attack과의 성능 비교를 하였다. 생성 속도 측면에서 기존 20분이 소요되는 PGD attack에 비하여 XAI based attack과 Reference based attack이 각각 0.35초, 0.47초 소요되어 매우 빠른 속도를 보이며, 특히 Reference based attack의 경우 생성률이 97.7%로 기존 PGD attack의 생성률인 75.5%에 비해 높은 성공률을 보이는 것을 확인하였다. 따라서 제안한 기법을 통해 더욱 효율적인 Adversarial attack이 가능하며, 이후 견고한 AI 모델을 구축하기 위한 연구에 기여 할 수 있을 것으로 기대한다.

XAI 기법을 이용한 리뷰 유용성 예측 결과 설명에 관한 연구 (Explainable Artificial Intelligence Applied in Deep Learning for Review Helpfulness Prediction)

  • 류동엽;이흠철;김재경
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.35-56
    • /
    • 2023
  • 정보통신 기술의 발전에 따라 웹 사이트에는 수많은 리뷰가 지속적으로 게시되고 있다. 이로 인해 정보 과부하 문제가 발생하여 사용자들은 본인이 원하는 리뷰를 탐색하는데 어려움을 겪고 있다. 따라서, 이러한 문제를 해결하여 사용자에게 유용하고 신뢰성 있는 리뷰를 제공하기 위해 리뷰 유용성 예측에 관한 연구가 활발히 진행되고 있다. 기존 연구는 주로 리뷰에 포함된 특성을 기반으로 리뷰 유용성을 예측하였다. 그러나, 예측한 리뷰가 왜 유용한지 근거를 제시할 수 없다는 한계점이 존재한다. 따라서 본 연구는 이러한 한계점을 해결하기 위해 리뷰 유용성 예측 모델에 eXplainable Artificial Intelligence(XAI) 기법을 적용하는 방법론을 제안하였다. 본 연구는 Yelp.com에서 수집한 레스토랑 리뷰를 사용하여 리뷰 유용성 예측에 관한 연구에서 널리 사용되는 6개의 모델을 통해 예측 성능을 비교하였다. 그 다음, 예측 성능이 가장 우수한 모델에 XAI 기법을 적용하여 설명 가능한 리뷰 유용성 예측 모델을 제안하였다. 따라서 본 연구에서 제안한 방법론은 사용자의 구매 의사결정 과정에서 유용한 리뷰를 추천할 수 있는 동시에 해당 리뷰가 왜 유용한지에 대한 해석을 제공할 수 있다.

설명가능한 인공지능 기술을 이용한 인공신경망 기반 수질예측 모델의 성능향상 (Performance improvement of artificial neural network based water quality prediction model using explainable artificial intelligence technology)

  • 이원진;이의훈
    • 한국수자원학회논문집
    • /
    • 제56권11호
    • /
    • pp.801-813
    • /
    • 2023
  • 최근 인공신경망(Artificial Neural Network, ANN)의 연구가 활발하게 진행되면서 ANN을 이용하여 하천의 수질을 예측하는 연구가 진행되고 있다. 그러나 ANN은 Black-box의 형태이기 때문에 ANN 내부의 연산과정을 분석하는데 어려움이 있다. ANN의 연산과정을 분석하기 위해 설명가능한 인공지능(eXplainable Artificial Intelligence, XAI) 기술이 사용되고 있으나, 수자원 분야에서 XAI 기술을 활용한 연구는 미비한 실정이다. 본 연구는 XAI 기술 중 Layer-wise Relevance Propagation (LRP)을 사용하여 낙동강의 다산 수질관측소의 수온, 용존산소량, 수소이온농도 및 엽록소-a를 예측하기 위한 Multi Layer Perceptron (MLP)을 분석하였다. LRP를 기반으로 수질을 학습한 MLP를 분석하여 수질을 예측하기 위한 최적의 입력자료를 선정하고, 최적의 입력자료를 이용하여 학습한 MLP의 예측결과에 대한 분석을 실시하였다. LRP를 이용하여 최적의 입력자료를 선정한 결과를 보면, 수온, 용존산소량, 수소이온농도 및 엽록소-a 모두 주변지역의 일 강수량을 제외한 입력자료를 학습한 MLP의 예측정확도가 가장 높았다. MLP의 용존산소량 예측결과에 대한 분석결과를 보면, 최고점에서 수소이온농도 및 용존산소량의 영향이 크고 최저점에서는 수온의 영향이 큰 것으로 분석되었다.

XAI(Explainable AI) 기법을 이용한 선박기관 이상탐지 시스템 개발

  • ;;;김동현;이상봉;이지환
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2022년도 추계학술대회
    • /
    • pp.289-290
    • /
    • 2022
  • 본 연구에서는 선박의 중요부품인 메인엔진에서 수집되는 센서 데이터를 사용하여 선박 메인엔진의 이상치를 탐지하는 시스템을 소개한다. 본 시스템의 특장점은 이상치 탐지 뿐만 아니라, 이상치의 센서별 기여도를 정량화 함으로써, 이상치 발생을 유형화 하고 추가적인 분석을 가능하게 해준다. 또한 웹 인터페이스 형태의 편리한 UI를 개발하여 사용자들이 보다 편리하게 이상치

  • PDF

X-FDS : 게임 결제 로그 기반 XAI적용 이상 거래탐지 모델 연구 (Why Should I Ban You! : X-FDS (Explainable FDS) Model Based on Online Game Payment Log)

  • 이영헌;김휘강
    • 정보보호학회논문지
    • /
    • 제32권1호
    • /
    • pp.25-38
    • /
    • 2022
  • 게임에 대한 결제 수단과 방식이 다양해지는 가운데, 관련된 금융사고가 이용자와 게임사에 심각한 문제를 야기하고 있다. 최근 게임 결제 시스템에 대해 게임사는 이상거래탐지시스템(FDS)을 도입하여 금융 사고를 방지하고 있다. 하지만, FDS는 지속적으로 탐지 패턴을 변경해야 하므로 효과적이지 않고 판단 결과에 따른 근거를 제시할 수 없다. 본 논문에서는 실제 게임회사의 결제 로그 데이터 중 이상거래를 분석하여 관련된 피처를 생성하였다. 비지도 학습 모델중 하나인 오토인코더를 사용하여 이상거래를 탐지하는 모델을 구축하였으며, 그 결과 85% 이상의 정확도를 얻을 수 있었다. 이를 XAI-SHAP을 적용한 X-FDS를 사용하여 이상 거래탐지에 대한 영향력이 가장 높은 피처는 나라, 거래 금액과 거래 매체, 이용자의 나이임을 알 수 있었다. 이를 바탕으로 제시한 모델의 판단 결과에 편향성을 주는 피처에 가중치를 세부 조정하여 최종적으로 정확도 94%의 개선된 탐지 모델을 도출하였다.