• 제목/요약/키워드: 설명가능 인공지능

검색결과 109건 처리시간 0.026초

그래프 합성곱 신경망에 대한 기울기(Gradient) 기반 설명 기법 (A Gradient-Based Explanation Method for Graph Convolutional Neural Networks)

  • 김채현;이기용
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.670-673
    • /
    • 2022
  • 설명가능한 인공지능은 딥러닝과 같은 복잡한 모델에서 어떠한 원리로 해당 결과를 도출해냈는지에 대한 설명을 함으로써 구축된 모델을 이해할 수 있도록 설명하는 기술이다. 최근 여러 분야에서 그래프 형태의 데이터들이 생성되고 있으며, 이들에 대한 분류를 위해 다양한 그래프 신경망들이 사용되고 있다. 본 논문에서는 대표적인 그래프 신경망인 그래프 합성곱 신경망(graph convolutional network, GCN)에 대한 설명 기법을 제안한다. 제안 기법은 주어진 그래프의 각 노드를 GCN을 사용하여 분류했을 때, 각 노드의 어떤 특징들이 분류에 가장 큰 영향을 미쳤는지를 수치로 알려준다. 제안 기법은 최종 분류 결과에 영향을 미친 요소들을 gradient를 통해 단계적으로 추적함으로써 각 노드의 어떤 특징들이 분류에 중요한 역할을 했는지 파악한다. 가상 데이터를 통한 실험을 통해 제안 방법은 분류에 가장 큰 영향을 주는 노드들의 특징들을 실제로 정확히 찾아냄을 확인하였다.

설명 가능 그래프 심층 인공신경망 기반 속도 예측 및 인근 도로 영향력 분석 기법 (Speed Prediction and Analysis of Nearby Road Causality Using Explainable Deep Graph Neural Network)

  • 김유진;윤영
    • 한국융합학회논문지
    • /
    • 제13권1호
    • /
    • pp.51-62
    • /
    • 2022
  • 교통 혼잡을 해결하기 위한 AI 기반 속도 예측 연구는 활발하게 진행되고 있다. 하지만, 인공지능의 추론 과정을 설명하는 설명 가능한 AI의 중요성이 대두되고 있는 가운데 AI 기반 속도 예측의 결과를 해석하고 원인을 추리하는 연구는 미흡하였다. 따라서 본 논문에서는 '설명 가능 그래프 심층 인공신경망 (GNN)'을 고안하여 속도 예측뿐만 아니라, GNN 모델 입력값의 마스킹 기법에 기반하여 인근 도로 영향력을 정량적으로 분석함으로써 혼잡 등의 상황에 대한 추론 근거를 도출하였다. TOPIS 통행 속도 데이터를 활용하여 서울 시내 혼잡 도로를 기준으로 예측 및 분석 방법론을 적용한 후 영향력 높은 인근 도로의 속도를 가상으로 조절하는 시뮬레이션 통하여 혼잡 도로의 통행 속도가 개선됨을 확인하여 제안한 방법론의 타당성을 입증하였다. 이는 교통 네트워크에 제안한 방법론을 적용하고, 그 추론 결과에 기반한 특정 인근 도로를 제어하여 교통 흐름을 개선할 수 있다는 점에 의미가 있다.

설명 가능한 정기예금 가입 여부 예측을 위한 앙상블 학습 기반 분류 모델들의 비교 분석 (A Comparative Analysis of Ensemble Learning-Based Classification Models for Explainable Term Deposit Subscription Forecasting)

  • 신지안;문지훈;노승민
    • 한국전자거래학회지
    • /
    • 제26권3호
    • /
    • pp.97-117
    • /
    • 2021
  • 정기예금 가입 여부 예측은 은행의 대표적인 금융 마케팅 중 하나로, 은행은 다양한 고객 정보를 활용하여 예측 모델을 구성할 수 있다. 정기예금 가입 여부의 분류 정확도를 향상하기 위해, 많은 연구에서 기계학습 기법들을 이용하여 분류 모델들을 개발하였다. 하지만, 이러한 모델들이 만족스러운 성능을 보일지라도 모델의 의사결정 과정에 대한 근거가 적절하게 설명되지 않는다면 산업에서 활용하기가 쉽지 않다. 이러한 문제점을 해결하기 위해, 본 논문은 설명 가능한 정기예금 가입 여부 예측 기법을 제안한다. 먼저, 테이블 형식에서 우수한 성능을 도출하는 의사결정 나무 기반 앙상블 학습 기법인 랜덤 포레스트, GBM, XGBoost, LightGBM을 이용하여 분류 모델들을 개발하고, 10겹 교차검증을 통해 모델들의 분류 성능을 심층 분석한다. 다음으로, 가장 우수한 성능을 도출하는 모델에 설명 가능한 인공지능 기법인 SHAP을 적용하여 고객 정보의 영향도와 의사결정 과정 등을 해석할 수 있는 근거를 제공한다. 제안한 기법의 실용성과 타당성을 입증하기 위해, Kaggle에서 제공한 은행 마케팅 데이터 셋을 대상으로 모의실험을 진행하였으며, 데이터 셋 구성에 따라 GBM과 LightGBM 모델에 SHAP을 각기 적용하여 설명 가능한 정기예금 가입 여부를 위한 분석 및 시각화를 수행하였다.

인공지능(Artificial Intelligence)과 대학수학교육 (Artificial Intelligence and College Mathematics Education)

  • 이상구;이재화;함윤미
    • 한국수학교육학회지시리즈E:수학교육논문집
    • /
    • 제34권1호
    • /
    • pp.1-15
    • /
    • 2020
  • 첨단 정보통신기술(ICT)인 인공지능(AI), 사물인터넷(IoT), 빅데이터(Big Data) 등이 사회와 경제 전반에 융합돼 혁신적인 변화가 일어나는 요즘, 헬스케어, 지능형 로봇, 가정용 인공지능 시스템(스마트홈), 공유자동차 등은 이미 우리 생활에 깊이 영향을 미치고 있다. 이미 오래전부터 공장에서는 로봇이 사람 대신 일을 하고 있으며(FA, OA), 인공지능 의사도 병원에서 활동을 하고 있고(Dr. Watson), 인공지능 스피커(기가지니)와 인공지능 비서인 구글 어시스턴트가 자연어생성을 하며 우리를 돕고 있다. 이제 인공지능을 이해하는 것은 필수가 되었으며, 인공지능을 이해하기 위해서 수학의 지식은 선택이 아니라 필수가 되었다. 따라서 이런 일들을 가능하게 해주는 수학지식을 설명하는 역할이 수학자들에게 주어졌다. 이에 본 연구진은 인공지능과 머신러닝(Machine Learning, 기계학습)을 이해하기 위해 필요한 수학 개념을 우리의 실정에 맞게 한 학기(또는 두 학기) 분량으로 정리하여, 무료 전자교과서 "인공지능을 위한 기초수학"을 집필하고, 인공지능 분야에 관심이 있는 다양한 전공의 대학생과 대학원생을 대상으로 하는 강좌를 개설하였다. 본 논문에서는 그 개발과정과 운영사례를 공유한다. http://matrix.skku.ac.kr/math4ai/

설명가능한 인공지능을 활용한 수학교육 연구의 영향력 분석 (Analysis of the impact of mathematics education research using explainable AI)

  • 오세준
    • 한국수학교육학회지시리즈A:수학교육
    • /
    • 제62권3호
    • /
    • pp.435-455
    • /
    • 2023
  • 본 연구는 수학 교육 분야에서 중요한 영향을 미치는 논문을 판별하고 분석하기 위한 설명가능한 인공지능(XAI) 모델을 개발하였다. 29개 국내외 수학교육 학술지의 논문 메타정보를 활용하여 수학교육 학술연구 네트워크를 구축하였다. 구축된 네트워크는 '논문과 다른 논문의 인용 네트워크', '논문과 저자 네트워크', '논문과 학술지 네트워크', '공동 저자 네트워크', '저자와 소속기관 네트워크' 등 총 5개의 세부 네트워크로 구성되었다. 랜덤포레스트 기계학습 모델을 사용하여 네트워크 내의 개별 논문의 영향력을 평가하였으며, SHAP을 이용해 영향력 있는 논문의 판별 기준을 분석하였다. '논문 네트워크 PageRank', '논문당 인용횟수의 변화량', '총 인용횟수', '저자의 h-index 변화량', '학술지의 논문당 인용횟수' 등이 중요한 판별 요인으로 나타났다. 국내와 국외 수학교육 연구의 판별 패턴을 비교 분석한 결과, 국내 연구에서는 '공동 저자 네트워크 PageRank'의 중요성이 도드라졌다. 본 연구의 XAI 모델은 논문의 영향력 판별 도구로써 연구자에게 논문 작성 시 전략적인 방향성을 제공할 수 있게 해준다. 논문 네트워크 확장, 학술대회 발표, 공동 저술 활동을 통한 저자 네트워크 활성화 등이 논문의 영향력 증진에 크게 기여한다는 결과를 얻었다. 이를 통해 연구자는 학계에서 자신의 연구가 어떠한 평가 기준에 따라 어떻게 인식되고 있는지, 그리고 그 평가에 기여하는 주요 요인이 무엇인지를 명확히 파악할 수 있을 것이다. 본 연구는 설명가능한 인공지능을 활용하여 전통적으로 많은 시간과 비용이 필요하던 수학교육 논문의 영향력 평가 방식을 혁신하였다. 이 방법은 수학교육 연구 뿐만 아니라 다른 학문 분야에서도 활용될 수 있으며, 연구활동의 효율성과 효과성을 향상시킬 것으로 기대된다.

인공지능 기술기반의 서비스거부공격 대응 위한 서비스 모델 개발 방안 (A Service Model Development Plan for Countering Denial of Service Attacks based on Artificial Intelligence Technology)

  • 김동맹;조인준
    • 한국콘텐츠학회논문지
    • /
    • 제21권2호
    • /
    • pp.587-593
    • /
    • 2021
  • 본 논문에서는 나날이 발전하는 대규모 서비스거부공격에 대해 고전적인 방식의 DDoS 대응시스템에서 벗어나, 4차 혁명 시대의 핵심기술 중의 하나인 인공지능 기반의 기술을 활용해 지능화된 서비스거부공격을 효율적으로 감내 할 수 있는 서비스모델 개발방안을 제안하였다. 즉, 다수의 보안장비, 웹서버로부터 수집된 다량의 데이터를 대상으로 머신러닝 인공지능 학습을 통해 서비스거부공격을 탐지하고 피해를 최소화할 수 있는 방안을 제안하였다. 특히, 인공지능기술을 활용하기 위한 모델을 개발은 일정한 트래픽 변화를 반복하며 안정적 흐름의 데이터를 전송이 이루어지다가 서비스거부공격이 발생하면 다른 양상의 데이터 흐름을 보인다는 점에 착안하여 서비스서부공격 탐지에 인공지능기술을 활용하였다. 서비스거부공격이 발생하면 확률기반의 실제 트래픽과 예측값과의 편차가 발생하기 때문에 공격성 데이터로 판단하여 대응이 가능하다. 이 논문에서는 보안장비나 서버에서 발생하는 로그를 기반으로 데이터를 분석하여 서비스거부공격 탐지모델을 설명하였다.

국방 데이터를 활용한 인셉션 네트워크 파생 이미지 분류 AI의 설명 가능성 연구 (A Study on the Explainability of Inception Network-Derived Image Classification AI Using National Defense Data)

  • 조강운
    • 한국군사과학기술학회지
    • /
    • 제27권2호
    • /
    • pp.256-264
    • /
    • 2024
  • In the last 10 years, AI has made rapid progress, and image classification, in particular, are showing excellent performance based on deep learning. Nevertheless, due to the nature of deep learning represented by a black box, it is difficult to actually use it in critical decision-making situations such as national defense, autonomous driving, medical care, and finance due to the lack of explainability of judgement results. In order to overcome these limitations, in this study, a model description algorithm capable of local interpretation was applied to the inception network-derived AI to analyze what grounds they made when classifying national defense data. Specifically, we conduct a comparative analysis of explainability based on confidence values by performing LIME analysis from the Inception v2_resnet model and verify the similarity between human interpretations and LIME explanations. Furthermore, by comparing the LIME explanation results through the Top1 output results for Inception v3, Inception v2_resnet, and Xception models, we confirm the feasibility of comparing the efficiency and availability of deep learning networks using XAI.

화학 공정 설계 및 분석을 위한 설명 가능한 인공지능 대안 모델 (Explainable Artificial Intelligence (XAI) Surrogate Models for Chemical Process Design and Analysis)

  • 고유나;나종걸
    • Korean Chemical Engineering Research
    • /
    • 제61권4호
    • /
    • pp.542-549
    • /
    • 2023
  • 대안 모델링에 대한 관심이 커진 이후 데이터 기반의 기계학습을 이용하여 비선형 화학 공정을 모사하고자 하는 연구가 지속되고 있다. 그러나 기계 학습 모델의 black box 성질로 인하여 모델의 해석 가능성에 한계는 산업 적용에 걸림돌이 되고 있다. 따라서, 모델의 정확도가 보장된 상태에서 해석력을 부여하는 개념인 설명 가능한 인공지능(explainable artificial intelligence, XAI)을 이용하여 화학 공정 분석을 시도하고자 한다. 기존의 화학 공정 민감도 분석이 변수의 민감도 지수를 계산하고 순위를 매기는 데에 그쳤다면, XAI를 이용하여 전역적, 국소적 민감도 분석뿐만 아니라 변수들 간의 상호작용에 대하여 분석하여 데이터로부터 물리적 통찰을 얻어내는 방법론을 제안한다. 사례 연구의 대상공정인 암모니아 합성 공정에 대하여 첫번째 반응기로 향하는 흐름에 대한 예열기(preheater)의 온도, 세 반응기로 향하는 cold-shot의 분배 비율을 공정 변수로 설정하였다. Matlab과 Aspen plus를 연동하여 공정 변수를 바꿔가면서 암모니아의 생산량과 세 반응기의 최고 온도에 대한 데이터를 얻었으며, tree 기반의 모델들을 훈련시켰다. 그리고 성능이 좋은 모델에 대하여 XAI 기법 중 하나인 SHAP 기법을 이용하여 민감도 분석을 수행하였다. 전역적 민감도 분석 결과, 예열기의 온도가 가장 큰 영향을 미쳤으며 국소적 민감도 분석 결과에서 생산성 향상 및 과열 방지를 위한 공정 변수들의 범위를 규정할 수 있었다. 이처럼 화학 공정의 대안 모델을 구축하고 설명 가능한 인공지능을 이용해 민감도 분석을 진행하는 방법론을 통해 공정 최적화에 대한 정량적, 정성적 피드백을 제안하는 데 도움을 줄 것이다.

설명가능한 그래프 신경망을 활용한 리뷰 콘텐츠 기반의 유용성 예측모형 (The Prediction of the Helpfulness of Online Review Based on Review Content Using an Explainable Graph Neural Network)

  • 김은미;야오즈옌;홍태호
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.309-323
    • /
    • 2023
  • 온라인 리뷰의 역할이 중요해짐에 따라 유용한 리뷰를 선별하기 위해 많은 연구들이 이루어져 왔다. 유용한 리뷰는 고객들이 유용하다고 인지하는 리뷰이며, 평점, 리뷰길이, 리뷰내용 등에 영향을 받는 것으로 많은 연구에서 검증되었다. 유용한 리뷰는 소비자들의 투표에 의한 '좋아요' 수에 의해 결정되며 유용성 투표가 많을수록 소비자의 구매의사결정에 중요한 영향을 미치는 것으로 간주된다. 그러나 최근에 작성되어 많은 고객들에게 노출되지 않은 리뷰는 상대적으로 '좋아요' 수가 적을 수 있으며, 투표에 응하지 않아 '좋아요' 수가 없을 수도 있다. 따라서 유용한 리뷰를 판단하기 위해 '좋아요' 수에 의존하기 보다는 리뷰 내용을 기반으로 유용한 리뷰를 분류하고자 한다. 리뷰의 텍스트는 리뷰 유용성에 가장 큰 영향을 미치는 요인으로, 토픽 모델링, 감정분석 등 텍스트 마이닝 기법을 적용하여 리뷰 텍스트에 포함된 콘텐츠와 감정의 영향을 다양하게 분석하고 있다. 본 연구에서는 글로벌 영화정보 사이트인 IMDb의 영화리뷰를 활용하여 리뷰 콘텐츠 기반의 리뷰 유용성 예측모형을 제안한다. 설명가능한 그래프 신경망인 GNN(Graph Neural Network)을 적용하여 리뷰 유용성 예측모형을 구축하고, 설명가능한 인공지능을 통해 예측모형의 한계인 모형의 해석에 대한 문제를 해결한다. 설명가능한 그래프 신경망은 리뷰들 간의 연결관계도 확인할 수 있어 유용한 리뷰 또는 유용하지 않은 리뷰에 대해 보다 신뢰할 수 있는 정보를 제공할 수 있을 것이라 기대한다.

SHAP을 이용한 설명 가능한 신용카드 연체 예측 (Explainable Credit Default Prediction Using SHAP)

  • 김민중;김승우;문지훈
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.39-40
    • /
    • 2024
  • 본 연구는 SHAP(SHapley Additive exPlanations)을 활용하여 신용카드 사용자의 연체 가능성을 예측하는 기계학습 모델의 해석 가능성을 강화하는 방법을 제안한다. 대규모 신용카드 데이터를 분석하여, 고객의 나이, 성별, 결혼 상태, 결제 이력 등이 연체 발생에 미치는 영향을 명확히 하는 것을 목표로 한다. 본 연구를 토대로 금융기관은 더 정확한 위험 관리를 수행하고, 고객에게 맞춤형 서비스를 제공할 수 있는 기반을 마련할 수 있다.

  • PDF