• 제목/요약/키워드: Explainable

검색결과 161건 처리시간 0.028초

비디오 분류에 기반 해석가능한 딥러닝 알고리즘 (An Explainable Deep Learning Algorithm based on Video Classification)

  • 김택위;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.449-452
    • /
    • 2023
  • The rapid development of the Internet has led to a significant increase in multimedia content in social networks. How to better analyze and improve video classification models has become an important task. Deep learning models have typical "black box" characteristics. The model requires explainable analysis. This article uses two classification models: ConvLSTM and VGG16+LSTM models. And combined with the explainable method of LRP, generate visualized explainable results. Finally, based on the experimental results, the accuracy of the classification model is: ConvLSTM: 75.94%, VGG16+LSTM: 92.50%. We conducted explainable analysis on the VGG16+LSTM model combined with the LRP method. We found VGG16+LSTM classification model tends to use the frames biased towards the latter half of the video and the last frame as the basis for classification.

텍스트 기반 Explainable AI를 적용한 국가연구개발혁신 모니터링 (Text Based Explainable AI for Monitoring National Innovations)

  • 임정선;배성훈
    • 산업경영시스템학회지
    • /
    • 제45권4호
    • /
    • pp.1-7
    • /
    • 2022
  • Explainable AI (XAI) is an approach that leverages artificial intelligence to support human decision-making. Recently, governments of several countries including Korea are attempting objective evidence-based analyses of R&D investments with returns by analyzing quantitative data. Over the past decade, governments have invested in relevant researches, allowing government officials to gain insights to help them evaluate past performances and discuss future policy directions. Compared to the size that has not been used yet, the utilization of the text information (accumulated in national DBs) so far is low level. The current study utilizes a text mining strategy for monitoring innovations along with a case study of smart-farms in the Honam region.

부스팅 기계 학습과 SHAP를 이용한 설명 가능한 소프트웨어 분야 대졸자 취업 모델 개발 (Explainable Software Employment Model Development of University Graduates using Boosting Machine Learning and SHAP)

  • 권준희;김성림
    • 디지털산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.177-192
    • /
    • 2023
  • The employment rate of university graduates has been decreasing significantly recently. With the advent of the Fourth Industrial Revolution, the demand for software employment has increased. It is necessary to analyze the factors for software employment of university graduates. This paper proposes explainable software employment model of university graduates using machine learning and explainable AI. The Graduates Occupational Mobility Survey(GOMS) provided by the Korea Employment Information Service is used. The employment model uses boosting machine learning. Then, performance evaluation is performed with four algorithms of boosting model. Moreover, it explains the factors affecting the employment using SHAP. The results indicates that the top 3 factors are major, employment goal setting semester, and vocational education and training.

설명 가능한 AI를 적용한 기계 예지 정비 방법 (Explainable AI Application for Machine Predictive Maintenance)

  • 천강민;양재경
    • 산업경영시스템학회지
    • /
    • 제44권4호
    • /
    • pp.227-233
    • /
    • 2021
  • Predictive maintenance has been one of important applications of data science technology that creates a predictive model by collecting numerous data related to management targeted equipment. It does not predict equipment failure with just one or two signs, but quantifies and models numerous symptoms and historical data of actual failure. Statistical methods were used a lot in the past as this predictive maintenance method, but recently, many machine learning-based methods have been proposed. Such proposed machine learning-based methods are preferable in that they show more accurate prediction performance. However, with the exception of some learning models such as decision tree-based models, it is very difficult to explicitly know the structure of learning models (Black-Box Model) and to explain to what extent certain attributes (features or variables) of the learning model affected the prediction results. To overcome this problem, a recently proposed study is an explainable artificial intelligence (AI). It is a methodology that makes it easy for users to understand and trust the results of machine learning-based learning models. In this paper, we propose an explainable AI method to further enhance the explanatory power of the existing learning model by targeting the previously proposedpredictive model [5] that learned data from a core facility (Hyper Compressor) of a domestic chemical plant that produces polyethylene. The ensemble prediction model, which is a black box model, wasconverted to a white box model using the Explainable AI. The proposed methodology explains the direction of control for the major features in the failure prediction results through the Explainable AI. Through this methodology, it is possible to flexibly replace the timing of maintenance of the machine and supply and demand of parts, and to improve the efficiency of the facility operation through proper pre-control.

효율적인 트랜스포머에 기반한 설명 가능한 팩트체크 모델 (Explainable Fact Checking Model Based on Efficient Transformer)

  • 윤희승;정재은;이건주;정다희;김건오
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.19-21
    • /
    • 2021
  • 본 논문에서는 어텐션 메커니즘에 기반하여 정보 판단에 대한 근거를 제공하는, 이른바 설명 가능한 팩트체크 모델을 제안할 것이다. 최근 미디어의 발달에 따라 각종 뉴스가 쏟아지고 있는 바, 이와 더불어 뉴스에 대한 진위 여부 판단, 즉 팩트체크가 주목받고 있는 상황이다. 하지만 현재 팩트체크는 언론인이나 시민 단체 일원들의 검색 능력에 의존하고 있어서, 이를 자동적으로 하는 모델에 대한 연구가 진행되고 있다. 이에 본 논문에서 설명 가능한 자동 팩트체크 모델을 제안하고자 한다.

  • PDF

Explainable AI와 Transformer를 이용한 수술 중 저혈압 실시간 예측 모델 개발 (Development of a real-time prediction model for intraoperative hypotension using Explainable AI and Transformer)

  • 정은서;김상현;우지영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.35-36
    • /
    • 2024
  • 전신 마취 수술 중 저혈압의 발생은 다양한 합병증을 유발하며 이를 사전에 예측하여 대응하는 것은 매우 중요한 일이다. 따라서 본 연구에서는 SHAP 모델을 통해 변수 선택을 진행하고, Transformer 모델을 이용해 저혈압 발생 여부를 예측함으로써 임상적 의사결정을 지원한다. 또한 기존 연구들과는 달리, 수술실에서 수집되는 데이터를 기반으로 하여 높은 범용성을 가진다. 비침습적 혈압 예측에서 RMSE 9.46, MAPE 4.4%를 달성하였고, 저혈압 여부를 예측에서는 저혈압 기준 F1-Score 0.75로 우수한 결과를 얻었다.

  • PDF

Transforming Patient Health Management: Insights from Explainable AI and Network Science Integration

  • Mi-Hwa Song
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.307-313
    • /
    • 2024
  • This study explores the integration of Explainable Artificial Intelligence (XAI) and network science in healthcare, focusing on enhancing healthcare data interpretation and improving diagnostic and treatment methods. Key methodologies like Graph Neural Networks, Community Detection, Overlapping Network Models, and Time-Series Network Analysis are examined in depth for their potential in patient health management. The research highlights the transformative role of XAI in making complex AI models transparent and interpretable, essential for accurate, data-driven decision-making in healthcare. Case studies demonstrate the practical application of these methodologies in predicting diseases, understanding drug interactions, and tracking patient health over time. The study concludes with the immense promise of these advancements in healthcare, despite existing challenges, and underscores the need for ongoing research to fully realize the potential of AI in this field.

딥러닝과 설명 가능한 인공지능을 이용한 유방암 판별 (Classification of Breast Cancer using Explainable A.I. and Deep learning)

  • 하수희;유재천
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.99-100
    • /
    • 2022
  • 본 논문에서는 유방암 초음파 이미지를 학습한 multi-modal 구조를 이용하여 유방암을 판별하는 인공지능을 제안한다. 학습된 인공지능은 유방암을 판별과 동시에, 설명 가능한 인공지능 기법과 ROI를 함께 사용하여 종양의 위치를 나타내준다. 시각적으로 판단 근거를 제시하기 때문에 인공지능의 판단 신뢰도는 더 높아진다.

  • PDF

설명 가능 그래프 심층 인공신경망 기반 속도 예측 및 인근 도로 영향력 분석 기법 (Speed Prediction and Analysis of Nearby Road Causality Using Explainable Deep Graph Neural Network)

  • 김유진;윤영
    • 한국융합학회논문지
    • /
    • 제13권1호
    • /
    • pp.51-62
    • /
    • 2022
  • 교통 혼잡을 해결하기 위한 AI 기반 속도 예측 연구는 활발하게 진행되고 있다. 하지만, 인공지능의 추론 과정을 설명하는 설명 가능한 AI의 중요성이 대두되고 있는 가운데 AI 기반 속도 예측의 결과를 해석하고 원인을 추리하는 연구는 미흡하였다. 따라서 본 논문에서는 '설명 가능 그래프 심층 인공신경망 (GNN)'을 고안하여 속도 예측뿐만 아니라, GNN 모델 입력값의 마스킹 기법에 기반하여 인근 도로 영향력을 정량적으로 분석함으로써 혼잡 등의 상황에 대한 추론 근거를 도출하였다. TOPIS 통행 속도 데이터를 활용하여 서울 시내 혼잡 도로를 기준으로 예측 및 분석 방법론을 적용한 후 영향력 높은 인근 도로의 속도를 가상으로 조절하는 시뮬레이션 통하여 혼잡 도로의 통행 속도가 개선됨을 확인하여 제안한 방법론의 타당성을 입증하였다. 이는 교통 네트워크에 제안한 방법론을 적용하고, 그 추론 결과에 기반한 특정 인근 도로를 제어하여 교통 흐름을 개선할 수 있다는 점에 의미가 있다.

설명 가능한 인공지능(XAI)을 활용한 침입탐지 신뢰성 강화 방안 (The Enhancement of intrusion detection reliability using Explainable Artificial Intelligence(XAI))

  • 정일옥;최우빈;김수철
    • 융합보안논문지
    • /
    • 제22권3호
    • /
    • pp.101-110
    • /
    • 2022
  • 다양한 분야에서 인공지능을 활용한 사례가 증가하면서 침입탐지 분야 또한 다양한 이슈를 인공지능을 통해 해결하려는 시도가 증가하고 있다. 하지만, 머신러닝을 통한 예측된 결과에 관한 이유를 설명하거나 추적할 수 없는 블랙박스 기반이 대부분으로 이를 활용해야 하는 보안 전문가에게 어려움을 주고 있다. 이러한 문제를 해결하고자 다양한 분야에서 머신러닝의 결정을 해석하고 이해하는데 도움이 되는 설명 가능한 AI(XAI)에 대한 연구가 증가하고 있다. 이에 본 논문에서는 머신러닝 기반의 침입탐지 예측 결과에 대한 신뢰성을 강화하기 위한 설명 가능한 AI를 제안한다. 먼저, XGBoost를 통해 침입탐지 모델을 구현하고, SHAP을 활용하여 모델에 대한 설명을 구현한다. 그리고 기존의 피처 중요도와 SHAP을 활용한 결과를 비교 분석하여 보안 전문가가 결정을 수행하는데 신뢰성을 제공한다. 본 실험을 위해 PKDD2007 데이터셋을 사용하였으며 기존의 피처 중요도와 SHAP Value에 대한 연관성을 분석하였으며, 이를 통해 SHAP 기반의 설명 가능한 AI가 보안 전문가들에게 침입탐지 모델의 예측 결과에 대한 신뢰성을 주는데 타당함을 검증하였다.