• 제목/요약/키워드: Explainability

검색결과 28건 처리시간 0.026초

국방 데이터를 활용한 인셉션 네트워크 파생 이미지 분류 AI의 설명 가능성 연구 (A Study on the Explainability of Inception Network-Derived Image Classification AI Using National Defense Data)

  • 조강운
    • 한국군사과학기술학회지
    • /
    • 제27권2호
    • /
    • pp.256-264
    • /
    • 2024
  • In the last 10 years, AI has made rapid progress, and image classification, in particular, are showing excellent performance based on deep learning. Nevertheless, due to the nature of deep learning represented by a black box, it is difficult to actually use it in critical decision-making situations such as national defense, autonomous driving, medical care, and finance due to the lack of explainability of judgement results. In order to overcome these limitations, in this study, a model description algorithm capable of local interpretation was applied to the inception network-derived AI to analyze what grounds they made when classifying national defense data. Specifically, we conduct a comparative analysis of explainability based on confidence values by performing LIME analysis from the Inception v2_resnet model and verify the similarity between human interpretations and LIME explanations. Furthermore, by comparing the LIME explanation results through the Top1 output results for Inception v3, Inception v2_resnet, and Xception models, we confirm the feasibility of comparing the efficiency and availability of deep learning networks using XAI.

A sensitivity analysis of machine learning models on fire-induced spalling of concrete: Revealing the impact of data manipulation on accuracy and explainability

  • Mohammad K. al-Bashiti;M.Z. Naser
    • Computers and Concrete
    • /
    • 제33권4호
    • /
    • pp.409-423
    • /
    • 2024
  • Using an extensive database, a sensitivity analysis across fifteen machine learning (ML) classifiers was conducted to evaluate the impact of various data manipulation techniques, evaluation metrics, and explainability tools. The results of this sensitivity analysis reveal that the examined models can achieve an accuracy ranging from 72-93% in predicting the fire-induced spalling of concrete and denote the light gradient boosting machine, extreme gradient boosting, and random forest algorithms as the best-performing models. Among such models, the six key factors influencing spalling were maximum exposure temperature, heating rate, compressive strength of concrete, moisture content, silica fume content, and the quantity of polypropylene fiber. Our analysis also documents some conflicting results observed with the deep learning model. As such, this study highlights the necessity of selecting suitable models and carefully evaluating the presence of possible outcome biases.

탁아기관의 질, 탁아경험 및 가족특성과 아동의 사회성발달과의 관계 (Relationships between Children's Social Development and Day Care Quality, Child-care Experience and Family Characteristics)

  • 양연숙;조복희
    • 아동학회지
    • /
    • 제17권2호
    • /
    • pp.181-193
    • /
    • 1996
  • The purpose of this study was: (1) to examine relationships between social development and day care quality, child-care experience and family characteristics, and (2) to investigate the explainability of those related variables for social development. Subjects for this study were 252 4-year-old children and their mothers from 32 day care centers in Seoul. Harms & Clifford's Early Childhood Environment Rating Scale was used to measure the quality of day care. The main results were as follows: (1) Day care quality, child-care experience and family characteristics were significantly related to social development. (2) Child's gender, months of age, mother's child rearing attitude, the length of child-care experience, overall quality of day care, and group size significantly predicted social development. 33% of the variance of social development was explained by these variables. The relative influence of these variables to the prediction of social development was about the same.

  • PDF

Self-Attention 시각화를 사용한 기계번역 서비스의 번역 오류 요인 설명 (Explaining the Translation Error Factors of Machine Translation Services Using Self-Attention Visualization)

  • 장청롱;안현철
    • 한국IT서비스학회지
    • /
    • 제21권2호
    • /
    • pp.85-95
    • /
    • 2022
  • This study analyzed the translation error factors of machine translation services such as Naver Papago and Google Translate through Self-Attention path visualization. Self-Attention is a key method of the Transformer and BERT NLP models and recently widely used in machine translation. We propose a method to explain translation error factors of machine translation algorithms by comparison the Self-Attention paths between ST(source text) and ST'(transformed ST) of which meaning is not changed, but the translation output is more accurate. Through this method, it is possible to gain explainability to analyze a machine translation algorithm's inside process, which is invisible like a black box. In our experiment, it was possible to explore the factors that caused translation errors by analyzing the difference in key word's attention path. The study used the XLM-RoBERTa multilingual NLP model provided by exBERT for Self-Attention visualization, and it was applied to two examples of Korean-Chinese and Korean-English translations.

객체 인식 설명성 향상을 위한 FPN-Attention Layered 모델의 성능 평가 (Performance Evaluation of FPN-Attention Layered Model for Improving Visual Explainability of Object Recognition)

  • 윤석준;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1311-1314
    • /
    • 2022
  • DNN을 사용하여 객체 인식 과정에서 객체를 잘 분류하기 위해서는 시각적 설명성이 요구된다. 시각적 설명성은 object class에 대한 예측을 pixel-wise attribution으로 표현해 예측 근거를 해석하기 위해 제안되었다, Scale-invariant한 특징을 제공하도록 설계된 pyramidal features 기반 backbone 구조는 object detection 및 classification 등에서 널리 쓰이고 있으며, 이러한 특징을 갖는 feature pyramid를 trainable attention mechanism에 적용하고자 할 때 계산량 및 메모리의 복잡도가 증가하는 문제가 있다. 본 논문에서는 일반적인 FPN에서 객체 인식 성능과 설명성을 높이기 위한 피라미드-주의집중 계층네트워크 (FPN-Attention Layered Network) 방식을 제안하고, 실험적으로 그 특성을 평가하고자 한다. 기존의 FPN만을 사용하였을 때 객체 인식 과정에서 설명성을 향상시키는 방식이 객체 인식에 미치는 정도를 정량적으로 평가하였다. 제안된 모델의 적용을 통해 낮은 computing 오버헤드 수준에서 multi-level feature를 고려한 시각적 설명성을 개선시켜, 결괴적으로 객체 인식 성능을 향상 시킬 수 있음을 실험적으로 확인할 수 있었다.

  • PDF

어텐션과 어텐션 흐름 그래프를 활용한 의료 인공지능 모델의 설명가능성 연구 (A Research on Explainability of the Medical AI Model based on Attention and Attention Flow Graph)

  • 이유진;채동규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.520-522
    • /
    • 2022
  • 의료 인공지능은 특정 진단에서 높은 정확도를 보이지만 모델의 신뢰성 문제로 인해 활발하게 쓰이지 못하고 있다. 이에 따라 인공지능 모델의 진단에 대한 원인 설명의 필요성이 대두되었고 설명가능한 의료 인공지능에 관한 연구가 활발히 진행되고 있다. 하지만 MRI 등 의료 영상 인공지능 분야에서 주로 진행되고 있으며, 이미지 형태가 아닌 전자의무기록 데이터 (Electronic Health Record, EHR) 를 기반으로 한 모델의 설명가능성 연구는 EHR 데이터 자체의 복잡성 때문에 활발하게 진행 되지 않고 있다. 본 논문에서는 전자의무기록 데이터인 MIMIC-III (Medical Information Mart for Intensive Care) 를 전처리 및 그래프로 표현하고, GCT (Graph Convolutional Transformer) 모델을 학습시켰다. 학습 후, 어텐션 흐름 그래프를 시각화해서 모델의 예측에 대한 직관적인 설명을 제공한다.

흉부 X-ray 영상 내 폐 결절의 석회화 여부 진단을 위한 화소 밝기 분석 기법 (Diagnosis of Calcification of Lung Nodules on the Chest X-ray Images using Gray-Level based Analysis)

  • 최현진;유동연;선주성;이정원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.681-683
    • /
    • 2023
  • 폐암은 전 세계적으로 사망률이 가장 높은 암 질환으로, 조기 발견 및 신속한 치료를 위해서는 흉부 X-ray 영상 내 악성 결절을 놓치지 않는 것이 중요하다. 그러나 흉부 X-ray 영상은 정밀도의 한계로 진단 결과에 대한 신뢰도가 낮아, 이를 보조하는 도구의 개발이 요구된다. 기존의 폐암 진단 보조 도구는 학습 기반의 기법으로, 진단 결과에 대한 설명성(explainability)이 없다는 위험성을 갖는다. 이에 본 논문에서는 통계 분석에 기반한 결절의 석회화 여부 진단 기법을 제안한다. 제안하는 기법은 결절과 해부학적 구조물의 밝기 차 분포로부터 석회화 여부를 판단하며, 그 결과 민감도 65.22%, 특이도 88.48%, 정확도 83.41%의 성능을 보였다.

악성코드 대응을 위한 신뢰할 수 있는 AI 프레임워크 (Trustworthy AI Framework for Malware Response)

  • 신경아;이윤호;배병주;이수항;홍희주;최영진;이상진
    • 정보보호학회논문지
    • /
    • 제32권5호
    • /
    • pp.1019-1034
    • /
    • 2022
  • 4차 산업혁명의 초연결사회에서 악성코드 공격은 더욱 기승을 부리고 있다. 이러한 악성코드 대응을 위해 인공지능기술을 이용한 악성코드 탐지 자동화는 새로운 대안으로 주목받고 있다. 그러나, 인공지능의 신뢰성에 대한 담보없이 인공지능을 활용하는 것은 더 큰 위험과 부작용을 초래한다. EU와 미국 등은 인공지능의 신뢰성 확보방안을 강구하고 있으며, 2021년 정부에서는 신뢰할 수 있는 인공지능 실현 전략을 발표했다. 정부의 인공지능 신뢰성에는 안전과 설명가능, 투명, 견고, 공정의 5가지 속성이 있다. 우리는 악성코드 탐지 모델에 견고를 제외한 안전과, 설명가능, 투명, 공정의 4가지 요소를 구현하였다. 특히 외부 기관의 검증을 통해 모델 정확도인 일반화 성능의 안정성을 입증하였고 투명을 포함한 설명가능에 중점을 두어 개발하였다. 변화무쌍한 데이터에 의해 학습이 결정되는 인공지능 모델은 생명주기 관리가 필요하다. 이에 인공지능 모델을 구성하는 데이터와 개발, 서비스 운영을 통합하는 MLOps 프레임워크에 대한 수요가 늘고 있다. EXE 실행형 악성코드와 문서형 악성코드 대응 서비스는 서비스 운영과 동시에 데이터 수집원이 되고, 외부 API를 통해 라벨링과 정제를 위한 정보를 가져오는 데이터 파이프라인과 연계하도록 구성하였다. 클라우드 SaaS 방식과 표준 API를 사용하여 다른 보안 서비스 연계나 인프라 확장을 용이하게 하였다.

설명 가능한 인공지능과 CNN을 활용한 암호화폐 가격 등락 예측모형 (The Prediction of Cryptocurrency Prices Using eXplainable Artificial Intelligence based on Deep Learning)

  • 홍태호;원종관;김은미;김민수
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.129-148
    • /
    • 2023
  • 블록체인 기술이 적용되어 있는 암호화폐는 높은 가격 변동성을 가지며 투자자 및 일반 대중으로부터 큰 관심을 받아왔다. 이러한 관심을 바탕으로 암호화폐를 비롯한 투자상품의 미래가치를 예측하기 위한 연구가 이루어지고 있으나 예측모형에 대한 설명력 및 해석 가능성이 낮아 실무에서 활용하기 어렵다는 비판을 받아왔다. 본 연구에서는 암호화폐 가격 예측모형의 성과를 향상시키기 위해 금융투자상품의 가치평가에 활용되는 기술적 지표들과 함께 투자자의 사회적 관심도를 반영할 수 있는 구글 키워드 검색량 데이터를 사용하고 설명 가능한 인공지능을 적용하여 모형에 대한 해석을 제공하고자 한다. 최근 금융 시계열 분야에서 예측성과의 우수성을 인정받고 있는 LSTM(Long Short Term Memory)과 CNN(Convolutional Neural Networks)을 활용하고, 'bitcoin'을 검색어로 하는 구글 검색량 데이터를 적용해 일주일 후의 가격 등락 예측모형을 구축하였다. LSTM과 CNN을 활용해 구축한 모형들이 높은 예측성능을 보였으며 구글 검색량을 반영한 모형에서 더 높은 예측성과를 확인할 수 있었다. 딥러닝 모형의 해석 가능성 및 설명력을 위해 XAI의 SHAP 기법을 적용한 결과, 구글 검색량과 함께 과매수, 과매도 정도를 파악할 수 있는 지표들이 모형의 의사결정에 가장 큰 영향들을 미치고 있음을 파악할 수 있었다. 본 연구는 암호화폐 가격 등락 예측에 있어 전통적으로 시계열 예측에 우수한 성과를 인정받고 있는 LSTM뿐만 아니라 이미지 분류에서 높은 예측성과를 보이는 딥러닝 기법인 CNN 또한 우수한 예측성능을 보일 수 있음을 확인하였으며, XAI를 통해 예측모형에 대한 해석을 제공하고, 대중의 심리를 반영하는 정보 중 하나인 구글 검색량을 활용해 예측성과를 향상시킬 수 있다는 것을 확인했다는 점에서 의의가 있다.

Understanding Interactive and Explainable Feedback for Supporting Non-Experts with Data Preparation for Building a Deep Learning Model

  • Kim, Yeonji;Lee, Kyungyeon;Oh, Uran
    • International journal of advanced smart convergence
    • /
    • 제9권2호
    • /
    • pp.90-104
    • /
    • 2020
  • It is difficult for non-experts to build machine learning (ML) models at the level that satisfies their needs. Deep learning models are even more challenging because it is unclear how to improve the model, and a trial-and-error approach is not feasible since training these models are time-consuming. To assist these novice users, we examined how interactive and explainable feedback while training a deep learning network can contribute to model performance and users' satisfaction, focusing on the data preparation process. We conducted a user study with 31 participants without expertise, where they were asked to improve the accuracy of a deep learning model, varying feedback conditions. While no significant performance gain was observed, we identified potential barriers during the process and found that interactive and explainable feedback provide complementary benefits for improving users' understanding of ML. We conclude with implications for designing an interface for building ML models for novice users.