• Title/Summary/Keyword: 설명 가능한 인공지능

Search Result 100, Processing Time 0.026 seconds

Classification of Breast Cancer using Explainable A.I. and Deep learning (딥러닝과 설명 가능한 인공지능을 이용한 유방암 판별)

  • Ha, Soo-Hee;Yoo, Jae-Chern
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.99-100
    • /
    • 2022
  • 본 논문에서는 유방암 초음파 이미지를 학습한 multi-modal 구조를 이용하여 유방암을 판별하는 인공지능을 제안한다. 학습된 인공지능은 유방암을 판별과 동시에, 설명 가능한 인공지능 기법과 ROI를 함께 사용하여 종양의 위치를 나타내준다. 시각적으로 판단 근거를 제시하기 때문에 인공지능의 판단 신뢰도는 더 높아진다.

  • PDF

A Study on the Educational Meaning of eXplainable Artificial Intelligence for Elementary Artificial Intelligence Education (초등 인공지능 교육을 위한 설명 가능한 인공지능의 교육적 의미 연구)

  • Park, Dabin;Shin, Seungki
    • Journal of The Korean Association of Information Education
    • /
    • v.25 no.5
    • /
    • pp.803-812
    • /
    • 2021
  • This study explored the concept of artificial intelligence and the problem-solving process that can be explained through literature research. Through this study, the educational meaning and application plan of artificial intelligence that can be explained were presented. XAI education is a human-centered artificial intelligence education that deals with human-related artificial intelligence problems, and students can cultivate problem-solving skills. In addition, through algorithmic education, it is possible to understand the principles of artificial intelligence, explain artificial intelligence models related to real-life problem situations, and expand to the field of application of artificial intelligence. In order for such XAI education to be applied in elementary schools, examples related to real world must be used, and it is recommended to utilize those that the algorithm itself has interpretability. In addition, various teaching and learning methods and tools should be used for understanding to move toward explanation. Ahead of the introduction of artificial intelligence in the revised curriculum in 2022, we hope that this study will be meaningfully used as the basis for actual classes.

A Study to Design the Instructional Program based on Explainable Artificial intelligence (설명가능한 인공지능기반의 인공지능 교육 프로그램 개발)

  • Park, Dabin;Shin, Seungki
    • 한국정보교육학회:학술대회논문집
    • /
    • 2021.08a
    • /
    • pp.149-157
    • /
    • 2021
  • Ahead of the introduction of artificial intelligence education into the revised curriculum in 2022, various class cases based on artificial intelligence should be developed. In this study, we designed an artificial intelligence education program based on explainable artificial intelligence using design-based research. Artificial intelligence, which covers three areas of basic, utilization, and ethics of artificial intelligence and can be easily connected to real-life cases, is set as a key topic. In general design-based studies, more than three repetitive processes are performed, but the results of this study are based on the results of the primary design, application, and evaluation. We plan to design a program on artificial intelligence that is more complete based on the third modification and supplementation by applying it to the school later. This research will help the development of artificial intelligence education introduced at school.

  • PDF

Explanable Artificial Intelligence Study based on Blockchain Using Point Cloud (포인트 클라우드를 이용한 블록체인 기반 설명 가능한 인공지능 연구)

  • Hong, Sunghyuck
    • Journal of Convergence for Information Technology
    • /
    • v.11 no.8
    • /
    • pp.36-41
    • /
    • 2021
  • Although the technology for prediction or analysis using artificial intelligence is constantly developing, a black-box problem does not interpret the decision-making process. Therefore, the decision process of the AI model can not be interpreted from the user's point of view, which leads to unreliable results. We investigated the problems of artificial intelligence and explainable artificial intelligence using Blockchain to solve them. Data from the decision-making process of artificial intelligence models, which can be explained with Blockchain, are stored in Blockchain with time stamps, among other things. Blockchain provides anti-counterfeiting of the stored data, and due to the nature of Blockchain, it allows free access to data such as decision processes stored in blocks. The difficulty of creating explainable artificial intelligence models is a large part of the complexity of existing models. Therefore, using the point cloud to increase the efficiency of 3D data processing and the processing procedures will shorten the decision-making process to facilitate an explainable artificial intelligence model. To solve the oracle problem, which may lead to data falsification or corruption when storing data in the Blockchain, a blockchain artificial intelligence problem was solved by proposing a blockchain-based explainable artificial intelligence model that passes through an intermediary in the storage process.

A Study on the Strategies for Ensuring Trustworthiness of Artificial Intelligence Modeling - Focusing on eXplainable AI's Use Cases - (인공지능 모형의 신뢰성 확보 방안에 관한 고찰 -설명 가능한 인공지능의 활용사례를 중심으로-)

  • Kim, Yoon-Myung;Kim, Younamuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.854-856
    • /
    • 2022
  • 본 논문에서는 설명가능한 머신러닝 모델과 관련된 다양한 도구를 활용해보고, 최근 각광받는 주제인 신뢰성에 대해서도 고찰해보았다. 근래의 인공지능 모델은 설명력을 덧붙여 정보 장벽을 낮추는 방향으로 진화하고 있다. 이에 따라 AI 모형이 제공하는 정보량이 늘고 사용자 진화적 인 방식으로 바뀌면서 사용자층이 확대되고 있는 추세이다. 또한 데이터 분석 분야의 영향력이 높아지고 연구 주체들이 다양해지면서, 해당 모델이나 데이터에 관한 신뢰성을 확보해야한다는 요구가 많아지고 있다. 이에 많은 연구자들이 인공지능 모델의 신뢰성의 확보를 위해 노력하고 있다. 본 연구에서는 이러한 노력의 발자취를 따라가보면서 인공지능의 설명가능성에 관하여 소개하려고 한다. 그 과정에서 민감한 데이터를 다루어보면서 신뢰성 활보의 필요성에 대해서도 논의해보려고 한다.

Generative Evidence Inference Method using Document Summarization Dataset (문서 요약 데이터셋을 이용한 생성형 근거 추론 방법)

  • Yeajin Jang;Youngjin Jang;Harksoo Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.137-140
    • /
    • 2023
  • 자연어처리는 인공지능 발전과 함께 주목받는 분야로 컴퓨터가 인간의 언어를 이해하게 하는 기술이다. 그러나 많은 인공지능 모델은 블랙박스처럼 동작하여 그 원리를 해석하거나 이해하기 힘들다는 문제점이 있다. 이 문제를 해결하기 위해 설명 가능한 인공지능의 중요성이 강조되고 있으며, 활발히 연구되고 있다. 연구 초기에는 모델의 예측에 큰 영향을 끼치는 단어나 절을 근거로 추출했지만 문제 해결을 위한 단서 수준에 그쳤으며, 이후 문장 단위의 근거로 확장된 연구가 수행되었다. 하지만 문서 내에 서로 떨어져 있는 근거 문장 사이에 누락된 문맥 정보로 인하여 이해에 어려움을 줄 수 있다. 따라서 본 논문에서는 사람에게 보다 이해하기 쉬운 근거를 제공하기 위한 생성형 기반의 근거 추론 연구를 수행하고자 한다. 높은 수준의 자연어 이해 능력이 필요한 문서 요약 데이터셋을 활용하여 근거를 생성하고자 하며, 실험을 통해 일부 기계독해 데이터 샘플에서 예측에 대한 적절한 근거를 제공하는 것을 확인했다.

  • PDF

Interpretable Deep Learning Based On Prototype Generation (프로토타입 생성 기반 딥 러닝 모델 설명 방법)

  • Park, Jae-hun;Kim, Kwang-su
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.23-26
    • /
    • 2022
  • 딥 러닝 모델은 블랙 박스 (Black Box) 모델로 예측에 대한 근거를 제시하지 못해 신뢰성이 떨어지는 단점이 존재한다. 이를 해결하기 위해 딥 러닝 모델에 설명력을 부여하는 설명 가능한 인공지능 (XAI) 분야 연구가 활발하게 이루어지고 있다. 본 논문에서는 모델 예측을 프로토타입을 통해 설명하는 딥 러닝 모델을 제시한다. 즉, "주어진 이미지는 티셔츠인데, 그 이유는 티셔츠를 대표하는 모양의 프로토타입과 닮았기 때문이다."의 형태로 딥 러닝 모델을 설명한다. 해당 모델은 Encoder, Prototype Layer, Classifier로 구성되어 있다. Encoder는 Feature를 추출하는 데 활용하고 Classifier를 통해 분류 작업을 수행한다. 모델이 제시하는 분류 결과를 설명하기 위해 Prototype Layer에서 가장 유사한 프로토타입을 찾아 설명을 제시한다. 실험 결과 프로토타입 생성 기반 설명 모델은 기존 이미지 분류 모델과 유사한 예측 정확도를 보였고, 예측에 대한 설명력까지 확보하였다.

  • PDF

A Research on Explainability of the Medical AI Model based on Attention and Attention Flow Graph (어텐션과 어텐션 흐름 그래프를 활용한 의료 인공지능 모델의 설명가능성 연구)

  • Lee, You-Jin;Chae, Dong-Kyu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.520-522
    • /
    • 2022
  • 의료 인공지능은 특정 진단에서 높은 정확도를 보이지만 모델의 신뢰성 문제로 인해 활발하게 쓰이지 못하고 있다. 이에 따라 인공지능 모델의 진단에 대한 원인 설명의 필요성이 대두되었고 설명가능한 의료 인공지능에 관한 연구가 활발히 진행되고 있다. 하지만 MRI 등 의료 영상 인공지능 분야에서 주로 진행되고 있으며, 이미지 형태가 아닌 전자의무기록 데이터 (Electronic Health Record, EHR) 를 기반으로 한 모델의 설명가능성 연구는 EHR 데이터 자체의 복잡성 때문에 활발하게 진행 되지 않고 있다. 본 논문에서는 전자의무기록 데이터인 MIMIC-III (Medical Information Mart for Intensive Care) 를 전처리 및 그래프로 표현하고, GCT (Graph Convolutional Transformer) 모델을 학습시켰다. 학습 후, 어텐션 흐름 그래프를 시각화해서 모델의 예측에 대한 직관적인 설명을 제공한다.

인공지능과 핀테크 보안

  • Choi, Daeseon
    • Review of KIISC
    • /
    • v.26 no.2
    • /
    • pp.35-38
    • /
    • 2016
  • 본 논문에서는 핀테크 보안에 활용 가능한 딥러닝 기술을 살펴본다. 먼저 인공지능과 관련된 보안 이슈를 인공지능이 사람을 위협하는 상황에 대한 보안(Security FROM AI), 인공지능 시스템이나 서비스를 악의적인 공격으로부터 보호하는 이슈(Security OF AI), 인공지능 기술을 활용해 보안 문제를 해결하는 것(Security BY AI) 3가지로 구분하여 살펴본다. Security BY AI의 일환으로 딥러닝에 기반한 비정상탐지(anomaly detection)과 회귀분석(regression)기법을 설명하고, 이상거래탐지, 바이오인증, 피싱, 파밍 탐지, 본인확인, 명의도용탐지, 거래 상대방 신뢰도 분석 등 핀테크 보안 문제에 활용할 수 있는 방안을 살펴본다.