DOI QR코드

DOI QR Code

Trends in the Use of Artificial Intelligence in Medical Image Analysis

의료영상 분석에서 인공지능 이용 동향

  • Lee, Gil-Jae (Department of Biomedical Engineering, Graduate School of Chungbuk National University) ;
  • Lee, Tae-Soo (Department of Biomedical Engineering, Graduate School of Chungbuk National University)
  • 이길재 (충북대학교 대학원 의용생체공학과) ;
  • 이태수 (충북대학교 대학원 의용생체공학과)
  • Received : 2022.07.25
  • Accepted : 2022.08.31
  • Published : 2022.08.31

Abstract

In this paper, the artificial intelligence (AI) technology used in the medical image analysis field was analyzed through a literature review. Literature searches were conducted on PubMed, ResearchGate, Google and Cochrane Review using the key word. Through literature search, 114 abstracts were searched, and 98 abstracts were reviewed, excluding 16 duplicates. In the reviewed literature, AI is applied in classification, localization, disease detection, disease segmentation, and fit degree of registration images. In machine learning (ML), prior feature extraction and inputting the extracted feature values into the neural network have disappeared. Instead, it appears that the neural network is changing to a deep learning (DL) method with multiple hidden layers. The reason is thought to be that feature extraction is processed in the DL process due to the increase in the amount of memory of the computer, the improvement of the calculation speed, and the construction of big data. In order to apply the analysis of medical images using AI to medical care, the role of physicians is important. Physicians must be able to interpret and analyze the predictions of AI algorithms. Additional medical education and professional development for existing physicians is needed to understand AI. Also, it seems that a revised curriculum for learners in medical school is needed.

본 논문에서는 의료 영상 분석 분야에서 이용되고 있는 AI(Artificial Intelligence)기술을 문헌 검토를 통해 분석하였다. 문헌 검색은 중심어(keyword)를 사용하여 PubMed, ResearchGate, Google 및 Cochrane Review의 문헌 검색을 수행했다. 문헌 검색을 통해 114개의 초록을 검색하였고 그 중 16개의 중복된 것을 제외하고 98개의 초록을 검토했다. 검토된 문헌에서 AI가 응용되고 있는 분야는 분류(Classification), 국소화(Localization), 질병의 탐지(Detection), 질병의 분할(Segmentation), 합성 영상의 적합도(Fit degree) 등으로 나타났다. 기계학습(ML: Machine Learning)을 위한 모델은 특징 추출을 한 후 신경망의 네트워크에 특징 값을 입력하는 방식은 지양되는 것으로 나타났다. 그 대신에 신경망의 은닉층을 여러 개로 하는 심층학습(DL: Deep Learning) 방식으로 변화되고 있는 것으로 나타났다. 그 이유는 컴퓨터의 메모리 량의 증가와 계산속도의 향상, 빅 데이터의 구축 등으로 특징 추출을 DL 과정에서 처리하는 것으로 사료된다. AI를 이용한 의료영상의 분석을 의료에 적용하기 위해서는 의사의 역할이 중요하다. 의사는 AI 알고리즘의 예측을 해석하고 분석할 수 있어야 한다. 이러한 이해를 위해서는 현재 의사를 위한 추가 의학 교육 및 전문성 개발과 의대에 재학 중인 학습자를 위한 개정된 커리큘럼이 필요해 보인다.

Keywords

Ⅰ. INTRODUCTION

전 세계의 의료 시스템은 전자 건강 기록(EHR: Electronic Health Record) 시스템을 광범위하게 채택하고 있다[1,2]. EHR 시스템에 의해 생성된 기본데이터베이스에는 진단(국제질병분류), 절차(현재절차 용어 R 코드) 및 약물(RxNorm)과 같은 구조화되고 형식이 지정된 데이터 요소를 결합하는 대규모 이기종 데이터 세트가 포함되어 있다[3]. 이 데이터 저장소(repository)는 여러 국가에서 의료 데이터를 공유하는 더 큰 시스템에 연결하는 추가 데이터 웨어하우스와 함께 작동한다[3]. 의료 분야 데이터 공유 현상은 전 세계적으로 확산되고 있다. EMIF(European Medical Information Framework)에는14개국의 EHR 데이터가 포함되어 있으며, 이는 코호트 연구를 촉진하기 위해 공통 데이터 모델로 조화를 이루고 있다[3]. 데이터 저장을 위한 사실상 무

제한 용량과 데이터 분석을 위한 계산량의 증대로 인한 병목 현상은 치료 방법을 개선하기 위한 새로운 기술을 개발하기 위한 적절한 방법을 제공하는데 장애 요인으로 작용한다[4]. 인공 지능(AI: Artificial Intelligence) 하위 개념 중 특히 머신 러닝(ML: Machine Learning), 강화 학습 및 딥 러닝(DL: Deep Learning)은 의료 분야에서 데이터 유형과 의사결정 (DM: Decision Making)을 위한 질문을 처리하는데 적합하다[4]. AI는 의사의 개입을 위한 환자의 중증도을 계층화하고, 즉각적인 보상부전(imminent decompensation)의 위험이 가장 높은 환자을 식별하 고, 전반적인 환자 치료를 위한 의사결정을 최적화하기 위해 의사를 도울 수 있다[5]. AI 모델 개발에 의사를 참여하게 하고 AI를 의사에게 교육하는 것은 의학 교육의 변화 과정이 될 것이다[5]. AI 방법론은 복잡하고 다양하여 의사의 이해와 결과 해석을 어렵게 한다. 회선신경망(CNN: Convolutional Neural Network)은 쉽게 해석할 수 없으며 인과 관계를 설정하는 것이 더 어려울 수 있다. 따라서 이러한 AI 모델의 개발에는 임상 의사의 참여가 필요하다[6]. 환자로부터 수집된 의료영상을 판독하는 데 일반적으로 사용되는 신경망은 훈련을 위한 적절한 영상 데이터를 선별하기 위해 종종 방사선 전문의의 참여가 필요하다[6]. 각 임상 상황에서 요구되는 정확도와 해석 가능 수준을 정의하려면 AI 개발자와 의학 지식을 갖춘 의사의 사전 논의가 필요하다[7]. 방법론적, 사회적, 윤리적 문제에도 불구하고 빅 데이터를 기반으로 하는 증거 기반 임상 DM은 의료 시스템에서 널리 채택되고 있다[8]. 본 논문에서는 기존의 주관적이고 경험에 의존하는 의료 데이터 분석 방법의 한계를 극복하는 CNN에 대하여 알아보고, 의료영상 분석 분야에서 이용되고 있는 AI기술을 문헌검토를 통해 분석하고자 한다.

Ⅱ. MATERIAL AND METHODS

1. HER 시스템과 의료 빅 데이터

전 세계의 의료 시스템은 EHR 시스템을 광범위하게 채택하고 있다. 많은 국가에서 90% 이상의 채택률을 보고이고 있으며, 미국은 2017년 기준으로 96%의 채택률을 기록하였다[8]. 대한민국의 EHR 도입 수준은 미국의 77.5 % 수준인 것으로 나타났다 [8]. EHR 시스템에 의해 생성된 기본 데이터베이스에는 진단(국제질병분류), 진료절차 및 약물과 같은 구조화되고 형식이 지정된 데이터 요소를 결합하는 대규모 이기종 데이터 세트가 포함되어 있다[9]. EHR 데이터의 80% 이상을 차지하는 임상 기록과 같은 비정형 데이터, 대규모 의료 시스템은 초기에 데이터의 중요성을 인식하고 데이터 웨어하우스를 생성했으며 현재 연구 목적과 증거 기반 임상 실습을 안내하는 데 사용된다. 데이터 웨어하우스는 EHR 데이터를 포함할 뿐만 아니라 청구 데이터, R(Patient-Reported Outcomes Measurement Information System R)[10], 영상 데이터, "omics" 유형 데이터 및 스마트폰에서 생성된 웨어러블 데이터 등의 연구를 위한 대규모 임상 데이터를 포함하고 있다. OneFlorida Clinical Research Consortium은 이러한 데이터 웨어하우스의 한 예이다[11]. 의료 분야의 데이터 공유 현상은 전 세계적으로 확산되고 있다. EMIF(European Medical Information Framework) 에는 14개국의 EHR 데이터가 포함되어 있으며, 이는 코호트 연구를 촉진하기 위해 공통 데이터를 내장하고 있다. 이렇게 EHR과 의료 빅 데이터를 저장하고 있는 데이터 웨어하우스는 AI를 의료분야에 이용하는데 먹이 역할을 한다.

2. AI 기반 의료영상 분석 기술

의료영상 분석은 특정 병변의 검출 및 분류, 장기(Organ)의 세부 구조 분할, 의료영상 간의 정합, 유사 영상 검색 등을 수행한다. 이를 수행하기 위하여 전통적인 방법인 인체에 대한 해부학적 지식및 임상적 경험에 근거한 비정형 데이터인 의료영상을 정형적인 수치인 특징(Feature)으로 변환하는 알고리즘을 설계하는데서 시작하였다[12]. 결과적으로 이러한 특징 추출(Feature Extraction) 알고리즘에 따라 모델의 정확도가 결정되는데, 문제는 특징 추출 알고리즘이 설계자의 직관이나 경험에 근거하기 때문에 다양한 상황과 데이터의 형태 및 변형들을 모두 고려하기 힘들고, 설계자의 지식을 넘어서는 복잡하고 추상적인 변화들을 모델링할 수 없다는 것이다[13]. 최근 AI 기술로 부각되는 DL은 설계자에 의한 특징추출 과정을 데이터 기반 특징 학습으로 대체하게 되었다. 그래서 설계자에 의존적인 것이 아닌 데이터에 의존하는 경향으로 변화하고 있다. 학습된 특징들은 설계된 특징에 비해 데이터에 근거한 객관적이며 일관적인 성격을 가지고 있고, 데이터 분석의 목적에 부합하는 분별력을 가지게 된다[14]. Fig. 1은 AI, ML, DL의 개념과 인간의 개입 여부를 설명한 것이다.

BSSHB5_2022_v16n4_453_f0001.png 이미지

Fig. 1. The concept of AI vs ML vs DL and humans are introduced.

아래 Fig. 2와 같이 추출된 특징의 경우 정의가 모호하거나 주관적 판단이 개입하는 경우 서로 다른 병변 간의 특징이 중첩되어 동일 병변에 대한 특징이 분산되는 특징을 보인다. 반면, 학습 기반의 특징은 영상에서 유사한 병변이 공간에 가깝게 수렴하게 된다[15]. 이는 병변의 분류뿐만 아니라 병변의 정량화나 영상 간의 정합(Registration), 영상 간의 변환 등 다양한 의료 영상 분석 문제에서도 공통적으로 적용되는 개념으로 복잡하고 추상적인 의료영상의 특징을 대량의 데이터에 기반 한 학습을 통해 표현하고자 하는 시도가 빠르게 확산되고 있다[15]. 의료영상 신경망 구조들을 Fig. 3[16]에 나타 낸다.

BSSHB5_2022_v16n4_453_f0002.png 이미지

Fig. 2. Difference between Hand-engineered Features and Data-driven Features.

BSSHB5_2022_v16n4_453_f0003.png 이미지

Fig. 3. Various neural network architectures. A. Recurrent neural network, B. Auto-encoder, C. Restricted Boltzmann Machine, D. Deep Belief, E. Generative Adversarial Network (x: input layer, y: output layer, h: hidden layer.

Ⅲ. PROCESS AND RESULTS

1. PROCESS

연구 과정은 아래 Fig. 4와 같이 수행하였다.

BSSHB5_2022_v16n4_453_f0004.png 이미지

Fig. 4. Procedure.

문헌 검색은 중심어(keyword) Medical Image Analysis, Classification, Localization, Detection, Segmentation를 사용하여 PubMed, ResearchGate, Google 및 Cochrane Review에 수록된 문헌을 검색하였다. 2010년에서 2021년 사이에 출판된 논문들 중 114개의 초록을 검색하였으며 중복된 16개를 제외하고 98개의 초록을 검토했다.

2. RESULTS

CNN은 지역화(Localization)와 감지(Detection) 사이의 차이를 도출한다. 분할(Segmentation)은 대상 객체의 가장자리 주위에 윤곽선을 그리고 레이블을 지정한다. 등록(Registration)은 2차원이나 3차원의 한 영상의 다른 영상에 맞추는 것을 말한다. 이러한 작업은 임상 의사의 필요에 따라 수행되고 시스템화되어 있다. Fig. 5[16]는 분류(Classification)의 예이다.

BSSHB5_2022_v16n4_453_f0005.png 이미지

Fig. 5. Example of classification of T2-weighted MR brain image through CNN.

Table 1에는 검토된 의료영상 관련 자료 일부를 나타내었다. Table 2에는 본 연구에서 검토된 의료영상 분석의 결과를 나타낸 것이다.

Table 1. Reviewed medical imaging related papers Type Author

BSSHB5_2022_v16n4_453_t0001.png 이미지

Table 2. Some recent clinical applications of CNN based methods

BSSHB5_2022_v16n4_453_t0002.png 이미지

Ⅳ. DISCUSSION

DL 기반의 의료 영상 분석을 위해서는 데이터의 특징을 반영할 수 있는 빅 데이터가 필요하다. 의료 데이터는 병원내 EMR이나 PACS(Picture Archiving and Communication System)에 저장된 비표준화 데이터를 전처리, 또는 연구를 위한 별도의 데이터 변환이 이루어져야 한다[17]. 병원마다 서로 다른 형식의 저장 방식을 사용하고, 사용하는 용어도 통일되어 있지 않아서 자동화로 일괄적인 처리가 불가능하기 때문에 연구를 위해 별도의 학습 데이터의 구축이 필요하고 이를 위한 전문 인력도 필요하게 된다[17]. 의료진이 의료영상을 해석할 때는 환자에 대한 다차원적인 정보와 의학지식을 활용한 다. 그러나 AI 모델은 단순히 의료영상 데이터만 이용한다. 따라서 AI 모델은 대량의 데이터를 통해 모든 데이터의 특성을 학습하기 전에 과적합(Over fitting)이 되어 학습 데이터와 조금이라도 다른 데이터가 입력되면 성능이 저하된다. 이를 해결하기 위하여 DL 모델의 부가 입력으로 병변이 자주 발생하는 영역에 대한 정보나 영상이 아닌 병리학적 정보를 부가 입력으로 하는 방법을 고안하였다[18]. 의료영상을 위한 DL의 또 다른 한계는 판단에 대한 설명력(Interpretability)과 결과에 대한 불확실성 (Uncertainty)이다. 설명력은 기존의 회귀분석이나 DM 트리(Decision Making Tree)로 최종 판단에 대한 어떤 입력 값이 얼마만큼의 중요성을 가지는 지에 대한 해석이 가능하다. DL에 DM Tree를 적용할 경우 오진을 탐지하거나 의학적 지식과 상충되는 결론을 방지하는데 활용할 수 있다. 그러나 DL은 결과 출력을 위해 입력 데이터에 대한 많은 복잡한 연산을 수행하게 됨으로 출력 결과에 대한 설명이 부족하다. 이러한 DL의 문제 해결을 위하여 설명력이 좋은 ML 모델과 DL의 예측 결과를 통합하는 방식을 활용하거나, 입력영상의 공간 정보를 유지하는 모델 구조를 차용하여 출력 결과를 시각화함으로써 판단의 근거를 제시하는 방법을 고안하였 다. 대부분의 ML 모델들은 학습에 사용된 데이터와 상이한 데이터가 입력될 경우 상이한 결과를 출력할 수 있다. 이러한 결과에 대한 불확실성을 해결하기 위해 DL 모델이 분류나 정량화 결과 값만 출력하는 것이 아니라 결과 값에 대한 확신도(Confidence)도 함께 출력하도록 하는 방법들이 제안되고 있다. 주로 기존의 신경망을 베이지안 신경망(Bayesian Neural Network)으로 근사하는 방법들이 사용된다[19]. 이를 통해 확신도가 높은 경우를 제외하고 낮은 경우는 의료진이 개입하는 방식으로 구현할 수 있다. CT 흉부 스캔에서 폐 종양을 발견한 다음, 국소화 및 분할하고 화학 요법이나 수술과 같은 다양한 치료 옵션을 계획할 수 있을 것이다. 분류는 MRI 뇌 스캔에 출혈성 뇌졸중을 나타내는 혈액이 존재하는지 여부를 임상 의사는 확인할 수 있을 것이다. 국소화는 대조도 차가 미세한 영상에서 신장의 해부학적 위치를 식별하게 할 수 있을 것이다. 또한, 검출은 폐 CT 영상에서 폐종양의 위치를 파악할 수 있게 한다. 폐종양의 윤곽을 분할하는 것은 임상 의사가 주요 해부학적 구조와 거리를 결정하는 데 도움이 되며, 환자의 수술 여부, 수술을 한다면 절제는 어느 정도 할 것인지를 결정하는데 도움을 준다.

1. CLASSIFICATION

분류는 컴퓨터 보조 진단(CADx)이라고도 한다. Yaron Anavi 등은 1995년에 흉부 X선 영상에서 폐 결절을 검출하는 CNN을 제안했다[20]. 그들은 55개의 흉부 X선 영상에서 CNN을 사용하여 폐 결절 여부를 출력했다. Rajkomar 등은 1850개의 흉부 X 선 영상을 15만 개의 훈련 샘플로 증강했다[21]. 그들은 수정된 사전 훈련된 GoogleLeNet CNN을 사용하여 X선 영상의 단면을 100% 정확도로 분류하였다[21]. Rajpurkar 등은 흉부 X선 영상 데이터 세트 112,000개의 영상을 사용하여 흉부 X선에서 보이는 14개의 다른 질병을 분류하기 위해 CheXNet이라는 121개의 컨볼루션 레이어를 가진 수정된 DenseNet을 제안했다[22,23]. CheXNet은 14가지 질병을 분류하는 데 있어 최첨단 성능을 달성했다. 특히 폐렴 분류는 수신기 작동 특성(ROC) 분석을 통해 0.7632의 곡선 아래 영역(AUC) 점수를 달성했 다. 또한 420개의 영상으로 구성된 테스트 세트에서 CheXNet은 4명의 방사선 전문의의 성능과 일치하거나 향상되었으며 3명의 방사선 전문의로 구성된 패널의 성능도 향상되었다. Shon 등은 CNN을 지원 벡터 머신(SVM) 및 랜덤 포레스트(RF) 분류기와 결합하여 폐 영상 데이터베이스 컨소시엄 (LIDC-IDRI) 데이터 세트의 1010 레이블링된 폐 스캔을 기반으로 폐 결절을 양성 또는 악성으로 CT 영상을 분류했다[24]. 그들은 각각 2개의 컨볼루션레이어가 있는 3개의 병렬 CNN을 사용했으며, 각CNN은 특징을 추출하기 위해 서로 다른 스케일로이미지 패치를 촬영하였다. 학습된 기능은 출력 기능 벡터를 구성하는 데 사용되었으며, 그런 다음방사형 기저 함수(RBF) 필터 또는 RF 분류기를 사용하여 양성 또는 악성 기능으로 분류하였다. 그들의 방법은 86%의 정확도로 결절을 분류했고 또한 다른 수준의 노이즈 입력에 대해서도 강력하다는 것을 확인하였다. Li 등은 MRI와 PET 영상 사이에 누락된 영상 데이터를 보간하기 위해 3-D CNN을 사용했다[25]. 알츠하이머 병 신경영상계획(ADNI: Alzheimer's Diasease Neuroimaging Initiative) 데이터베이스에서 MRI 및 PET 스캔을 받은 830명의 환자를 연구했다. 3-D CNN은 MRI 영상과 PET 영상을 각각 입력과 출력으로 훈련했으며, MRI 영상이없는 환자의 PET 영상을 재구성하는 데 사용되었 다. 그들의 재구성된 PET 영상은 질병 분류의 실측결과와 거의 일치하였으나 과적합 문제가 발생하 였다. E. Hosseini-Asl 등은 99%의 정확도로 알츠하이머 환자 대 정상 환자를 진단하는 최첨단 결과를 달성했다[26].

2. LOCALIZATION

국소화는 해부학 교육 분야에서 응용할 수 있지만, 임상 의사에게는 관심이 가지 않는 분야이다. 국소화는 완전히 자동화된 종단 간 애플리케이션에서 사용될 수 있으며, 이를 통해 방사선 영상은인간의 개입 없이 자동적으로 분석되고 보고된다. Lingam 등은 횡단 CT 영상을 보고 2단계 CNN을 구성했는데, 1단계는 국소 패치를 식별했고, 2단계는 다양한 신체 장기에 의해 국소 패치를 식별하여표준 CNN보다 더 나은 결과를 얻었다[27]. Roth 등은 약 4000개의 횡축 CT 영상을 목, 폐, 간, 골반, 다리 등 5가지 범주 중 하나로 구별하기 위해 5개의 컨볼루션 레이어를 가진 CNN을 훈련시켰다[28]. 그는 데이터 증강 기술을 통해 5.9%의 분류 오류율과 0.998의 AUC 점수를 달성할 수 있었다. Shen 등은 간, 심장, 신장 및 비장의 위치를 감지하기 위해 간 또는 신장 전이 종양을 포함하는 복부 영역의 78개의 조영 증강 MRI 스캔에 스택형 자동 인코더를 사용했다[22,30]. 계층적 특징은 공간 및 시간 영역에 걸쳐 학습되어 장기에 따라 62%와 79% 사이 탐지 정확도를 제공하였다.

3. DETECTION

컴퓨터 지원 탐지(CADe)라고도 하는 탐지는 스캔에서 병변이 누락될 경우 환자와 임상 의사 모두에게 심각한 결과를 초래할 수 있기 때문에 연구에 매우 중요한 영역이다. 2017년 카글 데이터 사이언스 보울의 과제에는 CT 폐 스캔에서 악성 폐 결절의 검출이 포함되었다[29]. 약 2000개의 CT 스캔이 대회를 위해 출시되었고 우승자 팡저우는 0.399의 로그 손실 점수를 달성했다[30]. Sermanet 등은 CT 스캔에서 흉복부 림프절과 간질성 폐 질환을 감지하는 데 잘 알려진 CNN 아키텍처 5개를 평가했다. 림프절을 발견하는 것은 감염이나 암의 표지가 될 수 있기 때문에 중요하다. 그들은 최첨단인 GoogleLeNet을 사용하여 85%의 감도로 0.95의 종격 림프절 검출 AUC 점수를 달성했다. 그들은 또한 의료 영상 분석에서 표준이었던 적은 수의 계층과 대조적으로 최대 22개의 계층의 전이 학습의 잇점 및 DL 아키텍처의 사용을 문서화하였다. Overfeat는 ILSVRC 2013 국소화 작업에서 우승한 자연 이미지에 대해 사전 훈련된 CNN이었다[31,38]. Ciompi 등은 폐 균열 내부 및 주변에 결절의 존재를 예측하기 위해 Overfeat를 폐 관상(Coronal), 축 상(Axial) 및 시상(Sagittal) 평면으로 향하는 2차원 CT 폐 스캔 슬라이스에 적용했다[32]. 폐 병변 외에도 악성 피부세포를 탐지하는 등 무수한 응용분야가 있다[33]. Esteva 등은 13만 장의 피부과 사진과 진피 사진을 사용하여 GoogleLeNet Inception V3 CNN을 훈련시켰으며 기능을 직접 개발하지는 않 았다[34]. CNN은 영상을 양성, 악성 또는 비종양성 병변으로 분류하는 데 있어 피부과 의사를 능가했 으며, 2명의 피부과 의사가 얻은 65%와 66%의 정확도에 비해 72%의 정확도에 도달했다. CNN은 다시 21명의 피부과 의사들을 제치고 두 종류의 피부암 즉, 암과 흑색종에 대한 치료 계획을 결정했다. 이 작업은 생검으로 입증된 376개의 영상을 포함했으며, CNN은 0.91에서 0.96 사이의 AUC 점수를 달성했다.

4. SEGMENTATION

CT와 MRI 영상 분할 연구는 간, 전립선, 무릎 연골 등 다양한 장기를 다루고 있지만, 많은 양의 작업이 종양 분할을 포함한 뇌 분할에 초점을 맞추고 있다. 전통적으로 의료영상에서 해부학적 분할은 전체 MRI 또는 CT 볼륨 스택을 통해 한 조각씩 윤곽을 그리는 수작업으로 수행되었으므로, 이 힘든 작업을 자동화하는 솔루션을 구현하는 것이 이상적이다. 뇌 MRI 분할에 대한 리뷰는 분할에 사용된 다양한 CNN 아키텍처와 메트릭을 검토한 Akkus 등에 의해 작성되었다[35]. 또한, 그는 뇌종양 분할 (BRATS), 가벼운 외상 뇌 손상 결과 예측(MTOP) 및 허혈성 뇌졸중 병변 분할(ISLES)과 같은 데이터 세트를 자세히 설명하였다. Moeskops 등은 각각 다른 2차원 입력 패치 크기를 가진 3개의 CNN을 사용하여 22명의 미숙아와 35명의 성인의 MRI 뇌 영상을 백질, 회백질, 뇌척수액과 같은 다른 조직 등급으로 분류하고 분할했다[36]. 전반적으로, 알고리즘은 좋은 정확도를 달성했다.

Ⅴ. CONCLUSION

전 세계 의료 시스템에서 EHR의 채택으로 AI가 검사, 개발 및 예측하기에 완벽하게 맞는 개인화된데이터 세트의 방대한 저장소가 생성되었다. AI의 하위 영역인 ML 및 DL은 위험 계층화 및 치료 결과 최적화의 의료 문제에 대한 솔루션을 제공하는데 성공했다. AI는 의료 디지털화를 위한 핵심 기술이며 의료 기술을 혁신하고 정밀 의학을 확장하며 치료 방법을 개선할 수 있도록 하고 있다. 본 논문에서는 의료영상 분석을 위해 연구된 논문들을 검토하였다. 검토 결과, 의료영상 분야에서 AI가 응용되고 있는 분야는 Classification, Localization, 질병의 Detection, 질병의 Segmentation, 합성 영상의 Fit degree 등으로 나타났다. ML 학습을 위한 모델은 전통적인 방식의 특징 추출을 한 후 신경망의 네트워크에 특징 값을 입력하는 방식은 지양되는 것으로 나타났다. 그 대신에 신경망의 은닉층을 여러 개로 하는 DL 방식으로 변화되고 있는 것으로 나타났다. 그 이유는 컴퓨터의 메모리 량의 증가와 계산속도의 향상, 빅 데이터의 구축 등으로 특징 추출을 DL 과정에서 처리하는 것으로 생각된다. AI를 이용한 의료영상의 분석을 의료에 적용하기 위해서는 의사의 역할이 중요하다. 의사는 AI 알고리즘의 예측을 해석하고 분석할 수 있어야 한다. 이러한 이해를 위해서는 현재 의사를 위한 추가 의학 교육 및 전문성 개발과 의대에 재학 중인 학습자를 위한 개정된 커리큘럼이 필요해 보인다.

References

  1. Becker's Health IT. Top 10 Countries for EHR Adoption, 2013. Available online at: https://www.beckershospitalreview.com/healthcare-information-technology/top-10-countries-for-ehr-adoption.html
  2. The Health Institute for E-Health Policy. A Glimpse at EHR Implementation Around the World: The Lessons the US Can Learn, 2014. Available online at: https://www.e-healthpolicy.org/sites/e-healthpolicy.org/files/
  3. S. M. Meystre, G. K. Savova, K. C. Kipper-Schuler, J. F. Hurdle, "Extracting information from textual documents in the electronic health record: a review of recent research", Yearbook of Medical Informatics, Vol. 17, No. 1, pp. 128-172, 2008. http://dx.doi.org/10.1055/s-0038-1638592
  4. A. T. Azar, S. M. El-Metwally, "Decision tree classifiers for automated medical diagnosis", Neural Computing and Applications, Vol. 23, No. 2, pp. 2387-2403, 2012. http://dx.doi.org/10.1007/s00521-012-1196-7
  5. F. Wang, R. Kaushal, D. Khullar, "Should health care demand interpretable artificial intelligence or accept "black box" medicine?", Annals of Internal Medicine, Vol. 172, pp. 59-60. 2020. http://dx.doi.org/10.7326/M19-2548
  6. T. M. Noguerol, F. Paulano-Godino, M. T. Martin-Valdivia, C. O. Menias, A. Luna, "Strengths, Weaknesses, Opportunities, and Threats Analysis of Artificial Intelligence and Machine Learning Applications in Radiology", Journal of The American College of Radiology, Vol. 16, No. 9, pp. 1239-1247, 2019. http://dx.doi.org/10.1016/j.jacr.2019.05.047
  7. M. Prosperi, J. S. Min, J. Bian, F. Modave, "Big data hurdles in precision medicine and precision public health", BMC Medical Informatics and Decision Making, Vol. 18, pp. 139, 2018. http://dx.doi.org/10.1186/s12911-018-0719-2
  8. Office of the National Coordinator for Health Information Technology. Non-federal Acute Care Hospital Electronic Health Record Adoption, Health IT Quick-Stat #47 2017. Available online at: https://www.healthit.gov/.
  9. https://www.healthmeasures.net/explore-measurement-systems/promis
  10. E. Shenkman, M. Hurt, W. Hogan, O. Carrasquillo, S. Smith, A. Brickman, D. Nelson, "OneFlorida Clinical Research Consortium: Linking a Clinical and Translational Science Institute With a Community-Based Distributive Medical Education Model", Academic Medicine (Ovid), Vol. 93, No. 3, pp. 451-455, 2018. http://dx.doi.org/10.1097/ACM.0000000000002029
  11. H. D. Yeo, H. K. Kan, "A Case Study on the Effect of the Artificial Intelligence Storytelling(AI+ST) Learning Method", Journal of The Korean Association of Information Education, Vol. 24, No. 5, pp. 495-509, 2020. http://doi.org/10.14352/jkaie.2020.24.5.495
  12. S. B. Lee, H. J. Lee, V. R. Singh, "Determining the Degree of Malignancy on Digital Mammograms by Artificial Intelligence Deep Learning", ScholarGen Publishers, Vol. 3, No. 1, pp. 17-32, 2020. https://doi.org/10.31916/SJMI2020-01-03
  13. C. Giordano, M. Brennan, B. Mohamed, P. Rashidi, F. Modave, P. Tighe, "Accessing Artificial Intelligence for Clinical Decision-Making", Frontiers in Digital Health, Vol. 3, pp. 645232, 2021. https://doi.org/10.3389/fdgth.2021.645232
  14. Y. H. Lee, K. J. Kim, S. I. Lee, D. J. Kim, "Seq2Seq model-based Prognostics and Health Management of Robot Arm", The Journal of Korea Institute of Information, Electronics, and Communication Technology, Vol. 12, No. 3, pp. 242-250, 2019. https://doi.org/10.17661/jkiiect.2019.12.3.242
  15. Christian Leibig, Vaneeda Allken, Murat Seckin Ayhan, Philipp Berens, Siegfried Wahl, "Leveraging Uncertainty Information from Deep Neural Networks for Disease Detection", Scientific Report, Vol. 7, pp. 1-14, 2017. http://dx.doi.org/10.1038/s41598-017-17876-z
  16. B. M. Wilamowski, "Neural network architectures and learning", IEEE International Conference on Industrial Technology, Vol. 1, pp. TU1-T12, 2003. https://doi.org/10.1109/ICIT.2003.1290197
  17. A. Alansary, K. Kamnitsas, A. Davidson, R. Khlebnikov, M. Rajchl, C. Malamateniou, M. Rutherford, J. V. Hajnal, B. Glocker, D. Rueckert, B. Kainz,, "Fast Fully Automatic Segmentation of the Human Placenta from Motion Corrupted MRI", International Conference on Medical Image Computing and Computer-Assisted Intervention, Vol. 9901, pp. 589-597, 2016. https://doi.org/10.1007/978-3-319-46723-8_68
  18. S. Albarqouni, C. Baur, F. Achilles, V. Belagiannis, S. Demirci, N. Navab, "AggNet: Deep learning from crowds for mitosis detection in breast cancer histology images", IEEE transactions on medical imagin, Vol. 35, Vol. 5, pp. 1313-1321, 2016. https://doi.org/10.1109/tmi.2016.2528120
  19. Xu Chen, Yue Zhao, Chuancai Liu, "Medical image segmentation using scalable functional variational Bayesian neural networks with Gaussian processes", Neurocomputing, Vol. 500, pp. 58-72, 2022. http://dx.doi.org/https://doi.org/10.1016/j.neucom.2022.05.055
  20. Y. Anavi, I. Kogan, E. Gelbart, O. Geva, H. Greenspan, "Visualizing and enhancing a deep learning framework using patients age and gender for chest X-ray image retrieval", Medical Imaging, Vol. 9785, pp. 978510, 2016. https://doi.org/10.1117/12.2217587
  21. B. V. Calster, L. Wynants, "Machine Learning in Medicine", The New England Journal of Medicine, Vol. 380, pp. 1347-1358, 2019. https://doi.org/10.1056/nejmc1906060
  22. P. Rajpurkar, J. Irvin, K. Zhu, B. Yang, H. Mehta, T. Duan, D. Ding, A. Bagul, C. Langlotz, K. Shpanskaya, M. P. Lungren, A. Y. Ng, "CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning", 2017, https://doi.org/10.48550/arXiv.1711.05225
  23. A. Singha, R. S. Thakur, T. Patel, "Deep Learning Applications in Medical Image Analysis", Biomedical Data Mining for Information Retrieval: Methodologies, Techniques and Applications, pp. 293-350, 2021. https://doi.org/10.1002/9781119711278.ch11
  24. B. E. Shon, S. M. Jeong, "Intelligent Hospital Information System Model for Medical AI Research/Development and Practical Use", Journal of The Korea Convergence Society, Vol. 13, No. 3, pp. 67-75, 2022. http://dx.doi.org/10.15207/JKCS.2022.13.03.067
  25. https://ko.d2l.ai/chapter_deep-learning-basics/underfit-overfit.html
  26. S. B. Lo, S. A. Lou, J. S. Lin, M. T. Freedman, M. V. Chien, S. K. Mun, "Artificial convolution neural network techniques and applications for lung nodule detection", IEEE Transactions on Medical Imaging, Vol. 14, No. 4, pp. 711-718, 1995. https://doi.org/10.1109/42.476112
  27. A. Rajkomar, S. Lingam, A. G. Taylor, M. Blum, J. Mongan, "High-Throughput Classification of Radiographs Using Deep Convolutional Neural Networks", Journal of Digital Imaging, Vol. 30, No. 1, pp. 95-101, 2017. http://dx.doi.org/10.1007/s10278-016-9914-9
  28. C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich, "Going deeper with convolutions", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1-9, 2015. https://doi.org/10.1109/CVPR.2015.7298594
  29. K. Kuan, M. Ravaut, G. Manek, H. Chen, J. Lin, B. Nazir, C. Chen, Tse C. Howe, Z. Zeng, V. Chandrasekhar, "Deep Learning for Lung Cancer Detection: Tackling the Kaggle Data Science Bowl 2017 Challenge", eprint arXiv:1705.09435, 2017. http://dx.doi.org/10.48550/arXiv.1705.09435
  30. W. Shen, M. Zhou, F. Yang, C. Yang, J. Tian, "Multi-scale Convolutional Neural Networks for Lung Nodule Classification", Information Processing in Medical Imaging, Vol. 24. pp. 588-599, 2015. https://doi.org/10.1007/978-3-319-19992-4_46
  31. R. Li, W. Zhang, H. I. Suk, L. Wang, J. Li, D. Shen, S. Ji, "Deep learning based imaging data completion for improved brain disease diagnosis", Medical image computing and computer-assisted intervention, Vol. 17, pp. 305-312, 2014. https://doi.org/10.1007/978-3-319-10443-0_39
  32. Ehsan Hosseini-Asl, Mohammed Ghazal, Ali Mahmoud, Ali Aslantas, Ahmed M Shalaby, Manual F Casanova, Gregory N Barnes, Georgy Gimel'farb, Robert Keynton, Ayman El-Baz, "Alzheimer's disease diagnostics by a 3D deeply supervised adaptable convolutional network", Frontiers in Bioscience (Landmark Edition), Vol. 23, No. 2, pp. 584-596, 2018. http://dx.doi.org/10.2741/4606
  33. Z. Yan, Y. Zhan, Z. Peng, S. Liao, Y. Shinagawa, D. N. Metaxas, X. S. Zhou, "Bodypart Recognition Using Multi-stage Deep Learning", International Conference on Information Processing in Medical Imaging, Vol. 24. pp. 449-461, 2015. https://doi.org/10.1007/978-3-319-19992-4_35
  34. A. Esteva, B. Kuprel, R. A. Novoa, J. Ko, S. M. Swetter, H. M. Blau, S. Thrun, "Dermatologist-level classification of skin cancer with deep neural networks", Nature, Vol. 542, No. 7639, pp. 115-118, 2017. http://dx.doi.org/10.1038/nature21056
  35. H. C. Shin, M. R. Orton, D. J. Collins, S. J. Doran, M. O. Leach, "Stacked Autoencoders for Unsupervised Feature Learning and Multiple Organ Detection in a Pilot Study Using 4D Patient DataPDF", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 35, No. 8, pp. 1930-1943, 2013. https://doi.org/10.1109/TPAMI.2012.277
  36. B. A. H. I. Kaggle., "Kaggle Data Science Bowl", 2017.[Online]. Available: https://www.kaggle.com/c/data-science-bowl-2017.