• 제목/요약/키워드: Medical artificial intelligence

검색결과 439건 처리시간 0.039초

치주질환 예측을 위한 치과 X-선 영상에서의 초해상화 알고리즘 적용 가능성 연구 (Investigation of the Super-resolution Algorithm for the Prediction of Periodontal Disease in Dental X-ray Radiography)

  • 김한나
    • 한국방사선학회논문지
    • /
    • 제15권2호
    • /
    • pp.153-158
    • /
    • 2021
  • 치주질환의 조기 진단률 및 예측 정확도 향상을 위한 X-선 영상 분석은 매우 중요한 분야이다. 이러한 치과 X-선 영상의 화질 개선을 위한 인공 지능 기반의 알고리즘 개발 및 적용에 관한 연구는 전 세계적으로 널리 수행 중이다. 따라서 본 연구의 목표는 치주질환 예측을 위한 치과 X-선 영상에서의 초해상화 알고리즘의 모델링 및 적용 가능성에 관하여 평가하는 것이다. 초해상화 알고리즘은 convolution layer와 ReLU를 기반으로 구성하였고, 저해상도 영상을 2배로 업샘플링 한 영상을 입력으로 사용하였다. 딥러닝 훈련을 위해 사용한 치과 X-선 데이터는 1,500장을 사용하였다. 영상의 정량적 평가는 2가지 영상의 비교를 통해 유사도를 측정할 수 있는 인자인 root mean square error와 structural similarity를 사용하였다. 이와 더불어 최근에 개발된 no-reference 기반으로 사용되는 natural image quality evaluator 와 blind/referenceless image spatial quality evaluator를 추가적으로 분석하였다. 결과적으로 기존에 사용되던 bicubic 기반의 업샘플링 기법을 사용하였을 때에 비하여 제안하는 방법이 치과 X-선 영상에서 평균적으로 유사도와 no-reference 기반의 평가 인자가 각각 1.86 그리고 2.14배 향상됨을 확인하였다. 결론적으로 치주질환의 예측을 위한 초해상화 알고리즘의 치과 X-선 영상에서의 유용성을 증명하였고 향후 다양한 분야에서의 적용 가능성이 높을 것으로 기대된다.

Classification of Diabetic Retinopathy using Mask R-CNN and Random Forest Method

  • Jung, Younghoon;Kim, Daewon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권12호
    • /
    • pp.29-40
    • /
    • 2022
  • 본 논문에서는 딥러닝 기법의 하나인 Mask R-CNN과 랜덤포레스트 분류기를 이용해 당뇨병성 망막병증의 병리학적인 특징을 검출하고 분석하여 자동 진단하는 시스템을 연구하였다. 당뇨병성 망막병증은 특수장비로 촬영한 안저영상을 통해 진단할 수 있는데 밝기, 색조 및 명암은 장치에 따라 다를 수 있으며 안과 전문의의 의료적 판단을 도울 인공지능을 이용한 자동진단 시스템 연구와 개발이 가능하다. 이 시스템은 미세혈관류와 망막출혈을 Mask R-CNN 기법으로 검출하고, 후처리 과정을 거쳐 랜덤포레스트 분류기를 이용하여 안구의 정상과 비정상 상태를 진단한다. Mask R-CNN 알고리즘의 검출 성능 향상을 위해 이미지 증강 작업을 실시하여 학습을 진행하였으며 검출 정확도 측정을 위한 평가지표로는 다이스 유사계수와 Mean Accuracy를 사용하였다. 비교군으로는 Faster R-CNN 기법을 사용하였고 본 연구를 통한 검출 성능은 평균 90%의 다이스 계수를 통한 정확도를 나타내었으며 Mean Accuracy의 경우 91% 정확도의 검출 성능을 보였다. 검출된 병리증상을 토대로 랜덤포레스트 분류기를 학습하여 당뇨병성 망막 병증을 진단한 경우 99%의 정확도를 보였다.

인공지능을 이용한 주진단 S코드의 낙상환자 예측모델 개발 (Development of a Prediction Model for Fall Patients in the Main Diagnostic S Code Using Artificial Intelligence)

  • 박예지;최은미;방소현;정진형
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권6호
    • /
    • pp.526-532
    • /
    • 2023
  • 낙상사고는 세계적으로 매년 42만 건 이상 발생하는 치명적인 사고이다. 따라서, 낙상 환자를 연구하고자 낙상환자의 손상외인코드와 주진단 S코드의 연관성을 찾고, 낙상 환자의 주진단 S코드 데이터를 가지고 손상외인코드를 예측할 수 있는 예측모델을 개발하였다. 본 연구에서는 강원특별자치도 강릉시에 있는 A 기관의 2020~2021년 2년간의 데이터를 받아 낙상에 관련된 손상외인코드 W00~W19까지 데이터만 추출하고, 낙상 손상외인코드 중 예측모형을 개발할 정도의 주진단 S코드를 가지고 있는 W01, W10, W13, W18 데이터를 가지고 예측모형 개발하였다. 데이터 중 80%는 훈련용 데이터, 20%는 테스트용 데이터로 분류하였다. 모형 개발은 MLP(Multi-Layer Perceptron)을 이용하여 6개의 변수(성별, 나이, 주진단S코드, 수술유무, 입원유무, 음주유무)를 입력층에 64개의 노드를 가진 2개의 은닉층, 출력층은 softmax 활성화 함수를 이용하여 손상외인코드 W01, W10, W13, W18 총 4개의 노드를 가진 출력층으로 구성하여 개발하였다. 학습결과 첫 번째 학습했을 때 31.2%의 정확도를 가졌지만, 30번째는 87.5%의 정확도를 나타냈고 이를 통해 낙상환자의 낙상외인코드와 주진단 S코드의 연관성을 확인할 수 있었다.

Automated Lung Segmentation on Chest Computed Tomography Images with Extensive Lung Parenchymal Abnormalities Using a Deep Neural Network

  • Seung-Jin Yoo;Soon Ho Yoon;Jong Hyuk Lee;Ki Hwan Kim;Hyoung In Choi;Sang Joon Park;Jin Mo Goo
    • Korean Journal of Radiology
    • /
    • 제22권3호
    • /
    • pp.476-488
    • /
    • 2021
  • Objective: We aimed to develop a deep neural network for segmenting lung parenchyma with extensive pathological conditions on non-contrast chest computed tomography (CT) images. Materials and Methods: Thin-section non-contrast chest CT images from 203 patients (115 males, 88 females; age range, 31-89 years) between January 2017 and May 2017 were included in the study, of which 150 cases had extensive lung parenchymal disease involving more than 40% of the parenchymal area. Parenchymal diseases included interstitial lung disease (ILD), emphysema, nontuberculous mycobacterial lung disease, tuberculous destroyed lung, pneumonia, lung cancer, and other diseases. Five experienced radiologists manually drew the margin of the lungs, slice by slice, on CT images. The dataset used to develop the network consisted of 157 cases for training, 20 cases for development, and 26 cases for internal validation. Two-dimensional (2D) U-Net and three-dimensional (3D) U-Net models were used for the task. The network was trained to segment the lung parenchyma as a whole and segment the right and left lung separately. The University Hospitals of Geneva ILD dataset, which contained high-resolution CT images of ILD, was used for external validation. Results: The Dice similarity coefficients for internal validation were 99.6 ± 0.3% (2D U-Net whole lung model), 99.5 ± 0.3% (2D U-Net separate lung model), 99.4 ± 0.5% (3D U-Net whole lung model), and 99.4 ± 0.5% (3D U-Net separate lung model). The Dice similarity coefficients for the external validation dataset were 98.4 ± 1.0% (2D U-Net whole lung model) and 98.4 ± 1.0% (2D U-Net separate lung model). In 31 cases, where the extent of ILD was larger than 75% of the lung parenchymal area, the Dice similarity coefficients were 97.9 ± 1.3% (2D U-Net whole lung model) and 98.0 ± 1.2% (2D U-Net separate lung model). Conclusion: The deep neural network achieved excellent performance in automatically delineating the boundaries of lung parenchyma with extensive pathological conditions on non-contrast chest CT images.

대학입시 수능시험을 평가 도구로 적용한 ChatGPT의 학업 능력 분석 (Analysis of the scholastic capability of ChatGPT utilizing the Korean College Scholastic Ability Test)

  • 문혜림;김진혁;한경희;김시호
    • Journal of Platform Technology
    • /
    • 제11권5호
    • /
    • pp.72-83
    • /
    • 2023
  • ChatGPT는 2022년 하반기 상업적 서비스 시작 이후에 미국 변호사 자격시험과 의사 자격시험을 포함한 전문직 시험에서 성공적인 결과를 보였고, 전문직 영역에서 주관식 시험의 통과 능력을 입증하였으나, 교육 분야의 영역에서는 ChatGPT의 논리적 추론과 문제 풀이 등 학업 능력의 평가에 대해서도 새로운 실험과 분석이 필요하다. 본 연구에서는 한국 대학수학능력 시험 문제의 국어, 영어, 수학 세 주요 교과목을 활용하여 ChatGPT의 학업 능력을 평가하였다. 실험 결과에서는 ChatGPT는 영어 영역에서는 상대적으로 높은 69%의 정답률을 보이지만, 국어와 수학 영역에서는 각각 34%와 19%의 비교적 낮은 정답률을 기록하였다. 문장의 이해와 논리적 추론 능력에 관련된 수능 국어와 한국어 능력 시험 (TOPIK II) 및 수능 영어 시험의 결과 분석을 통하여, ChatGPT의 학업능력과 취약점의 원인을 분석하였다. ChatGPT는 대화형 언어 모델로 개발되었기 때문에 일반적인 국어, 영어, 수학 문제를 이해하고 응답하는 능력은 있지만, 난도가 높은 논리적 추론 능력과 수학 문제 풀이 능력에서는 매우 취약한 것으로 판단되었다. 본 연구는 생성형 인공지능의 성능 평가를 위한 간편하면서도 정확도가 높으며 효과적인 평가 기준을 마련하는 데에 큰 도움이 될 것으로 기대한다.

  • PDF

멀티 모달리티 데이터 활용을 통한 골다공증 단계 다중 분류 시스템 개발: 합성곱 신경망 기반의 딥러닝 적용 (Multi-classification of Osteoporosis Grading Stages Using Abdominal Computed Tomography with Clinical Variables : Application of Deep Learning with a Convolutional Neural Network)

  • 하태준;김희상;강성욱;이두희;김우진;문기원;최현수;김정현;김윤;박소현;박상원
    • 한국방사선학회논문지
    • /
    • 제18권3호
    • /
    • pp.187-201
    • /
    • 2024
  • 골다공증은 전 세계적으로 주요한 건강 문제임에도 불구하고, 골절 발생 전까지 쉽게 발견되지 않는 단점을 가지고 있습니다. 본 연구에서는 골다공증 조기 발견 능력 향상을 위해, 복부 컴퓨터 단층 촬영(Computed Tomography, CT) 영상을 활용하여 정상-골감소증-골다공증으로 구분되는 골다공증 단계를 체계적으로 분류할 수 있는 딥러닝(Deep learning, DL) 시스템을 개발하였습니다. 총 3,012개의 조영제 향상 복부 CT 영상과 개별 환자의 이중 에너지 X선 흡수 계측법(Dual-Energy X-ray Absorptiometry, DXA)으로 얻은 T-점수를 활용하여 딥러닝 모델 개발을 수행하였습니다. 모든 딥러닝 모델은 비정형 이미지 데이터, 정형 인구 통계 정보 및 비정형 영상 데이터와 정형 데이터를 동시에 활용하는 다중 모달 방법에 각각 모델 구현을 실현하였으며, 모든 환자들은 T-점수를 통해 정상, 골감소증 및 골다공증 그룹으로 분류되었습니다. 가장 높은 정확도를 갖는 모델 우수성은 비정형-정형 결합 데이터 모델이 가장 우수하였으며, 수신자 조작 특성 곡선 아래 면적이 0.94와 정확도가 0.80를 제시하였습니다. 구현된 딥러닝 모델은 그라디언트 가중치 클래스 활성화 매핑(Gradient-weighted Class Activation Mapping, Grad-CAM)을 통해 해석되어 이미지 내에서 임상적으로 관련된 특징을 강조했고, 대퇴 경부가 골다공증을 통해 골절 발생이 높은 위험 부위임을 밝혔습니다. 이 연구는 DL이 임상 데이터에서 골다공증 단계를 정확하게 식별할 수 있음을 보여주며, 조기에 골다공증을 탐지하고 적절한 치료로 골절 위험을 줄일 수 있는 복부 컴퓨터 단층 촬영 영상의 잠재력을 제시할 수 있습니다.

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

Current and Future Perspectives of Lung Organoid and Lung-on-chip in Biomedical and Pharmaceutical Applications

  • 이준형;박지민;김상훈;한에스더;맹성호;한지유
    • 생명과학회지
    • /
    • 제34권5호
    • /
    • pp.339-355
    • /
    • 2024
  • 폐는 생리학적 기능과 해부 조직학적 구조 측면을 통합적으로 고려하여 분석해야만 하는 매우 복잡한 조직이기 때문에 폐질환의 병리학적 연구와 흡입독성 평가에 현재까지 주로 동물모델을 사용하고 있다. 그러나 실험동물 윤리와 동물복지를 이유로 점차적으로 실험동물 수를 줄이자는 전세계적인 움직임에 맞춰 생체 외 동물실험 대체법들이 집중적으로 개발되고 있다. 특히 경제협력개발기구(OECD)와 미국 환경보호청(USEPA)은 2030년대 이후, 동물실험을 금지하기로 잠정적으로 합의함에 따라 의생명공학과 제약 분야에서 생체 외 흡입 독성 및 폐질환 모델들을 확립하고 개발된 모델을 이용한 평가 법들의 표준화 연구가 활발하다. 그 모델 중에 예를 들어, 생체칩(organ-on-a-chip, OoC) 및 오가노이드(organoid) 모델은 3차원 바이오 프린터, 미세 유체 시스템, 인공지능(artificial intelligent) 기술들과 접목되어 연구되고 있다. 이러한 생체 장기를 모방한 복합 장기 생체 외 모델링 시스템은 개체 차이를 가지는 생체 내 동물 실험에 비해 복잡한 생물학적 환경을 보다 정확하게 모방할 수 있을 것으로 기대되고 있으나 생체 모방성, 재현성, 민감성, 기반 데이터베이스의 부족 등 아직은 여러 한계점도 가지고 있다. 따라서 본 리뷰 논문에서는 만능성 줄기 세포 또는 암세포를 이용한 폐포, 폐 공기액 인터페이스(air-liquid interface, ALI) 시스템, 트랜스웰 멤브레인(transwell membrane)을 포함하여 폐 OoC 및 오가노이드의 최근 생체 외 폐 시스템 연구결과들과 AI와 접목된 인실리코(in silico) 폐 모델링에 대한 결과들의 현황을 살펴보고자 한다.

딥러닝 알고리즘을 이용한 저선량 디지털 유방 촬영 영상의 복원: 예비 연구 (Radiation Dose Reduction in Digital Mammography by Deep-Learning Algorithm Image Reconstruction: A Preliminary Study)

  • 하수민;김학희;강은희;서보경;최나미;김태희;구유진;예종철
    • 대한영상의학회지
    • /
    • 제83권2호
    • /
    • pp.344-359
    • /
    • 2022
  • 목적 깊은 컨볼루션 신경망 기법을 결합한 영상 잡음 제거 알고리즘을 개발하고 이를 응용하여 저선량 유방 촬영 영상으로 유방암을 진단하는 데 그 효능을 조사하고자 한다. 대상과 방법 6명의 유방 영상 전문의가 전향적 연구에 참여하였다. 모든 영상 전문의는 병변 감지를 위해 저선량 영상을 독립적으로 평가하고 정성적 척도를 사용하여 진단 품질을 평가하였다. 영상 잡음 제거 알고리즘을 적용한 후, 동일한 영상 전문의가 병변 감지 가능성과 영상 품질에 대한 평가를 하였다. 임상 적용을 위해 동일한 영상 전문의가 병변 유형과 위치에 대한 합의 결정 후, 저선량 영상, 재구성된 영상, 기존 선량 영상을 무작위 순서로 제시하여 평가하였다. 결과 전 절제 표본의 저선량 영상을 참조로 40% 재구성된 영상에서 병변이 더 잘 인식되었다. 임상 적용단계에서 40% 재구성된 영상과 비교하여, 기존 선량 영상이 해상도(p < 0.001), 석회에 대한 진단 품질(p < 0.001), 유방 종괴, 비대칭, 구조왜곡의 진단 품질(p = 0.037)에 대해 더 높은 평균값을 보였다. 40% 재구성된 영상은 100% 영상과 비교 시 전반적 화질(p = 0.547), 병변의 가시성(p = 0.120), 대조도(p = 0.083)에서 비슷한 성적을 보였으며 유의미한 차이도 보이지 않았다. 결론 깊은 컨볼루션 신경망 기법을 결합한 효과적인 잡음 제거 및 영상 재구성 처리 알고리즘은 유방 촬영의 상당한 선량 감소를 위한 길을 열어 유방암 진단을 가능하게 할 것이다.