• 제목/요약/키워드: AI. Artificial Intelligence

검색결과 1,902건 처리시간 0.021초

Generative Adversarial Network-Based Image Conversion Among Different Computed Tomography Protocols and Vendors: Effects on Accuracy and Variability in Quantifying Regional Disease Patterns of Interstitial Lung Disease

  • Hye Jeon Hwang;Hyunjong Kim;Joon Beom Seo;Jong Chul Ye;Gyutaek Oh;Sang Min Lee;Ryoungwoo Jang;Jihye Yun;Namkug Kim;Hee Jun Park;Ho Yun Lee;Soon Ho Yoon;Kyung Eun Shin;Jae Wook Lee;Woocheol Kwon;Joo Sung Sun;Seulgi You;Myung Hee Chung;Bo Mi Gil;Jae-Kwang Lim;Youkyung Lee;Su Jin Hong;Yo Won Choi
    • Korean Journal of Radiology
    • /
    • 제24권8호
    • /
    • pp.807-820
    • /
    • 2023
  • Objective: To assess whether computed tomography (CT) conversion across different scan parameters and manufacturers using a routable generative adversarial network (RouteGAN) can improve the accuracy and variability in quantifying interstitial lung disease (ILD) using a deep learning-based automated software. Materials and Methods: This study included patients with ILD who underwent thin-section CT. Unmatched CT images obtained using scanners from four manufacturers (vendors A-D), standard- or low-radiation doses, and sharp or medium kernels were classified into groups 1-7 according to acquisition conditions. CT images in groups 2-7 were converted into the target CT style (Group 1: vendor A, standard dose, and sharp kernel) using a RouteGAN. ILD was quantified on original and converted CT images using a deep learning-based software (Aview, Coreline Soft). The accuracy of quantification was analyzed using the dice similarity coefficient (DSC) and pixel-wise overlap accuracy metrics against manual quantification by a radiologist. Five radiologists evaluated quantification accuracy using a 10-point visual scoring system. Results: Three hundred and fifty CT slices from 150 patients (mean age: 67.6 ± 10.7 years; 56 females) were included. The overlap accuracies for quantifying total abnormalities in groups 2-7 improved after CT conversion (original vs. converted: 0.63 vs. 0.68 for DSC, 0.66 vs. 0.70 for pixel-wise recall, and 0.68 vs. 0.73 for pixel-wise precision; P < 0.002 for all). The DSCs of fibrosis score, honeycombing, and reticulation significantly increased after CT conversion (0.32 vs. 0.64, 0.19 vs. 0.47, and 0.23 vs. 0.54, P < 0.002 for all), whereas those of ground-glass opacity, consolidation, and emphysema did not change significantly or decreased slightly. The radiologists' scores were significantly higher (P < 0.001) and less variable on converted CT. Conclusion: CT conversion using a RouteGAN can improve the accuracy and variability of CT images obtained using different scan parameters and manufacturers in deep learning-based quantification of ILD.

복합 적층판의 딥러닝 기반 파괴 모드 결정 (Deep Learning-based Fracture Mode Determination in Composite Laminates)

  • 무하마드 무자밀 아자드;아타 우르 레만 샤;M.N. 프라브하카르;김흥수
    • 한국전산구조공학회논문집
    • /
    • 제37권4호
    • /
    • pp.225-232
    • /
    • 2024
  • 본 논문에서는 딥러닝을 활용하여 복합재 적층판의 파괴 모드를 결정하는 방법을 제안하였다. 수많은 엔지니어링 응용 분야에서 적층 복합재의 사용이 증가함에 따라 무결성과 성능을 보장하는 것이 중요해졌다. 그러나 재료의 이방성으로 인해 복잡하게 나타나는 파괴모드를 식별하는 것은 도메인 지식이 필요하고, 시간이 많이 드는 작업이다. 따라서 이러한 문제를 해결하기 위해 본 연구에서는 인공 지능(AI) 기술을 활용하여 적층 복합재의 파괴 모드 분석을 자동화하는 것을 목표로 하였다. 이 목표를 달성하기 위해 적층된 복합재에서 파손된 인장 시험편의 주사 전자 현미경(SEM) 이미지를 얻어 다양한 파괴 모드를 확보하였다. 이러한 SEM 이미지는 섬유 파손, 섬유 풀아웃, 혼합 모드 파괴, 매트릭스 취성 파손 및 매트릭스 연성 파손과 같은 다양한 파손 모드를 기준으로 분류하였다. 다음으로 모든 클래스의 집합 데이터를 학습, 테스트, 검증 데이터 세트로 구분하였다. 두 가지 딥 러닝 기반 사전 훈련 모델인 DenseNet과 GoogleNet을 이용해 각 파괴 모드에 대한 차별적 특징을 학습하도록 훈련하였다. DenseNet 및 GoogleNet 모델은 각각 (94.01% 및 75.49%) 및 (84.55% 및 54.48%)의 훈련 및 테스트 정확도를 보여주었다. 그런 다음 훈련된 딥 러닝 모델은 검증 데이터 세트를 활용해 검증하였다. 더 깊은 아키텍처로 인해 DenseNet 모델이 고품질 특징을 추출하여 84.44% 검증 정확도(GoogleNet 모델보다 36.84% 더 높음)를 얻을 수 있음을 확인하였다. 이는 DenseNet 모델이 높은 정밀도로 파괴 모드를 예측함으로써 적층 복합재의 파손 분석을 수행하는 데 효과적이라는 것을 알 수 있다.