• Title/Summary/Keyword: CT모델

검색결과 372건 처리시간 0.028초

MICRO-CT를 이용한 쥐 대퇴골의 유한요소 해석

  • 변창환;오택열
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2004년도 춘계학술대회 논문요약집
    • /
    • pp.296-296
    • /
    • 2004
  • 실험상의 어려움으로 인하여 생체역학 분야에서 유한요소법은 최선의 대안으로 여겨지고 있다. 또한, CT를 비롯한 여러 디지털 장비로부터 얻은 영상데이터를 이용하여 유한요소모델을 생성하는 방법으로 모델 생성 속도의 향상을 가져와 더욱 효율을 높이고 있다. 그러나, 일반 CT의 해상도를 가지고는 골(bone) 변화의 주를 이루고 있는 해면골(trabecular bone)의 변화를 파악하기에는 큰 어려움이 따른다. 이에 본 논문에서는 10~20$\mu\textrm{m}$ 정도까지의 해상도를 가지는 Micro-CT의 영상데이터를 이용하여 유한요소 모델을 생성하고 해석하여 보았다.(중략)

  • PDF

Wavelet 변환과 결합한 잔차 학습을 이용한 희박뷰 전산화단층영상의 인공물 감소 (Artifact Reduction in Sparse-view Computed Tomography Image using Residual Learning Combined with Wavelet Transformation)

  • 이승완
    • 한국방사선학회논문지
    • /
    • 제16권3호
    • /
    • pp.295-302
    • /
    • 2022
  • 희박뷰 전산화단층촬영(computed tomography; CT) 영상화 기술은 피폭 방사선량을 감소시킬 수 있을 뿐만 아니라 획득한 투영상의 균일성을 유지하고 잡음을 감소시킬 수 있는 장점이 있다. 하지만 재구성 영상 내 인공물 발생으로 인하여 화질 및 피사체 구조가 왜곡되는 단점이 있다. 본 연구에서는 희박뷰 CT 영상의 인공물 감소를 위해 wavelet 변환과 잔차 학습(residual learning)을 적용한 콘볼루션 신경망(convolutional neural network; CNN) 기반 영상화 모델을 개발하고, 개발한 모델을 통한 희박뷰 CT 영상의 인공물 감소 정도를 정량적으로 분석하였다. CNN은 wavelet 변환 층, 콘볼루션 층 및 역 wavelet 변환 층으로 구성하였으며, 희박뷰 CT 영상과 잔차 영상을 각각 입출력 영상으로 설정하여 영상화 모델 학습을 진행하였다. 영상화 모델 학습을 위해 평균제곱오차(mean squared error; MSE)를 손실함수로, Adam 함수를 최적화 함수로 사용하였다. 학습된 모델을 통해 입력 희박뷰 CT 영상에 대한 예측 잔차 영상을 획득하고, 두 영상간의 감산을 통해 최종 결과 영상을 획득하였다. 또한 최종 결과 영상에 대한 시각적 특성, 최대신호대잡음비(peak signal-to- noise ratio; PSNR) 및 구조적유사성지수(structural similarity; SSIM)를 측정하였다. 연구결과 본 연구에서 개발한 영상화 모델을 통해 희박뷰 CT 영상의 인공물이 효과적으로 제거되며, 공간분해능이 향상되는 결과를 확인하였다. 또한 wavelet 변환과 잔차 학습을 미적용한 영상화 모델에 비해 본 연구에서 개발한 영상화 모델은 결과 영상의 PSNR 및 SSIM을 각각 8.18% 및 19.71% 향상시킬 수 있음을 확인하였다. 따라서 본 연구에서 개발한 영상화 모델을 이용하여 희박뷰 CT 영상의 인공물 제거는 물론 공간분해능 향상 및 정량적 정확도 향상 효과를 획득할 수 있다.

X선 CT영상으로부터 인체의 기관지 모델의 개발 (Development of Physical Human Bronchial Tree Models from X-ray CT Images)

  • 원철호;노철균
    • 센서학회지
    • /
    • 제11권5호
    • /
    • pp.263-272
    • /
    • 2002
  • 본 논문에서는 X선 컴퓨터 단층 촬영으로부터 획득된 기관지의 3차원 영상으로부터 기관지의 구조 및 형태 정보를 추출할 수 있는 가능성을 조사하고, 분진 침착 모델의 수학적인 개발과 실험적인 검증에 사용될 수 있는 물리적인 공동 주형 모델을 개발한다. CT로부터 획득된 영상으로부터 수학적 모폴로지 기법에 의하여 폐의 기관지 영역을 검출한다. 검출된 폐의 기관지 영역의 체적 데이터를 3차원 공간상에서 나타낼 수 있는 표면 데이터를 STL(streolithography) 파일로 변환한 후에, 고속 프로토타입 기기에 입력하여 3차원 입체 형상을 제작한다. 이때 기존의 기관지 팬텀과 실제 정상인으로부터 획득된 CT 영상으로부터 각각의 공동 주형 모델을 제작하게 된다. CT 스캔하여 얻어진 원래의 영상과 제작된 공동 주형 모델을 CT 스캔하여 얻어진 영상에서의 기관지 영역의 단면 직경을 비교하여 생성된 폐 기관지 모델의 유용성을 검증하였다.

딥러닝 기반 CT 스캔 재구성을 통한 조영제 사용 및 신체 부위 분류 성능 향상 연구 (A Study on the Use of Contrast Agent and the Improvement of Body Part Classification Performance through Deep Learning-Based CT Scan Reconstruction)

  • 나성원;고유선;김경원
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.293-301
    • /
    • 2023
  • 표준화되지 않은 의료 데이터 수집 및 관리는 여전히 수동으로 진행되고 있어, 이 문제를 해결하기 위해 딥 러닝을 사용해 CT 데이터를 분류하는 연구들이 진행되고 있다. 하지만 대부분 연구에서는 기본적인 CT slice인 axial 평면만을 기반으로 모델을 개발하고 있다. CT 영상은 일반 이미지와 다르게 인체 구조만 묘사하기 때문에 CT scan을 재구성하는 것만으로도 더 풍부한 신체적 특징을 나타낼 수 있다. 이 연구는 axial 평면뿐만 아니라 CT 데이터를 2D로 변환하는 여러가지 방법들을 통해 보다 높은 성능을 달성할 수 있는 방법을 찾고자 한다. 훈련은 5가지 부위의 CT 스캔 1042개를 사용했고, 모델 평가를 위해 테스트셋 179개, 외부 데이터셋으로 448개를 수집했다. 딥러닝 모델 개발을 위해 ImageNet으로 사전 학습된 InceptionResNetV2를 백본으로 사용하였으며, 모델의 전체 레이어를 재 학습했다. 실험결과 신체 부위 분류에서는 재구성 데이터 모델이 99.33%를 달성하며 axial 모델보다 1.12% 더 높았고, 조영제 분류에서는 brain과 neck에서만 axial모델이 높았다. 결론적으로 axial slice로만 훈련했을 때 보다 해부학적 특징이 잘 나타나는 데이터로 학습했을 때 더 정확한 성능 달성이 가능했다.

Image texture feature를 이용하여 비소세포폐암 전이 예측 머신러닝 모델 연구 (Study of machine learning model for predicting non-small cell lung cancer metastasis using image texture feature)

  • 주혜민;우상근
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.313-315
    • /
    • 2023
  • 본 논문에서는 18F-FDG PET과 CT에서 추출한 영상인자를 이용하여 비소세포폐암의 전이를 예측하는 머신러닝 모델을 생성하였다. 18F-FDG는 종양의 포도당 대사 시 사용되며 이를 추적하여 환자의 암 세포를 진단하는데 사용되는 의료영상 기법 중 하나이다. PET과 CT 영상에서 추출한 이미지 특징은 종양의 생물학적 특성을 반영하며 해당 ROI로부터 계산되어 정량화된 값이다. 본 연구에서는 환자의 의료영상으로부터 image texture 프절 전이 예측에 있어 유의한 인자인지를 확인하기 위하여 AUC를 계산하고 단변량 분석을 진행하였다. PET과 CT에서 각각 4개(GLRLM_GLNU, SHAPE_Compacity only for 3D ROI, SHAPE_Volume_vx, SHAPE_Volume_mL)와 2개(NGLDM_Busyness, TLG_ml)의 image texture feature를 모델의 생성에 사용하였다. 생성된 각 모델의 성능을 평가하기 위해 accuracy와 AUC를 계산하였으며 그 결과 random forest(RF) 모델의 예측 정확도가 가장 높았다. 추출된 PET과 CT image texture feature를 함께 사용하여 모델을 훈련하였을 때가 각각 따로 사용하였을 때 보다 예측 성능이 개선됨을 확인하였다. 추출된 영상인자가 림프절 전이를 나타내는 바이오마커로서의 가능성을 확인할 수 있었으며 이러한 연구 결과를 바탕으로 개인별 의료 영상을 기반으로 한 비소세포폐암의 치료 전략을 수립할 수 있을 것이라 기대된다.

  • PDF

딥러닝 네트워크를 이용한 조영증강 CT 영상 생성 (Synthesis of contrast CT image using deep learning network)

  • 우상근
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.465-467
    • /
    • 2019
  • 본 논문에서는 영상생성이 가능한 딥러닝 네트워크를 이용하여 조영증강 CT 영상을 획득하는 연구를 수행하였다. CT는 고해상도 영상을 바탕으로 환자의 질병 및 암 세포 진단에 사용되는 의료영상 기법 중 하나이다. 특히, 조영제를 투여한 다음 CT 영상을 획득되는 영상을 조영증강 CT 영상이라 한다. 조영증강된 CT 영상은 물질의 구성 성분의 영상대비를 강조하여 임상의로 하여금 진단 및 치료반응 평가의 정확성을 향상시켜준다. 하지많은 수의 환자들이 조영제 부작용을 갖기 때문에 이에 해당되는 환자의 경우 조영증강 CT 영상 획득이 불가능해진다. 따라서 본 연구에서는 조영증강 영상을 얻지 못하는 환자 및 일반 환자의 불필요한 방사선의 노출을 최소화 하기 위하여 영상생성 딥러닝 기법을 이용하여 CT 영상에서 조영증강 CT 영상을 생성하는 연구를 진행하였다. 영상생성 딥러닝 네트워크는 generative adversarial network (GAN) 모델을 사용하였다. 연구결과 아무런 전처리도 거치지 않은 CT 영상을 이용하여 영상을 생성하는 것 보다 히스토그램 균일화 과정을 거친 영상이 더 좋은 결과를 나타냈으며 생성영상이 기존의 실제 영상과 영상의 구조적 유사도가 높음을 확인할 수 있다. 본 연구결과 딥러닝 영상생성 모델을 이용하여 조영증강 CT 영상을 생성할 수 있었으며, 이를 통하여 환자의 불필요한 방사선 피폭을 최소하며, 생성된 조영증강 CT 영상을 바탕으로 정확한 진단 및 치료반응 평가에 기여할 수 있을거라 기대된다.

  • PDF

영역 이진화 모델링과 지역적 변형 모델을 이용한 시간차 흉부 CT 영상의 폐 실질 비강체 정합 기법 (Non-rigid Registration Method of Lung Parenchyma in Temporal Chest CT Scans using Region Binarization Modeling and Locally Deformable Model)

  • 계희원;이정진
    • 한국멀티미디어학회논문지
    • /
    • 제16권6호
    • /
    • pp.700-707
    • /
    • 2013
  • 본 논문에서는 시간차 흉부 CT 영상의 폐 실질 비강체 정합을 위하여 영역 이진화 모델링과 지역적 변형 모델을 이용한 정합 기법을 제안한다. 제안 기법은 먼저 폐 혈관과 실질을 분할하고, 영역 이진화 모델링을 수행하여 두 영상 사이의 밝기값의 차이에 따른 정합 오차를 최소화 한다. 다음으로 초기 정합 기법으로 두 폐 표면을 전역적으로 정렬하고, 지역적 변형 변환 모델을 제안하여 비강체 정합을 수행한다. 또한, 정합 후 감산된 시간에 따른 밝기값 차이가 미리 정의된 칼라 맵을 이용하여 가시화 된다. 실험 결과는 제안기법이 10명의 환자에 대하여 최대호흡과 최소호흡 CT 영상에서 폐 실질을 정확하게 정합하였음을 보여주었다. 제안된 비강체 정합 기법은 폐 실질에 대한 정량적 분석 결과의 직관적인 칼라 매핑을 통하여 다양한 폐 질환의 정량적 분석에 유용하게 사용될 수 있다.

Efficient Osteoporosis Prediction Using A Pair of Ensemble Models

  • Choi, Se-Heon;Hwang, Dong-Hwan;Kim, Do-Hyeon;Bak, So-Hyeon;Kim, Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권12호
    • /
    • pp.45-52
    • /
    • 2021
  • 본 논문에서는 컴퓨터 단층촬영(CT) 이미지를 이용한 합성곱 신경망(CNN)을 기반의 골감소증 및 골다공증 예측 모델을 제안한다. 기존의 CNN은 단일 CT 이미지에서 예측에 중요한 지역정보를 활용하지 못하다는 문제가 있다. 본 논문에서 이를 해결하고자 CT 이미지를 정규화하여 질감 정보가 다른 두 개의 이미지로 변환하고, 해당 이미지를 활용한 한 쌍의 신경망 네트워크를 제안한다. 동일한 구조를 가진 네트워크 각각의 신경망은 질감 정보가 다른 이미지를 입력으로 사용하고 비유사성 손실함수를 통해 다른 정보를 학습한다. 최종적으로 제안 모델은 중요한 지역정보를 포함한 단일 CT 이미지의 다양한 특징 정보를 학습하며, 이를 앙상블하여 골감소증 및 골다공증 예측 정확도를 높인다. 실험 결과를 통해 제안 모델의 정확도 77.11%를 확인할 수 있으며 Grad-CAM을 이용하여 모델이 바라보는 특징을 확인할 수 있다.

An Efficient CT Image Denoising using WT-GAN Model

  • Hae Chan Jeong;Dong Hoon Lim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권5호
    • /
    • pp.21-29
    • /
    • 2024
  • CT 촬영 시 방사선량을 줄이면 피폭 위험성을 낮출 수 있으나, 영상 해상도가 크게 저하 될 뿐아니라 잡음(noise) 발생으로 인해 진단의 효용성이 떨어진다. 따라서, CT 영상에서의 잡음제거는 영상복원 분야에 있어 매우 중요하고 필수적인 처리 과정이다. 영상 영역에서 잡음과 원래 신호를 분리하여 잡음만을 제거하는 것은 한계가 있다. 본 논문에서는 웨이블릿 변환 기반 GAN 모델 즉, WT-GAN(wavelet transform-based GAN) 모델을 이용하여 CT 영상에서 효과적으로 잡음 제거하고자 한다. 여기서 사용된 GAN 모델은 U-Net 구조의 생성자와 PatchGAN 구조의 판별자를 통해 잡음제거 영상을 생성한다. 본 논문에서 제안된 WT-GAN 모델의 성능 평가를 위해 다양한 잡음, 즉, 가우시안 잡음(Gaussian noise), 포아송 잡음 (Poisson noise) 그리고 스펙클 잡음 (speckle noise)에 의해 훼손된 CT 영상을 대상으로 실험하였다. 성능 실험 결과, WT-GAN 모델은 전통적인 필터 즉, BM3D 필터뿐만 아니라 기존의 딥러닝 모델인 DnCNN, CDAE 모형 그리고 U-Net GAN 모형보다 정성적이고, 정량적인 척도 즉, PSNR (Peak Signal-to-Noise Ratio) 그리고 SSIM (Structural Similarity Index Measure) 면에서 우수한 결과를 보였다.

폐 CT 영상에서의 노이즈 감소를 위한 U-net 딥러닝 모델의 다양한 학습 파라미터 적용에 따른 성능 평가 (Performance Evaluation of U-net Deep Learning Model for Noise Reduction according to Various Hyper Parameters in Lung CT Images)

  • 이민관;박찬록
    • 한국방사선학회논문지
    • /
    • 제17권5호
    • /
    • pp.709-715
    • /
    • 2023
  • 본 연구의 목적은, U-net 딥러닝 모델을 이용하여 CT 영상에서의 노이즈 감소 효과를 다양한 하이퍼 파라미터를 적용하여 평가하였다. 노이즈가 포함된 입력 영상 생성을 위하여 Gaussian 노이즈를 적용하였고, 총 1300장의 CT 영상에서 train, validation, test 셋의 비율을 8:1:1로 유지하여 U-net 모델을 적용하여 학습하였다. 연구에서 적용된 하이퍼파라미터는 최적화 함수 Adagrad, Adam, AdamW와 학습횟수 10회, 50회, 100회와 학습률 0.01, 0.001, 0.0001을 적용하였으며, 최대 신호 대 잡음비와 영상의 변동계수 값을 계산하여 정량적으로 분석하였다. 결과적으로 U-net 딥러닝 모델을 적용한 노이즈 감소는 영상의 질을 향상시킬 수 있으며 노이즈 감소 측면에서 유용성을 입증하였다.