뇌 PET과 MR 영상의 자동화된 3차원적 합성기법 개발

Development of an Automatic 3D Coregistration Technique of Brain PET and MR Images

  • 이재성 (서울대학교 대학원 협동과정 의용생체공학) ;
  • 곽철은 (서울대학교 의과대학 핵의학교실) ;
  • 이동수 (서울대학교 의과대학 핵의학교실) ;
  • 정준기 (서울대학교 의과대학 핵의학교실) ;
  • 이명철 (서울대학교 의과대학 핵의학교실) ;
  • 박광석 (서울대학교 의공학교실)
  • Lee, Jae-Sung (Interdisciplinary Program in Medical and Biological Engineering Major, Seoul National University College of Medicine) ;
  • Kwark, Cheol-Eun (Department of Nuclear Medicine, Seoul National University College of Medicine) ;
  • Lee, Dong-Soo (Department of Nuclear Medicine, Seoul National University College of Medicine) ;
  • Chung, June-Key (Department of Nuclear Medicine, Seoul National University College of Medicine) ;
  • Lee, Myung-Chul (Department of Nuclear Medicine, Seoul National University College of Medicine) ;
  • Park, Kwang-Suk (Department of Biomedical Engineering, Seoul National University College of Medicine)
  • 발행 : 1998.10.30

초록

목적: PET과 MR 영상을 체계적으로 합성i분석하여 각각의 영상기법이 갖는 단점을 보완하고 기능을 향상시킴으로써 보다 정확하고 유용한 임상정보를 얻을 수 있다. 두 영상을 공간적으로 합성하기 위해서 머리 표피 경계점들 간의 거리를 최소화하는 알고리즘을 이용할 경우 경계점 추출의 정확성 및 견실성과 거리 계산 속도가 합성 알고리즘의 성능을 결정하는 중요한 요소가 된다. 본 연구에서는 PET 영상의 경계 추출과 거리 계산 방법을 개선하고 이를 이용하여 PET과 MR 영상을 3차원적으로 합성하였다. 대상 및 방법: 공간적인 합성을 위한 영상처리기법의 핵심인 경계점 추출을 위해 PET영상에서는 방출스캔 sinogram의 경계를 강조한 후 재구성한 횡단면으로부터 2 mm 간격으로 머리 표피 경계점들을 추출하였으며 MR 영상에서는 각 횡단면마다 약 2도 간격으로 경계점들을 추출하였다. 두 영상의 모든 경계점들 간의 평균 유클리디안 거리를 최소화하는 3차원 가상공간 상에서의 위치 이동과 회전 각도를 최소자승법을 이용하여 구한 후 PET영상을 역 전환하여 위치 정합을 하였다. 평균 거리의 계산 속도를 향상시키기 위하여 고정된 대상의 각 경계점을 중심으로 하여 주변 공간 정들에서의 거리를 순차적으로 계산하고 이들의 최소값을 취하는 방법으로 거리지도를 구성하였으며 최소자승법에서 경계점들 간의 위치가 변할 때마다 매번 평균거리를 다시 계산하지 않고 거리지도를 참조하여 평균 거리를 산출하는 방법을 사용하였다. 위치 정합된 두 영상의 동시 표현을 위하여 PET 영상의 화소값에 $0.4{\sim}0.7$부터 1사이의 범위로 정규화된 MR 영상의 화소 값으로 가중치를 주는 가중정규화 방법을 사용하였다. 결과: 방출스캔의 sinogram을 이용함으로써 PET영상의 경계를 견실하게 추출할 수 있었으며, 거리지도를 이용하여 거리 계산을 한 결과 계산 속도를 향상시킬 수 있었다. 정상인의 뇌영상에 대해 위치 정합을 실시한 결과 평균 거리 오차는 2mm 이하였다. 가중정규화 방법을 사용하였을 때 합성된 영상의 정성적인 식별 명확도가 향상하였다. 결론: 견실한 PET 영상 경계점 추출과 거리지도를 이용한 계산 속도의 향상을 통해 뇌 PET과 MR 영상 합성기법의 성능을 개선할 수 있었으며 이를 이용하며 개발한 영상정합 프로그램은 임상 환경에서 유용하게 사용될 수 있을 것이다.

Purpose: Cross-modality coregistration of positron emission tomography (PET) and magnetic resonance imaging (MR) could enhance the clinical information. In this study we propose a refined technique to improve the robustness of registration, and to implement more realistic visualization of the coregistered images. Materials and Methods: Using the sinogram of PET emission scan, we extracted the robust head boundary and used boundary-enhanced PET to coregister PET with MR. The pixels having 10% of maximum pixel value were considered as the boundary of sinogram. Boundary pixel values were exchanged with maximum value of sinogram. One hundred eighty boundary points were extracted at intervals of about 2 degree using simple threshold method from each slice of MR images. Best affined transformation between the two point sets was performed using least square fitting which should minimize the sum of Euclidean distance between the point sets. We reduced calculation time using pre-defined distance map. Finally we developed an automatic coregistration program using this boundary detection and surface matching technique. We designed a new weighted normalization technique to display the coregistered PET and MR images simultaneously. Results: Using our newly developed method, robust extraction of head boundary was possible and spatial registration was successfully performed. Mean displacement error was less than 2.0 mm. In visualization of coregistered images using weighted normalization method, structures shown in MR image could be realistically represented. Conclusion: Our refined technique could practically enhance the performance of automated three dimensional coregistration.

키워드