• Title/Summary/Keyword: Automatic image-to-image registration

검색결과 61건 처리시간 0.028초

다중 3차원 거리정보 데이타의 자동 정합 방법 (Automatic Registration Method for Multiple 3D Range Data Sets)

  • 김상훈;조청운;홍현기
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권12호
    • /
    • pp.1239-1246
    • /
    • 2003
  • 대상 물체의 3차원 모델을 구축하기 위해서는 여러 시점에서 측정된 거리정보 데이타들을 하나의 좌표계로 통합하는 정합(registration) 과정이 필수적이다. 3차원 데이타의 정합을 위해 가장 널리 사용되는 ICP(Iterative Closest Point) 알고리즘은 거리정보 데이타 간에 겹치는 영역 또는 일치점 등에 대한 사전 정보가 필요하다. 본 논문에서는 임의의 시점에서 측정된 데이타를 반복적인 방법에 의해 자동으로 정합하는 개선된 ICP 방법이 제안된다. 3차원 데이타가 거리정보 영상으로 맺히는 관계를 나타내는 센서 사영조건(projection constraint), 데이타의 공분산(covariance) 행렬, 교차(cross) 사영 등을 이용하여 정합과정을 자동화하였으며, 유저의 개입이나 3차원 기계 보조 장치 등을 사용하는 별도의 초기값 측정 없이 3차원 모델을 정확하게 구성할 수 있다. 다양한 거리정보 데이타에 대한 실험을 통해 제안된 방법의 우수한 성능을 확인하였다.

저해상도 동영상에서의 자동화된 입력영상 선별을 이용한 고해상도 영상 복원 방법 (A High-Resolution Image Reconstruction Method Utilizing Automatic Input Image Selection from Low-Resolution Video)

  • 김성득
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.12-18
    • /
    • 2006
  • 이 논문은 저해상도 동영상에서 자동화된 방식으로 한 장의 좋은 화질의 고해상도 영상을 얻는 방안을 제시한다. 여러 장의 저해상도 영상을 이용하여 고해상도 영상을 얻는 방법이 한 장의 저해상도 영상만을 이용하는 전통적인 보간 방법에 비해 좋은 결과를 보이기 위해서는 입력 영상들이 공통된 고해상도 격자에 잘 정합되어야 하므로, 정합오차를 충분히 고려하여 입력영상들을 주의 깊게 선택한다. 본 논문에서는 움직임 보상된 저해상도 영상들로부터 얻어진 통계적 특성을 활용하여 입력 영상 후보들의 입력 영상으로서의 적합성을 평가한다. 고해상도 영상획득모델로부터 움직임 보상오차의 최대값을 추정한다. 입력 영상 후보의 움직임 보상오차가 추정된 움직임 보상오차의 최대값보다 크면 입력 영상후보는 선정에서 제외된다. 선정된 적절한 유효 입력 영상 후보의 수와 움직임 보상오차의 통계치를 고려하여 최종 입력 영상들을 선별한다. 입력 영상 선별부에서 최종적으로 선별된 입력 영상들은 뒤따르는 고해상도 영상복원부로 입력된다. 제안된 방식은 사용자의 간섭없이 저해상도 동영상에서 효과적으로 입력 영상들을 선별하여 좋은 화질의 고해상도 영상을 얻는 응용에 사용될 것으로 기대된다.

특징점 매칭 개선 및 강인추정을 통한 이종해상도 위성영상 자동영상정합 (Automated Image Matching for Satellite Images with Different GSDs through Improved Feature Matching and Robust Estimation)

  • 반승환;김태정
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1257-1271
    • /
    • 2022
  • 최근 많은 수의 지구관측용 광학위성이 개발되어 위성영상에 대한 수요가 증가하고 있다. 따라서, 위성영상의 활발한 활용을 위해서 신속한 전처리 과정이 요구된다. 위성영상 정합은 두 영상을 하나의 특정한 좌표계로 변환하여 등록하는 기술로서 원격탐사 분야에서 영상정합 기술은 서로 다른 대역의 영상을 정렬하거나, 두 위성영상 간의 상대적인 위치 오차를 수정하는데 사용된다. 본 논문에서는 서로 다른 Ground Sample Distance (GSD)를 가지는 위성영상 간의 자동 영상정합 방법을 제안하였다. 제안방법은 개선된 특징점 매칭방법과 강인한 변환모델 추정기법을 기반으로 하며, 다음과 같이 5가지 처리과정으로 구성된다: 중첩 영역 계산, 개선된 특징점 탐지, 특징점 매칭, 강인한 변환모델 추정, 영상 리샘플링. 특징점 탐지를 위해서 중첩영역을 추출하여 두 영상의 GSD가 유사하도록 영상 리샘플링을 수행하였다. 특징점 매칭 단계에서는, Oriented FAST and Rotated BRIEF (ORB) 알고리즘을 사용하여 영상정합 성능을 향상시켰다. 영상정합 실험은 KOMPSAT-3A와 RapidEye영상을 실험대상으로 수행되었으며 제안방법의 성능검증은 정성적, 정량적 두 가지 방법으로 수행되었다. 영상정합의 재투영오차는 RapidEye GSD를 기준으로 1.277 (8.3 m)에서 1.608 (10.452 m)의 픽셀 정확도를 보였다. 즉, 결론적으로, 제안방법을 통해 이종해상도 위성영상의 영상정합 가능성을 확인하였다.

로봇을 이용한 두개골 드릴링 시스템의 프로토타입 개발 (Prototype Development of a Robotic System for Skull Drilling)

  • 정연찬
    • 한국CDE학회논문집
    • /
    • 제17권3호
    • /
    • pp.198-207
    • /
    • 2012
  • This paper presents an overview of automated robotic system for skull drilling, which is performed to access for some neurosurgical interventions, such as brain tumor resection. Currently surgeons use automatic-releasing cranial perforators. The drilling procedure must be performed very carefully to avoid penetration of brain nerve structures; however failure cases are reported. The presented prototype system utilizes both preoperative and intraoperative information. Preoperative CT image is used for robot path planning. A NeuroMate robot with a six-DOF force sensor at the end effector is used for intraoperative operation. Intraoperative cutting force from the force sensor is the key information to revise an initial registration and preoperative path plans. Some possibilities are verified by path simulation but cadaver experiments are required for validation of this prototype.

선형과 특징점을 이용한 연속적인 드론영상의 자동기하보정 (Automatic Geo-referencing of Sequential Drone Images Using Linear Features and Distinct Points)

  • 최한승;김의명
    • 한국측량학회지
    • /
    • 제37권1호
    • /
    • pp.19-28
    • /
    • 2019
  • 드론영상은 소규모 지역의 공간정보를 신속하게 구축할 수 있는 장점을 가지고 있어 빠른 의사결정이 필요한 분야에 적용되고 있다. 이러한 드론영상을 지상좌표계가 설정되어 있는 정사영상에 자동으로 영상등록할 수 있는 기하보정 기법이 적용된다면 다양한 분석에 활용될 수 있다. 이에 본 연구에서는 선형정보와 특징점 정보를 이용하여 시 공간해상도에 차이가 있더라도 드론을 이용하여 촬영된 단일 영상 및 연속영상을 기하보정할 수 있는 방법론을 제안하였다. 선형정보를 이용하는 방법을 통해서 영상간의 초기 기하보정을 위한 투영변환 매개변수를 결정한 후 영상에서 다수 추출할 수 있는 특징점에 대한 템플릿 정합을 통해서 최종적으로 영상의 기하보정을 수행하였다. 실험을 통하여 지형의 기복이 많이 있지 않은 지역에서는 기하보정의 정확도가 높게 나타났다. 이에 반해 지형의 변화가 많은 지역에서는 정량적인 측면에서 다소 오차가 크게 나타났으나 정성적인 분석에는 연속영상의 기하보정 결과를 충분히 활용가능한 것으로 판단된다.

AUTOMATIC 3D BUILDING INFORMATION EXTRACTION FROM A SINGLE QUICKBIRD IMAGE AND DIGITAL MAPS

  • Kim, Hye-Jin;Byun, Young-Gi;Choi, Jae-Wan;Han, You-Kyung;Kim, Yong-Il
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2007년도 Proceedings of ISRS 2007
    • /
    • pp.238-242
    • /
    • 2007
  • Today's commercial high resolution satellite imagery such as that provided by IKONOS and QuickBird, offers the potential to extract useful spatial information for geographical database construction and GIS applications. Digital maps supply the most generally used GIS data probiding topography, road, and building information. Currently, the building information provided by digital maps is incompletely constructed for GIS applications due to planar position error and warped shape. We focus on extracting of the accurate building information including position, shape, and height to update the building information of the digital maps and GIS database. In this paper, we propose a new method of 3D building information extraction with a single high resolution satellite image and digital map. Co-registration between the QuickBird image and the 1:1,000 digital maps was carried out automatically using the RPC adjustment model and the building layer of the digital map was projected onto the image. The building roof boundaries were detected using the building layer from the digital map based on the satellite azimuth. The building shape could be modified using a snake algorithm. Then we measured the building height and traced the building bottom automatically using triangular vector structure (TVS) hypothesis. In order to evaluate the proposed method, we estimated accuracy of the extracted building information using LiDAR DSM.

  • PDF

배경 구축 기법과 형태학적 연산 기반의 다중 선박 객체 검출 (Multiple Ship Object Detection Based on Background Registration Technique and Morphology Operation)

  • 김원희;;김종남;문광석
    • 한국멀티미디어학회논문지
    • /
    • 제15권11호
    • /
    • pp.1284-1291
    • /
    • 2012
  • 선박 객체 검출 기술은 입력된 비디오 및 영상 데이터에서 선박 객체가 존재하는 경우 선박의 위치를 검출하는 기술로서 입력 영상의 환경 변화와 잡음의 영향에 따라서 검출 정확도의 편차가 높다. 이런 문제점을 해결하기 위하여 본 논문에서는 배경 구축 기법과 형태학적 연산 기반의 다중 선박 객체 검출 기술을 제안한다. 제안하는 방법은 배경 제거 단계, 잡음 제거 단계, 객체 기준 위치 설정 단계, 객체 재구성 단계, 다중 객체 검출 단계 등 5단계를 거쳐서 선박을 검출한다. 다양한 변수를 고려한 15가지 실험 비디오를 대상으로 한 실험을 통해서 98.7%의 검출율을 나타내었으며, 환경 변화에 강인한 검출을 수행하는 것을 확인할 수 있었다. 제안하는 방법은 해상 관제와 선박 자동 운항 기술의 기반 기술로서 유용하게 사용될 수 있다.

CT 혈관 조영 영상에서 뼈 소거법 기반의 하지 혈관 자동 추출 (Automatic Lower Extremity Vessel Extraction based on Bone Elimination Technique in CT Angiography Images)

  • 김수경;홍헬렌
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권12호
    • /
    • pp.967-976
    • /
    • 2009
  • 본 논문에서는 CT 및 CT 혈관 조영 영상에서 강체 정합 및 뼈 소거법을 이용한 하지 혈관 자동 추출 방법을 제안한다. 첫째, 뼈의 부분적인 움직임을 반영하기 위하여 해부학 정보를 바탕으로 하지를 자동 구역화하고, 둘째, CT와 CTA 영상간 움직임을 산정하기 위하여 거리지도 기반의 강체 정합을 수행한다. 셋째, CTA 영상에서 복잡한 구조를 갖는 뼈를 제거하고 뼈에 인접한 혈관이 깎이는 것을 방지하기 위하여 뼈 소거법과 혈관 마스킹 기법을 제안한다. 넷째, 정합오차 및 연골 등의 잡음을 줄이기 위하여 혈관 추적 기반의 후 처리 과정을 통하여 보정한다. 제안 방법의 평가를 위해 육안 평가와 정확성 평가 그리고 수행시간을 측정하였다. 육안 평가를 위해 차감 기법, 정합 후 차감 기법, 제안 방법을 적용한 결과를 볼륨렌더링과 최대 강도 투영영상을 사용하여 비교하였다. 정확성 평가를 위해 CTA 영상과 차감 기반 기법 및 제안 방법을 적용한 결과의 밝기값 분포도를 분석하였다. 실험 결과 뼈는 제거되고 가는 혈관 및 다른 조직의 손실 없이 혈관이 정확하게 추출되었음을 볼 수 있었고, 13명의 환자 데이터 전채에 대한 전체 수행시간은 약 40포 정도로 측정되었다.

토모테라피의 자동영상정합 분석 (Analysis of Automatic Rigid Image-Registration on Tomotherapy)

  • 김영록;조광환;정재홍;정주영;임광채;김용호;문성권;배선현;민철기;김은석;여승구;서태석;최보영;민정환;안재억
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제37권1호
    • /
    • pp.37-47
    • /
    • 2014
  • 본 연구는 토모테라피(Accuray Inc, Sunnyvale, CA, USA)의 자동영상정합 과정에서 조정인자에 따른 종축과 회전축의 오차를 분석하였다. 다섯그룹(두부, 경부, 흉부, 복부, 골반부)으로 구분된 총 50명의 치료가 종료된 환자를 대상으로 하였고, 총 500개의 megavoltage computed tomography (MVCT) 영상을 분석하였다. 모의치료에서 kilovoltage computed tomography (kVCT)영상을 얻었고, 치료계획을 위하여 토모테라피 Hi-Art II 치료계획시스템(Accuray Inc, Sunnyvale, CA, USA)을 사용하였다. 매 회 치료 전 자동영상정합 과정을 시행하였고, 종축과 회전축의 오차를 기록하였다. 종축과 회전축의 일치도(adjustments)에서 자동영상정합을 분석하기 위하여 총 아홉 가지 조정인자를 적용하였고, 각 그룹의 계통적(systematic, ${\Sigma}$)과 통계적(random, RMS) 오차에 대하여 종합적 평균오차(overall mean value, M)를 구했다. 각 그룹 간 회전축 일치도의 종합적 평균오차에서 밀도와 해상도에 따른 다양한 조정인자에 의한 차이를 보였다. 밀도와 해상도가 높아짐에 따라 회전축 일치도에서 편차가 작았다. 그러므로, 토모테라피에서 "full-image"모드와 "standard"해상도를 이용한 자동영상정합은 정확한 오차 확인이 가능하고, 환자 재위치잡이(repositionning) 및 보정(correcting)에 도움이 될 것으로 사료된다.

Efficient Semi-automatic Annotation System based on Deep Learning

  • Hyunseok Lee;Hwa Hui Shin;Soohoon Maeng;Dae Gwan Kim;Hyojeong Moon
    • 대한임베디드공학회논문지
    • /
    • 제18권6호
    • /
    • pp.267-275
    • /
    • 2023
  • This paper presents the development of specialized software for annotating volume-of-interest on 18F-FDG PET/CT images with the goal of facilitating the studies and diagnosis of head and neck cancer (HNC). To achieve an efficient annotation process, we employed the SE-Norm-Residual Layer-based U-Net model. This model exhibited outstanding proficiency to segment cancerous regions within 18F-FDG PET/CT scans of HNC cases. Manual annotation function was also integrated, allowing researchers and clinicians to validate and refine annotations based on dataset characteristics. Workspace has a display with fusion of both PET and CT images, providing enhance user convenience through simultaneous visualization. The performance of deeplearning model was validated using a Hecktor 2021 dataset, and subsequently developed semi-automatic annotation functionalities. We began by performing image preprocessing including resampling, normalization, and co-registration, followed by an evaluation of the deep learning model performance. This model was integrated into the software, serving as an initial automatic segmentation step. Users can manually refine pre-segmented regions to correct false positives and false negatives. Annotation images are subsequently saved along with their corresponding 18F-FDG PET/CT fusion images, enabling their application across various domains. In this study, we developed a semi-automatic annotation software designed for efficiently generating annotated lesion images, with applications in HNC research and diagnosis. The findings indicated that this software surpasses conventional tools, particularly in the context of HNC-specific annotation with 18F-FDG PET/CT data. Consequently, developed software offers a robust solution for producing annotated datasets, driving advances in the studies and diagnosis of HNC.