• 제목/요약/키워드: Image Fusion

검색결과 884건 처리시간 0.03초

정상 웨이블렛 변환을 이용한 로버스트 영상 융합 (Robust Image Fusion Using Stationary Wavelet Transform)

  • 김희훈;강승효;박재현;하현호;임진수;임동훈
    • 응용통계연구
    • /
    • 제24권6호
    • /
    • pp.1181-1196
    • /
    • 2011
  • 영상 융합은 특징이 다른 두 개 이상의 영상에 대하여 각 영상의 특징을 모두 갖는 하나의 영상으로 재구성하는 기술로 의료 분야, 군사 분야, 원격 탐사 분야 등 여러 분야에 활용되고 있다. 지금까지 웨이블렛 기반 영상 융합은 주로 이산 웨이블렛 변환 하에서 고주파 영역에서는 표준편차와 같은 액티비티(activity) 측도를 사용하고 저주파 영역에서는 두 영상의 픽셀값의 평균을 취함으로써 이루어져 왔다. 그러나, 이산 웨이블렛 변환은 이동불변(translation-invariance)하지 않으므로 융합 영상에 블록 인공물이 생기곤 한다. 본 논문에서는 이산 웨이블렛 변환의 단점을 보완한 정상 웨이블렛 변환을 이용하여 고주파 영역에서는 영상 특징에 민감하지 않은 사분위수 범위를 사용하고 저주파 영역에서는 고주파 영역의 사분위수 범위 정보를 이용하여 영상을 융합하고자 한다. 영상 실험 결과, 제안된 방법은 정성적이고 정량적인 평가에서 입력 영상의 종류에 관계없이 로버스트한 결과를 낳음을 알 수 있었다.

데이터 퓨전을 이용한 얼굴영상 인식 및 인증에 관한 연구 (2D Face Image Recognition and Authentication Based on Data Fusion)

  • 박성원;권지웅;최진영
    • 한국지능시스템학회논문지
    • /
    • 제11권4호
    • /
    • pp.302-306
    • /
    • 2001
  • 얼굴인식은 이미지의 많은 변동(표정, 조명, 얼굴의 방향 등)으로 인해 한 가지 인식 방법으로는 높은 인식률을 얻기 어렵다. 이러한 어려움을 해결하기 위해, 여러 가지 정보를 융합시키는 데이터 퓨전 방법이 연구되었다. 기존의 데이터 퓨전 방법은 보조적인 생체 정보(지문, 음성 등)를 융합하여 얼굴인식기를 보조하는 방식을 취하였다. 이 논문에서는 보조적인, 생체 정보를 사용하지 않고, 기존의 얼굴인식방법을 통해 얻어지는 상호보완적인 정보를 융합하여 사용하였다. 개별적인 얼굴인식기의 정보를 융합하기 위해, 전체적으로는 Dempster-Shafer의 퓨전이론에 근거하면서, 핵심이 되는 질량함수를 새로운 방식으로 재정의학 퓨전모델을 제안하였다. 제안된 퓨전모델을 사용하여 개별적인 얼굴인식기의 정보를 융합한 결과, 보조적인 생체정보 없이, 개별적인 얼굴인식기보다 나은 인식률을 얻을 수 있었다.

  • PDF

Effectiveness of Using the TIR Band in Landsat 8 Image Classification

  • Lee, Mi Hee;Lee, Soo Bong;Kim, Yongmin;Sa, Jiwon;Eo, Yang Dam
    • 한국측량학회지
    • /
    • 제33권3호
    • /
    • pp.203-209
    • /
    • 2015
  • This paper discusses the effectiveness of using Landsat 8 TIR (Thermal Infrared) band images to improve the accuracy of landuse/landcover classification of urban areas. According to classification results for the study area using diverse band combinations, the classification accuracy using an image fusion process in which the TIR band is added to the visible and near infrared band was improved by 4.0%, compared to that using a band combination that does not consider the TIR band. For urban area landuse/landcover classification in particular, the producer’s accuracy and user’s accuracy values were improved by 10.2% and 3.8%, respectively. When MLC (Maximum Likelihood Classification), which is commonly applied to remote sensing images, was used, the TIR band images helped obtain a higher discriminant analysis in landuse/landcover classification.

Fusion & Maximum Intensity Projection 3D 재구성 영상에서 Region Cut Subtraction의 유용성 (Usefulness of Region Cut Subtraction in Fusion & MIP 3D Reconstruction Image)

  • 문아름;지용기;최성욱;이혁;이규복;석재동
    • 핵의학기술
    • /
    • 제14권1호
    • /
    • pp.18-23
    • /
    • 2010
  • 최근 PET/CT영상의 발달로 종양의 진단 및 평가를 통해 임상에 많은 도움을 주고 있다. 특히 PET와 CT를 융합한 Fusion PET/CT영상이나 2차원 PET영상을 3차원 영상으로 재구성한 최대강도영상(Maximum Intensity Projection)은 전체적인 병변을 한눈에 시각화하는 데 유용하게 쓰이고 있다. 하지만 Fusion & MIP 3D 재구성 영상에서 $^{18}F$-FDG의 생리적 배출로 소변이나 요루주머니에 의한 열소가 나타나 병변이 겹쳐져 육안적으로 병변을 구별하는 데 어려움이 있다. 본 연구에서는 소변에 의해 나타나는 열소 부위를 제거하여 병변의 분별력을 향상하고자 한다. 2008년 9월부터 2009년 3월까지 내원한 환자 중 PET/CT 검사에서 자궁, 방광, 직장 부위의 질환으로 잔존하는 소변량이 많은 환자들을 대상으로 하였다. 분석장비는 GE사의 Advantage Workstation AW4.3 05 버전 Volume Viewer 프로그램을 사용하였다. 분석 방법은 2D PET axial volume 영상에서 제거하고자 하는 region에 ROI를 설정하여 Cut Outside를 선택한 후 coronal volume 영상도 동일한 방법을 적용한다. 다음으로 3D Tools의 threshold 값을 지정하고, Advanced Processing에서 Subtraction을 선택하여 차집합 방식으로 소변 영상만을 소거한다. 이렇게 Region Cut Subtraction이 된 2D PET영상과 CT영상으로 Fusion영상과 MIP영상을 만들어 Region Cut Subtraction하지 않은 영상과 비교한다. Fusion & MIP 3D 재구성 영상에서 Advantage Workstation AW4.3 05버전의 Region Cut Subtraction으로 환자의 소변이나 요루주머니에 의한 열소 부위를 제거할 수 있었다. Region Cut Definition을 사용한 영상에서 그렇지 않은 영상보다 소변 섭취 때문에 구별이 어렵던 병변과의 경계가 보다 명확하게 재구성되었다. 영상을 재구성하는 과정에서 Region Cut Subtraction을 사용하여 열소 부위를 제거한다면 기존에 사용하던 단순 역치범위 설정에 의한 영상 소거법보다 우수한 진단적 정보를 제공할 것이다. 특히 방광, 자궁, 직장 부위 질환의 경우, 판독의와 임상의에게 판독에 보다 유용한 영상 정보를 제공하고, 영상의 질적 향상에 도움이 될 것이라 판단된다.

  • PDF

퍼지 클래스 벡터를 이용하는 다중센서 융합에 의한 무감독 영상분류 (Unsupervised Image Classification through Multisensor Fusion using Fuzzy Class Vector)

  • 이상훈
    • 대한원격탐사학회지
    • /
    • 제19권4호
    • /
    • pp.329-339
    • /
    • 2003
  • 본 연구에서는 무감독 영상분류를 위하여 특성이 다른 센서로 수집된 영상들에 대한 의사결정 수준의 영상 융합기법을 제안하였다. 제안된 기법은 공간 확장 분할에 근거한 무감독 계층군집 영상분류기법을 개개의 센서에서 수집된 영상에 독립적으로 적용한 후 그 결과로 생성되는 분할지역의 퍼지 클래스 벡터(fuzzy class vector)를 이용하여 각 센서의 분류 결과를 융합한다. 퍼지 클래스벡터는 분할지역이 각 클래스에 속할 확률을 표시하는 지시(indicator) 벡터로 간주되며 기대 최대화 (EM: Expected Maximization) 추정 법에 의해 관련 변수의 최대 우도 추정치가 반복적으로 계산되어진다. 본 연구에서는 같은 특성의 센서 혹은 밴드 별로 분할과 분류를 수행한 후 분할지역의 분류결과를 퍼지 클래스 벡터를 이용하여 합성하는 접근법을 사용하고 있으므로 일반적으로 다중센서의 영상의 분류기법에 사용하는 화소수준의 영상융합기법에서처럼 서로 다른 센서로부터 수집된 영상의 화소간의 공간적 일치에 대한 높은 정확도를 요구하지 않는다. 본 연구는 한반도 전라북도 북서지역에서 관측된 다중분광 SPOT 영상자료와 AIRSAR 영상자료에 적용한 결과 제안된 영상 융합기법에 의한 피복 분류는 확장 벡터의 접근법에 의한 영상 융합보다 서로 다른 센서로부터 얻어지는 정보를 더욱 적합하게 융합한다는 것을 보여주고 있다.

DCNN Optimization Using Multi-Resolution Image Fusion

  • Alshehri, Abdullah A.;Lutz, Adam;Ezekiel, Soundararajan;Pearlstein, Larry;Conlen, John
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권11호
    • /
    • pp.4290-4309
    • /
    • 2020
  • In recent years, advancements in machine learning capabilities have allowed it to see widespread adoption for tasks such as object detection, image classification, and anomaly detection. However, despite their promise, a limitation lies in the fact that a network's performance quality is based on the data which it receives. A well-trained network will still have poor performance if the subsequent data supplied to it contains artifacts, out of focus regions, or other visual distortions. Under normal circumstances, images of the same scene captured from differing points of focus, angles, or modalities must be separately analysed by the network, despite possibly containing overlapping information such as in the case of images of the same scene captured from different angles, or irrelevant information such as images captured from infrared sensors which can capture thermal information well but not topographical details. This factor can potentially add significantly to the computational time and resources required to utilize the network without providing any additional benefit. In this study, we plan to explore using image fusion techniques to assemble multiple images of the same scene into a single image that retains the most salient key features of the individual source images while discarding overlapping or irrelevant data that does not provide any benefit to the network. Utilizing this image fusion step before inputting a dataset into the network, the number of images would be significantly reduced with the potential to improve the classification performance accuracy by enhancing images while discarding irrelevant and overlapping regions.

Comparison of various image fusion methods for impervious surface classification from VNREDSat-1

  • Luu, Hung V.;Pham, Manh V.;Man, Chuc D.;Bui, Hung Q.;Nguyen, Thanh T.N.
    • International Journal of Advanced Culture Technology
    • /
    • 제4권2호
    • /
    • pp.1-6
    • /
    • 2016
  • Impervious surfaces are important indicators for urban development monitoring. Accurate mapping of urban impervious surfaces with observational satellites, such as VNREDSat-1, remains challenging due to the spectral diversity not captured by an individual PAN image. In this article, five multi-resolution image fusion techniques were compared for the task of classifting urban impervious surfaces. The result shows that for VNREDSat-1 dataset, UNB and Wavelet tranformation methods are the best techniques in reserving spatial and spectral information of original MS image, respectively. However, the UNB technique gives the best results when it comes to impervious surface classification, especially in the case of shadow areas included in non-impervious surface group.

정맥패턴 융합을 위한 Boundary Stitching Algorithm (Boundary Stitching Algorithm for Fusion of Vein Pattern)

  • 임영규;장경식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.521-524
    • /
    • 2005
  • This paper proposes a fusion algorithm which merges multiple vein pattern images into a single image, larger than those images. As a preprocessing step of template matching, during the verification of biometric data such as fingerprint image, vein pattern image of hand, etc., the fusion technique is used to make reference image larger than the candidate images in order to enhance the matching performance. In this paper, a new algorithm, called BSA (Boundary Stitching Algorithm) is proposed, in which the boundary rectilinear parts extracted from the candidate images are stitched to the reference image in order to enlarge its matching space. By applying BSA to practical vein pattern verification system, its verification rate was increased by about 10%.

  • PDF

치료보조기구의 제작 및 유용성 평가 (The evaluation of usefulness of the newly manufactured immobilization device)

  • 서석진;김찬용;이제희;박흥득
    • 대한방사선치료학회지
    • /
    • 제17권1호
    • /
    • pp.45-55
    • /
    • 2005
  • 목적 : 최근의 방사선치료는 정상조직의 장애는 최대한 줄이고 종양조직 선량을 높여 치료효과를 극대화 하기위하여 3차원적으로 발전되어왔으며, 이에 따른 환자 체위고정을 위한 고정기구와 보조기구의 개발이 필수적으로 요구되고 있다. 본원에서는 MR head holder, 개방형 head holder, Plan CT couch plate를 자체 제작하여 그 유용성을 평가하고 분석하였으며, 임상에 적용한 결과를 보고하고자 한다. 대상 및 방법 : MR head holder를 제작하여 진단 MR영상과 치료계획용 MR영상을 CT영상과 fusion하여 두 영상의 일치성과 정확성을 분석하였고, 개방형 head holder를 제작하여 피부선량과 선량감약 정도를 알아보았으며, 6 mm 아크릴판에 스티로폼을 부착하는 CT couch plate를 제작하여 hard plate와 artifact 정도를 비교하였다. 결과 : Head holder를 사용하지 않은 fusion영상보다 2 mm이내의 오차로 정확한 fusion을 할 수 있었고, 개방형 head holder를 사용함에 따라 피부선량을 최대 2배 이상 줄일 수 있었고, $20\%$이상 선량이 감약되는 것을 최소화할 수 있었다. Plan CT couch plate를 사용했을 때는 2단 연결, 부착 식으로 제작하여 사용이 간편하고 artifact를 현저하게 줄일 수 있었다. 결론 : MR 영상에서도 기준 좌표점을 확인할 수 있어 정확한 MR / CT fusion을 시행할 수 있었고, 향후 PET, 초음파 영상의 fusion도 연구되어야 할 것으로 사료되며, 이에 따른 고정기구의 개발도 필수적이라 할 수 있겠다. 개방형 head holder를 사용함으로써 피부선량과 선량 감약을 감소시킬 수 있었다. 이러한 치료보조기구를 자체 제작하여 고가의 외국상품을 대체할 수 있어 비용은 절감할 수 있었지만 견고성에서는 떨어지므로 가볍고 선량 감약이 적으며 강도가 강한 특수 재질의 치료보조기구가 개발되어야 할 것으로 사료된다.

  • PDF

다중센서 융합 상이 지도를 통한 다중센서 기반 3차원 복원 결과 개선 (Refinements of Multi-sensor based 3D Reconstruction using a Multi-sensor Fusion Disparity Map)

  • 김시종;안광호;성창훈;정명진
    • 로봇학회논문지
    • /
    • 제4권4호
    • /
    • pp.298-304
    • /
    • 2009
  • This paper describes an algorithm that improves 3D reconstruction result using a multi-sensor fusion disparity map. We can project LRF (Laser Range Finder) 3D points onto image pixel coordinatesusing extrinsic calibration matrixes of a camera-LRF (${\Phi}$, ${\Delta}$) and a camera calibration matrix (K). The LRF disparity map can be generated by interpolating projected LRF points. In the stereo reconstruction, we can compensate invalid points caused by repeated pattern and textureless region using the LRF disparity map. The result disparity map of compensation process is the multi-sensor fusion disparity map. We can refine the multi-sensor 3D reconstruction based on stereo vision and LRF using the multi-sensor fusion disparity map. The refinement algorithm of multi-sensor based 3D reconstruction is specified in four subsections dealing with virtual LRF stereo image generation, LRF disparity map generation, multi-sensor fusion disparity map generation, and 3D reconstruction process. It has been tested by synchronized stereo image pair and LRF 3D scan data.

  • PDF