• 제목/요약/키워드: Image Normalization

검색결과 245건 처리시간 0.033초

물리적 보정된 핵의학 영상 평가 : 정규화 보정 (Evaluation of Physical Correction in Nuclear Medicine Imaging : Normalization Correction)

  • 박찬록;윤석환;이홍재;김진의
    • 핵의학기술
    • /
    • 제21권1호
    • /
    • pp.29-33
    • /
    • 2017
  • QA 과정을 통해 30개의 정규화 보정값을 얻고, 1개의 기준 데이터 설정 후 29개의 정규화 보정값과 비교하였다. 또한 각 정규화 보정값을 PET raw data 에 적용시켜 재구성된 영상을 동일한 ROI를 그려 SUV 와 count 로 비교평가 하였다. 30개의 정규화 보정값은 차이가 발생하지 않았으며, 각각의 정규화 보정값을 적용시킨 PET 영상도 크게 차이가 없었다. 핵의학 영상은 정량분석을 위해 불감시간 보정 및 광자의 감쇠 및 산란 등 물리적 현상에 대한 보정이 필요하고, 정규화 보정 또한 무시할 수 없는 보정 과정이다. 따라서 이런 과정을 통해 PET 장비의 균일성이 유지되고 여러 디텍터의 효율도 균등해야 영상의 왜곡을 방지할 수 있고, 질 좋은 영상을 만드는데 꼭 필요한 과정이므로 매일 QA 과정이 필요하다고 사료된다.

  • PDF

비지도 학습 기반 영상 노이즈 제거 기술을 위한 정규화 기법의 최적화 (Optimized Normalization for Unsupervised Learning-based Image Denoising)

  • 이강근;정원기
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제27권5호
    • /
    • pp.45-54
    • /
    • 2021
  • 최근 노이즈 제거를 위한 심층 학습 모델에 대한 연구가 활발하게 진행되고 있다. 특히 블라인드 노이즈 제거 (blind denoising) 기술이 발전하면서 깨끗한 영상을 얻기가 불가능한 영상의 영역에서 노이즈 영상만으로 심층 학습 기반 노이즈 제거 모델의 학습이 가능해졌다. 우리는 관찰된 노이즈 영상으로부터 깨끗한 영상을 얻기 위해 더는 깨끗한 영상과 노이즈 영상의 짝을 이루는 데이터를 필요하지 않는다. 하지만 노이즈 영상과 깨끗한 영상 간의 차이가 큰 데이터라면 노이즈 영상만으로 학습된 노이즈 제거 모델은 우리가 원하는 품질의 깨끗한 영상을 복원하기 어려울 것이다. 이 문제를 해결하기 위해서 짝지어지지 않는 깨끗한 영상과 노이즈 영상으로 학습한 모델 기반 노이즈 제거 기술은 최근 연구되고 있다. 가장 최신 기술인 ISCL은 깨끗한 영상과 노이즈 영상의 쌍을 기반으로 한 지도학습 기반 모델의 성능과 거의 근접한 성능을 보여 주었다. 우리는 제안된 방법이 ISCL을 포함한 다른 최신 짝을 이루지 않는 영상 기반 노이즈 제거 기술보다 성능이 우수함을 보여준다.

조명변화에 강인한 눈 검출을 위한 조명 정규화 방법 (Illumination Normalization Method for Robust Eye Detection in Lighting Changing Environment)

  • 허성철;이흐테샴울이슬람;김인택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.955-956
    • /
    • 2008
  • This paper presents a new method for illumination normalization in eye detection. Based on the retinex image formation model, we employ the discrete wavelet transform to remove the lighting effect in face image data. The final result based on the proposed method shows the better performance in detecting eyes compared with previous work.

  • PDF

Line feature extraction in a noisy image

  • Lee, Joon-Woong;Oh, Hak-Seo;Kweon, In-So
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 Proceedings of the Korea Automatic Control Conference, 11th (KACC); Pohang, Korea; 24-26 Oct. 1996
    • /
    • pp.137-140
    • /
    • 1996
  • Finding line segments in an intensity image has been one of the most fundamental issues in computer vision. In complex scenes, it is hard to detect the locations of point features. Line features are more robust in providing greater positional accuracy. In this paper we present a robust "line features extraction" algorithm which extracts line feature in a single pass without using any assumptions and constraints. Our algorithm consists of five steps: (1) edge scanning, (2) edge normalization, (3) line-blob extraction, (4) line-feature computation, and (5) line linking. By using edge scanning, the computational complexity due to too many edge pixels is drastically reduced. Edge normalization improves the local quantization error induced from the gradient space partitioning and minimizes perturbations on edge orientation. We also analyze the effects of edge processing, and the least squares-based method and the principal axis-based method on the computation of line orientation. We show its efficiency with some real images.al images.

  • PDF

대용량 필기체 문자 인식을 위한 비선형 형태 정규화 방법의 정량적 평가 (Quantitative Evaluation of Nonlinear Shape Normalization Methods for the Recognition of Large-Set Handwrittern Characters)

  • 이성환;박정선
    • 전자공학회논문지B
    • /
    • 제30B권9호
    • /
    • pp.84-93
    • /
    • 1993
  • Recently, several nonlinear shape normalization methods have been proposed in order to compensate for the shape distortions in handwritten characters. In this paper, we review these nonlinear shape normalization methods from the two points of view : feature projection and feature density equalization. The former makes feature projection histogram by projecting a certain feature at each point of input image into horizontal-or vertical-axis and the latter equalizes the feature densities of input image by re-sampling the feature projection histogram. A systematic comparison of these methods has been made based on the following criteria: recognition rate, processing speed, computational complexity and measure of variation. Then, we present the result of quantitative evaluation of each method based on these criteria for a large variety of handwritten Hangul syllables.

  • PDF

지역적 $X^2$-히스토그램과 정규화를 이용한 새로운 샷 경계 검출 (New Shot Boundary Detection Using Local $X^2$-Histogram and Normalization)

  • 신성윤
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권2호
    • /
    • pp.103-109
    • /
    • 2007
  • 본 논문에서는 카메라와 객체의 모션에 보다 강건하고 보다 정확한 결과를 산출하여 충분한 공간 정보를 가지는 지역적 $X^2$-히스토그램 비교 방법을 이용하여 샷 경계를 검출한다. 또한 영상처리에서 영상의 명암 값 향상을 위하여 사용되는 로그함수와 상수를 변형하여 차이 값에 적용하는 정규화 방법을 제시한다. 그리고 샷 경계 검출 알고리즘을 제시하여 일반적인 샷과 갑작스런 샷의 특징을 기반으로 검출한다.

  • PDF

조명 정규화 및 하이브리드 분류기를 이용한 계량기 숫자 인식 (Meter Numeric Character Recognition Using Illumination Normalization and Hybrid Classifier)

  • 오한글;조성원;정선태
    • 한국지능시스템학회논문지
    • /
    • 제24권1호
    • /
    • pp.71-77
    • /
    • 2014
  • 본 논문에서는 저조도 및 음영이 생기는 조명 환경하에서 성능이 개선된 계량기 숫자 인식 방법을 제안한다. 저조도 및 음영 문제를 해결하기 위해 LN(Local Normalization) 처리 기법을 이용한 조명 정규화를 수행한 후, 계량기 숫자 영역 검출과 3단계 계량기 숫자 분할이 이루어진다. 마지막으로 분할된 숫자 데이터를 분류하기 위한 하이브리드 숫자 분류기가 적용된다. 제안된 하이브리드 숫자 분류기는 역전파 신경망과 템플레이트 매칭의 연속 결합으로 이루어지고, 계량기 숫자 분류에 보다 강인한 휴리스틱 규칙에 의해 최종적으로 숫자를 분류한다. 저조도 및 음영 조명 환경하의 다양한 계량기 종류에 대해 직접 촬영하여 자체 제작한 계량기 이미지 데이터베이스에 기반한 실험을 통해 본 논문에서 제안한 숫자 인식 방법을 평가하고, 제안된 계량기 숫자 인식 방법이 효과적으로 잘 동작함을 확인하였다.

색 정규화 및 안개량 보정을 이용한 개선된 안개 제거 알고리즘 (Improved Haze Removal Algorithm by using Color Normalization and Haze Rate Compensation)

  • 김종현;차형태
    • 방송공학회논문지
    • /
    • 제20권5호
    • /
    • pp.738-747
    • /
    • 2015
  • 안개 영상에서는 색상정보와 테두리 정보가 줄어들기 때문에 사물의 식별이 어렵다. 안개 제거의 대표적인 알고리즘인 Dark Channel Prior(DCP)은 색 정보를 이용하여 안개의 전달량을 추정한 후 안개를 제거한다. 하지만 석양 또는 황사와 같이 안개에 영향을 미치는 요소가 영상에 포함되어있는 경우 안개 제거 후 특정 채널의 색상이 두드러지게 나타나는 문제점이 있다. 또한, RGB 채널이 모두 높은 값을 갖고 있는 사물이 포함된 영상의 경우 해당영역의 전달량이 오추정되는 문제점이 발생한다. 본 논문에서는 안개 영상의 백색 영역을 중심으로 개선된 색 정규화 방식을 적용한 후, 거리 정보를 바탕으로 오추정된 안개 영역을 보정하여 안개를 제거하는 방법을 제안한다. 제안하는 알고리즘을 통해 위와 같은 문제점을 보완하고 기존의 DCP 알고리즘보다 효과적으로 안개를 제거 할 수 있다.

실시간 객체 검출을 위한 개선된 Haar-like Feature 정규화 방법 (An Improved Normalization Method for Haar-like Features for Real-time Object Detection)

  • 박기영;황선영
    • 한국통신학회논문지
    • /
    • 제36권8C호
    • /
    • pp.505-515
    • /
    • 2011
  • 본 논문에서는 객체 검출에 사용되는 Haar-like feature의 정규화 방법에 대해 다룬다. 기존의 Haar-like feature의 분산 정규화는 후보 윈도우 픽셀들에 대한 표준편차 계산에 사용되는 별도의 적분 영상 생성을 위해 많은 연산을 필요로 했으며 밝기 변화가 작은 영역에서 오검출이 증가하는 문제를 가지고 있으나, 제안하는 정규화 방법은 별도의 적분 영상을 사용하지 않아 처리 속도가 빠르며 제안하는 방법을 사용하여 학습시킨 분류기는 밝기 변화에 대해 강건한 성능을 보인다. 실험 결과 제안한 방법을 사용했을 때 객체 검출기의 처리 속도는 26% 향상 되었으며, 제안한 방법을 사용하여 학습시킨 분류기들은 5% 이상 향상된 검출률을 보였으며, 밝기 변화가 심한 경우는 45% 향상된 검출률을 보였다.

PET-CT Normalization, Well Counter Correction에 따른 팬텀을 이용한 영상 평가 (Evaluation of Image for Phantom according to Normalization, Well Counter Correction in PET-CT)

  • 이충운;유연욱;문종운;김윤철
    • 핵의학기술
    • /
    • 제27권1호
    • /
    • pp.47-54
    • /
    • 2023
  • Purpose PET-CT imaging require an appropriate quality assurance system to achieve high efficiency and reliability. Quality control is essential for improving the quality of care and patient safety. Currently, there are performance evaluation methods of UN2-1994 and UN2-2001 proposed by NEMA and IEC for PET-CT image evaluation. In this study, we compare phantom images with the same experiments before and after PET-CT 3D normalization and well counter correction and evaluate the usefulness of quality control. Materials and methods Discovery 690 (General Electric Healthcare, USA) PET-CT equiptment was used to perform 3D normalization and well counter correction as recommended by GE Healthcare. Based on the recovery coefficients for the six spheres of the NEMA IEC Body Phantom recommended by the EARL. 20kBq/㎖ of 18F was injected into the sphere of the phantom and 2kBq/㎖ of 18F was injected into the body of phantom. PET-CT scan was performed with a radioacitivity ratio of 10:1. Images were reconstructed by appliying TOF+PSF+TOF, OSEM+PSF, OSEM and Gaussian filter 4.0, 4.5, 5.0, 5.5, 6.0, 6,5 mm with matrix size 128×128, slice thickness 3.75 mm, iteration 2, subset 16 conditions. The PET image was attenuation corrected using the CT images and analyzed using software program AW 4.7 (General Electric Healthcare, USA). The ROI was set to fit 6 spheres in the CT image, RC (Recovery Coefficient) was measured after fusion of PET and CT. Statistical analysis was performed wilcoxon signed rank test using R. Results Overall, after the quality control items were performed, the recovery coefficient of the phantom image increased and measured. Recovery coefficient according to the image reconstruction increased in the order TOF+PSF, TOF, OSEM+PSF, before and after quality control, RCmax increased by OSEM 0.13, OSEM+PSF 0.16, TOF 0.16, TOF+PSF 0.15 and RCmean increased by OSEM 0.09, OSEM+PSF 0.09, TOF 0.106, TOF+PSF 0.10. Both groups showed a statistically significant difference in Wilcoxon signed rank test results (P value<0.001). Conclusion PET-CT system require quality assurance to achieve high efficiency and reliability. Standardized intervals and procedures should be followed for quality control. We hope that this study will be a good opportunity to think about the importance of quality control in PET-CT

  • PDF