• 제목/요약/키워드: Image Transformation

검색결과 1,071건 처리시간 0.023초

레이저 슬릿빔과 CCD 카메라를 이용한 3차원 영상인식 (3D image processing using laser slit beam and CCD camera)

  • 김동기;윤광의;강이석
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1997년도 한국자동제어학술회의논문집; 한국전력공사 서울연수원; 17-18 Oct. 1997
    • /
    • pp.40-43
    • /
    • 1997
  • This paper presents a 3D object recognition method for generation of 3D environmental map or obstacle recognition of mobile robots. An active light source projects a stripe pattern of light onto the object surface, while the camera observes the projected pattern from its offset point. The system consists of a laser unit and a camera on a pan/tilt device. The line segment in 2D camera image implies an object surface plane. The scaling, filtering, edge extraction, object extraction and line thinning are used for the enhancement of the light stripe image. We can get faithful depth informations of the object surface from the line segment interpretation. The performance of the proposed method has demonstrated in detail through the experiments for varies type objects. Experimental results show that the method has a good position accuracy, effectively eliminates optical noises in the image, greatly reduces memory requirement, and also greatly cut down the image processing time for the 3D object recognition compared to the conventional object recognition.

  • PDF

칼라 항상성에 기초한 칼라영상 향상 (Color Image Enhancement Based on Color Constancy)

  • 배성호;김정엽;권갑현;하영호
    • 전자공학회논문지B
    • /
    • 제30B권5호
    • /
    • pp.103-108
    • /
    • 1993
  • An image can be largely corrupted by the ambient illuminant, so that the image enhancement to restory natural color without respect to the ambient illuminant is needed. It this paper, a new color image enhancement technique based on color constancy is proposed. To enhance the image quality, higher volues of contrast and saturation are preferred, but their excessive values make an image unnatural. Since the color constancy processing preserves only hue, while reducing the dynamic range of lightness and saturation,the technique is needed in order to compensate this phenomenon. The proposed method transforms and increases lightness and saturation simultaneously to avoid the complexity in the related transformation by analyzing the relationship between the RGB and modified IHS coordinate system.

  • PDF

깊이 정보를 이용한 원근 왜곡 영상의 보정 (Correction of Perspective Distortion Image Using Depth Information)

  • 권순각;이동석
    • 한국멀티미디어학회논문지
    • /
    • 제18권2호
    • /
    • pp.106-112
    • /
    • 2015
  • In this paper, we propose a method for correction of perspective distortion on a taken image. An image taken by a camera is caused perspective distortion depending on the direction of the camera when objects are projected onto the image. The proposed method in this paper is to obtain the normal vector of the plane through the depth information using a depth camera and calculate the direction of the camera based on this normal vector. Then the method corrects the perspective distortion to the view taken from the front side by performing a rotation transformation on the image according to the direction of the camera. Through the proposed method, it is possible to increase the processing speed than the conventional method such as correction of perspective distortion based on color information.

SIFT 와 SURF 알고리즘의 성능적 비교 분석 (Comparative Analysis of the Performance of SIFT and SURF)

  • 이용환;박제호;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제12권3호
    • /
    • pp.59-64
    • /
    • 2013
  • Accurate and robust image registration is important task in many applications such as image retrieval and computer vision. To perform the image registration, essential required steps are needed in the process: feature detection, extraction, matching, and reconstruction of image. In the process of these function, feature extraction not only plays a key role, but also have a big effect on its performance. There are two representative algorithms for extracting image features, which are scale invariant feature transform (SIFT) and speeded up robust feature (SURF). In this paper, we present and evaluate two methods, focusing on comparative analysis of the performance. Experiments for accurate and robust feature detection are shown on various environments such like scale changes, rotation and affine transformation. Experimental trials revealed that SURF algorithm exhibited a significant result in both extracting feature points and matching time, compared to SIFT method.

영상처리기법을 이용한 무인전투기 와류 궤적 계측에 관한 연구 (A Study on the measurement for Vortex trajectory over an UCAV using image processing methods)

  • 고지훈
    • 한국항공우주학회지
    • /
    • 제36권6호
    • /
    • pp.594-599
    • /
    • 2008
  • 현재 국방과학연구소 수동 시험에서 생성된 영상데이터는 수작업에 의해 분석되어지고 있다. 이러한 방법은 관측자에 따라 정확성과 분석소요시간이 상이할 수 있다 . 본 논문에서는 개선된 영상데이터 처리와 분석을 위해 MATLAB을 기반으로 한 알고리즘을 제안하였다. 이 알고리즘은 왜곡 보정 , 그레이 레벨 변환, 노이즈 제거, 이진화를 하는 영상 전처리 과정, 와류 궤적을 계측하는 영상 분석 과정으로 구성되어 있다 . 수동 시험에서 획득된 영상데이터를 이용하여 테스트 한 결과 제안된 알고리즘은 기존 영상데이터 분석 방법에 비해 정확성과 실행속도가 향상되었다.

Panoramic Image Stitching using SURF

  • You, Meng;Lim, Jong-Seok;Kim, Wook-Hyun
    • 융합신호처리학회논문지
    • /
    • 제12권1호
    • /
    • pp.26-32
    • /
    • 2011
  • This paper proposes a new method to process panoramic image stitching using SURF(Speeded Up Robust Features). Panoramic image stitching is considered a problem of the correspondence matching. In computer vision, it is difficult to find corresponding points in variable environment where a scale, rotation, view point and illumination are changed. However, SURF algorithm have been widely used to solve the problem of the correspondence matching because it is faster than SIFT(Scale Invariant Feature Transform). In this work, we also describe an efficient approach to decreasing computation time through the homography estimation using RANSAC(random sample consensus). RANSAC is a robust estimation procedure that uses a minimal set of randomly sampled correspondences to estimate image transformation parameters. Experimental results show that our method is robust to rotation, zoom, Gaussian noise and illumination change of the input images and computation time is greatly reduced.

다중 클래스 이미지 표정 분류 (Multiclass image expression classification)

  • 오명호;민송하;김종민
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.701-703
    • /
    • 2022
  • 본 논문에서는 지도 학습에 기반을 둔 다중 클래스 이미지 장면 분류 방법을 제시한다. 데이터 세트에서 콘볼루션 뉴런 네트워크 모델에 학습시켜 다중 클래스 사람의 표정 장면 이미지를 분류하였으며, 실험에서는 최적화된 CNN 모델을 Google image 데이터 세트에 분류하여 유의미한 결과를 얻을 수 있었다.

  • PDF

항공 하이퍼스펙트럴 영상의 PCA기법 적용을 통한 토지 피복 분류 정확도 개선 방안에 관한 연구 (A Study on the Improvement classification accuracy of Land Cover using the Aerial hyperspectral image with PCA)

  • 최병길;나영우;김승현;이정일
    • 대한공간정보학회지
    • /
    • 제22권1호
    • /
    • pp.81-88
    • /
    • 2014
  • 본 연구에서는 항공 하이퍼스펙트럴 영상에 대해 PCA를 적용하여 토지 이용 및 피복 분류 판독의 가독성을 향상시키기 위하여 고유성분이 높은 밴드를 선별적으로 조합하여 5개 유형의 PCA영상을 제작하였다. 유형별 영상은 SAM감독 분류 기법을 적용하여 영상분류를 시행하고 정확도를 평가한 결과 PCA변환 시 고유성분 포함율은 PCA변환 영상의 첫 번째 밴드에 해당하는 영상이 76.74%의 성분을 포함하며, PCA변환 영상의 두 번째 누적 밴드에 해당하는 영상이 98.40%로 대부분의 성분자료가 두 번째 영상까지에 담긴 것을 알 수 있었다. 유형별 영상의 정량적 분류정확도 평가는 전체정확도, 생산자 및 사용자 정확도를 분석한 결과 유사한 패턴을 가지며, 특이한 사항은 정성적인 분류정확도 평가는 PCA변환 영상의 네 번째 밴드이상이 포함되어야 정확도가 확보되는 것으로 판단되나 정량적인 분류 정확도 평가에서는 PCA변환 영상의 두 번째 밴드까지를 포함하는 영상이 가장 높은 정확도를 나타내는 것을 알 수 있었다.

Housdorff Distance 와 Hough Transform을 적용한 얼굴인식시스템의 분석 (An Analysis on Face Recognition system of Housdorff Distance and Hough Transform)

  • 조민환
    • 한국컴퓨터산업학회논문지
    • /
    • 제8권3호
    • /
    • pp.155-166
    • /
    • 2007
  • 본 연구에서는 얼굴 영상을 캡쳐하여 전 처리한 후 얼굴영역을 분리하고, 분리된 얼굴 영역에서 미분 연산자와 최소 형태를 세선화하여 특징을 추출하였다. Hough Transform은 $r-\theta$ 평면에서 직선의 기울기와 절편으로 변환되며, 반면 Housdorff distance는 세선화된 영상에서 선분을 추출하여 길이, 회전, 천이 특징을 추출하였다. 사람마다 다른 특징들을 추출하여 Housdorff distance과 Hough Transform에 관하여 비교분석 결과 Hough변환의 복잡도가 더 적은 것으로 판단되었다. 인식율은 Housdorff Distance를 이용한 인식율이 Hough Transformation에 비해 조금 높게 나타났다.

  • PDF

A NOTE ON OPTIMAL RECONSTRUCTION OF MAGNETIC RESONANCE IMAGES FROM NON-UNIFORM SAMPLES IN k-SPACE

  • Lee, June-Yub
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제14권1호
    • /
    • pp.35-42
    • /
    • 2010
  • A goal of Magnetic Resonance Imaging is reproducing a spatial map of the effective spin density from the measured Fourier coefficients of a specimen. The imaging procedure can be done by inverse Fourier transformation or backward fast Fourier transformation if the data are sampled on a regular grid in frequency space; however, it is still a challenging question how to reconstruct an image from a finite set of Fourier data on irregular points in k-space. In this paper, we describe some mathematical and numerical properties of imaging techniques from non-uniform MR data using the pseudo-inverse or the diagonal-inverse weight matrix. This note is written as an easy guide to readers interested in the non-uniform MRI techniques and it basically follows the ideas given in the paper by Greengard-Lee-Inati [10, 11].