• Title/Summary/Keyword: 스케일 불변 특징 변환

Search Result 3, Processing Time 0.017 seconds

View invariant image matching using SURF (SURF(speed up robust feature)를 이용한 시점변화에 강인한 영상 매칭)

  • Son, Jong-In;Kang, Minsung;Sohn, Kwanghoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.222-225
    • /
    • 2011
  • 영상 매칭은 컴퓨터 비전에서 중요한 기초 기술 중에 하나이다. 하지만 스케일, 회전, 조명, 시점변화에 강인한 대응점을 찾는 것은 쉬운 작업이 아니다. 이러한 문제점을 보안하기 위해서 스케일 불변 특징 변환(Scale Invariant Feature Transform) 고속의 강인한 특징 추출(Speeded up robust features) 알고리즘등에 제안되었지만, 시점 변화에 있어서 취약한 문제점을 나타냈다. 본 논문에서는 이런 문제점을 해결하기 위해서 시점 변화에 강인한 알고리즘을 제안하였다. 시점 변화에 강인한 영상매칭을 위해서 원본 영상과 질의 영상간 유사도 높은 특징점들의 호모그래피 변환을 이용해서 질의 영상을 원본 영상과 유사하게 보정한 뒤에 매칭을 통해서 시점 변화에 강인한 알고리즘을 구현하였다. 시점이 변화된 여러 영상을 통해서 기존 SIFT,SURF와 성능과 수행 시간을 비교 함으로서, 본 논문에서 제안한 알고리즘의 우수성을 입증 하였다.

  • PDF

GAN-based Image-to-image Translation using Multi-scale Images (다중 스케일 영상을 이용한 GAN 기반 영상 간 변환 기법)

  • Chung, Soyoung;Chung, Min Gyo
    • The Journal of the Convergence on Culture Technology
    • /
    • v.6 no.4
    • /
    • pp.767-776
    • /
    • 2020
  • GcGAN is a deep learning model to translate styles between images under geometric consistency constraint. However, GcGAN has a disadvantage that it does not properly maintain detailed content of an image, since it preserves the content of the image through limited geometric transformation such as rotation or flip. Therefore, in this study, we propose a new image-to-image translation method, MSGcGAN(Multi-Scale GcGAN), which improves this disadvantage. MSGcGAN, an extended model of GcGAN, performs style translation between images in a direction to reduce semantic distortion of images and maintain detailed content by learning multi-scale images simultaneously and extracting scale-invariant features. The experimental results showed that MSGcGAN was better than GcGAN in both quantitative and qualitative aspects, and it translated the style more naturally while maintaining the overall content of the image.

A Study on Fisheye Lens based Features on the Ceiling for Self-Localization (실내 환경에서 자기위치 인식을 위한 어안렌즈 기반의 천장의 특징점 모델 연구)

  • Choi, Chul-Hee;Choi, Byung-Jae
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.21 no.4
    • /
    • pp.442-448
    • /
    • 2011
  • There are many research results about a self-localization technique of mobile robot. In this paper we present a self-localization technique based on the features of ceiling vision using a fisheye lens. The features obtained by SIFT(Scale Invariant Feature Transform) can be used to be matched between the previous image and the current image and then its optimal function is derived. The fisheye lens causes some distortion on its images naturally. So it must be calibrated by some algorithm. We here propose some methods for calibration of distorted images and design of a geometric fitness model. The proposed method is applied to laboratory and aile environment. We show its feasibility at some indoor environment.