• 제목/요약/키워드: 영상 특징점

Search Result 1,280, Processing Time 0.027 seconds

3D Object Recognition Using Appearance Model of Feature Point (특징점 Appearance Model을 이용한 3차원 물체 인식)

  • Joo, Seong-Moon;Park, Jae-Wan;Lee, Chil-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1536-1539
    • /
    • 2013
  • 3차원 물체는 카메라의 시선 방향에 따라 다른 영상을 생성하므로 2차원 영상만으로 3차원 물체를 인식하는 것은 쉬운 일이 아니다. 특히 영상생성 시 강한 perspective transformation 이 발생할 경우 2차원 국소 특징을 이용하는 SIFT(Scale-Invariant Feature Transform) 알고리즘은 매칭에 활용하기 어렵다. 본 논문에서는 3차원 물체를 하나의 특정 축 중심으로 회전시키면서 얻은 복수의 영상을 학습 데이터로 활용하여 SIFT 알고리즘을 개선한 물체인식 방법을 제안한다. 이 방법은 복수 영상의 특징점들을 하나의 특징 공간으로 합성하고 그 특징점들 간의 기하학적인 제약조건을 확인하여 3차원 물체를 인식하는 방법이다. 실험에서는 알고리즘의 유용성을 먼저 확인하기 위해 조명조건과 카메라의 위치를 일정하게 유지하였다. 이 방법에 의해 SIFT 알고리즘만으로 인식이 힘들었던 3차원 물체의 다양한 외관(appearance) 인식이 가능하게 되었다.

3D Object tracking with reduced jittering (떨림 현상이 완화된 3차원 객체 추적)

  • Kang, Minseok;Park, Jungsik;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2015.11a
    • /
    • pp.185-188
    • /
    • 2015
  • 미리 저장된 객체의 3차원 특징점(Feature point) 좌표와 카메라 영상의 2차원 특징점 좌표를 매칭(Matching)하여 객체를 추적하는 방식의 경우, 카메라의 시점이 변할 때 특징점에서 발생되는 원근 효과(Perspective effect)가 반영되지 못하여 특징점 매칭 오류가 발생한다. 따라서 특징점에서 발생하는 원근 효과를 반영하여 정확한 카메라 포즈를 추정하기 위해 이전 프레임(Frame)의 카메라 포즈(Camera Pose)에 맞추어 텍스쳐가 포함 된 3차원 객체의 모델을 렌더링 하여 원근 효과를 적용한 후, 현재 카메라 영상과 특징점 매칭하여 프레임 사이의 카메라 움직임을 구하여 객체를 추적한다. 더 나아가 본 논문에서는 특징점 매칭에서 발생하는 작은 오류들로 인한 미세한 카메라 움직임은 2단계의 임계치(Threshold)를 적용하여 떨림 현상으로 간주하여 떨림 현상이 제거된 객체 추적을 수행한다. 매 프레임마다 카메라 포즈에 맞춘 추적 객체를 렌더링 하기 때문에 떨림 현상으로 간주되어 제거된 카메라 움직임은 누적되지 않고, 추적 오류도 발생시키지 않는다.

  • PDF

3D FEATURE POINT ESTIMATION BASED ON A SINGLE MOBILE DEVICE (단일 모바일 디바이스를 이용한 3차원 특징점 추출 방법)

  • Kim, Jin-Kyum;Seo, Young-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • fall
    • /
    • pp.124-125
    • /
    • 2021
  • 최근 증강현실(AR), 가상현실(VR), 혼합현실(XR) 분야가 각광받고 있으며, 3차원 공간과 사물을 인식하여 다양한 콘텐츠 서비스를 제공하는 기술이 개발되고 있다[1]. 3차원 공간과 사물을 인식하기 위해 가장 널리 사용되는 방법은 RGB 카메라를 이용하는 것이다[2]. RGB 카메라를 이용하여 촬영한 영상을 분석한 후 분석된 결과를 이용하여 카메라와 환경의 관계를 추정한다. 시차는 사용자가 촬영한 복수의 이미지에서 특징점의 차이를 이용하여 계산된다. 실험적으로 구한 깊이에 대해 계산된 디스패리티에 시차 정보와 스케일링 정보를 더하여 3차원 특징점을 생성한다. 제안하는 알고리즘은 단일 모바일 디바이스에서 획득한 영상을 사용한다. 특징점 매칭을 기반으로한 디스패리티 추정과 시차조정 3D 특징점 생성이다. 실제 깊이 값과 비교했을 때, 생성된 3차원 특징점은 실측값의 10% 이내의 오차가 있음을 실험적으로 증명하였다. 따라서 제안하는 방법을 이용하여 유효한 3차원 특징점을 생성할 수 있다.

  • PDF

Video Similarity Generating Algorithm Improving the Speed of Various Multi-Angle Image Composition (다각도 영상 합성의 속도 향상을 위한 영상유사도 생성 알고리즘)

  • Kim, Jun-sik;Jeong, Gwangil;Hwang, Yongwan;Park, Pilkyu;Park, Seonghwan;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.340-343
    • /
    • 2016
  • 현재 사용 되어지고 있는 대부분의 영상 합성 알고리즘들은 영상의 크기가 클수록 계산량이 많아지는 특징이 있다. 따라서 UHD 영상을 대상으로 영상 합성을 할 때 속도가 기존의 HD 영상에 비해 크게 느리다는 점과 특수 카메라 사용 혹은 카메라 위치 고정 등의 제한이 필요하다는 점의 단점들이 있다. 이에 본 논문에서는 스마트폰에서 콘텐츠를 촬영한 영상들을 이용하여 영상 분류, Map 생성, Rendering 의 과정을 통해 현재 사용 되어지고 있는 영상 합성 알고리즘과 비교하여 보다 빠르게 영상 합성을 할 수 있는 알고리즘을 제안한다. 촬영 시 EXIF 에 저장되는 GPS 정보를 이용하여 그룹화를 진행한 후 영상의 특징점 매칭을 통해 Map 을 생성하는 것이 본 논문에서 제안하는 알고리즘이다. 이를 위해 본 논문에서는 FAST 특징점 알고리즘과 FREAK 기술자 알고리즘을 사용하였으며 Rendering 을 통하여 해당 알고리즘을 검증 하였다.

  • PDF

Automated Tracking of Blood Vessel in ICG Retinal Image By Presumption of Feature Points (ICG 망막영상에서 특징점 추정에 의한 혈관의 자동추적)

  • Lim, Moon-Cheol;Cho, Goon-Jung;Kim, Woo-Saeng
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.04a
    • /
    • pp.902-906
    • /
    • 2000
  • 망막 혈관 구조의 분석은 망막에 관련된 환자의 진단 및 치료에 중요한 정보를 제공하기 때문에 다양한 연구가 진행되어 왔다. 본 연구에서는 ICG(IndoCyanine Green) 기술을 이용한 망막 영상의 혈관 구조를 분석하기 위해 원의 방정식으로 묘사된 혈관 영역 에너지 함수와 분기점 추정 템플릿을 사용하여 혈관의 특징점들을 추정한 후 혈관의 형체(body)를 자동으로 추적하는 동시에 분기점을 추출하는 방법을 제안한다. 전체 혈관의 자동추적과 분기점 추출을 가능하게 하는 특징점 추정 방법과 혈관 형체의 자동추적 알고리즘 및 분기점 추출 방법을 ICG 망막 영상에 적용하여 실험한 결과 만족할 만한 성능을 보였다.

  • PDF

Disparity estimation based on edge fiducial points and adaptive window (경계선의 특정 기준점과 적응적 윈도우를 기반으로 한 변위 추정)

  • 노윤향;고병철;변혜란;유지상
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.559-561
    • /
    • 2001
  • 본 논문에서는 스테레오 영상으로부터 변위를 추정할 수 있는 다양한 방법들 중 특정 기반 방식과 영역 기반 방식의 각각의 장점들을 살리고 단점들을 보완하기 위한 방법은 제안한다. 영상의 경계선을 이루는 특징점들은 전체 영상의 5% 내외의 소수로 추출되면서도 많은 양의 영상 정보를 가지고 있으므로, 이 점들에 대해 일정한 매칭 과정을 통해 대응점을 구하고, 이 중 90% 이상의 정확성 매칭 확률을 가진 대응점들을 영상으로 기준점으로 설정한다. 그리고 이러한 기준점 이외의 점들에 대해서는 추출된 기준점들의 순서에 맞추어 Ordering Constraint를 적용시키고 기준점에 따라 블록의 크기가 달라지는 영역 기반 방식을 적용하여 조밀한 변위를 추정하였다. 이렇게 함으로써 영역 기반 방식과 특징 기반 방식의 각각의 장점들을 이용하면서도 특정기반 방식의 문제점인 보간법 문제를 해결하였고, 또한 블록의 크기 따라 계산 시간과 정합 오차가 많이 좌우되는 영역 기반 방식의 단점들을 해결하였다. 또한 기준점을 이용하여 Ordering constraint 기반하에 영역 정보를 이용하므로 좀 더 올바른 순서 조건에 맞추어 대응점을 찾을 수 있고 또한 폐쇄 영역 부분도 쉽게 찾을 수 있었다.

  • PDF

Image Mosaicing using Voronoi Distance Matching (보로노이 거리(Voronoi Distance)정합을 이용한 영상 모자익)

  • 이칠우;정민영;배기태;이동휘
    • Journal of Korea Multimedia Society
    • /
    • v.6 no.7
    • /
    • pp.1178-1188
    • /
    • 2003
  • In this paper, we describe image mosaicing techniques for constructing a large high-resolution image with images taken by a video camera in hand. we propose the method which is automatically retrieving the exact matching area using color information and shape information. The proposed method extracts first candidate areas which have similar form using a Voronoi Distance Matching Method which is rapidly estimating the correspondent points between adjacent images, and calculating initial transformations of them and finds the final matching area using color information. It is a method that creates Voronoi Surface which set the distance value among feature points and other points on the basis of each feature point of a image, and extracts the correspondent points which minimize Voronoi Distance in matching area between an input image and a basic image using the binary search method. Using the Levenberg-Marquadt method we turn an initial transformation matrix to an optimal transformation matrix, and using this matrix combine a basic image with a input image.

  • PDF

Comparison of Match Candidate Pair Constitution Methods for UAV Images Without Orientation Parameters (표정요소 없는 다중 UAV영상의 대응점 추출 후보군 구성방법 비교)

  • Jung, Jongwon;Kim, Taejung;Kim, Jaein;Rhee, Sooahm
    • Korean Journal of Remote Sensing
    • /
    • v.32 no.6
    • /
    • pp.647-656
    • /
    • 2016
  • Growth of UAV technology leads to expansion of UAV image applications. Many UAV image-based applications use a method called incremental bundle adjustment. However, incremental bundle adjustment produces large computation overhead because it attempts feature matching from all image pairs. For efficient feature matching process we have to confine matching only for overlapping pairs using exterior orientation parameters. When exterior orientation parameters are not available, we cannot determine overlapping pairs. We need another methods for feature matching candidate constitution. In this paper we compare matching candidate constitution methods without exterior orientation parameters, including partial feature matching, Bag-of-keypoints, image intensity method. We use the overlapping pair determination method based on exterior orientation parameter as reference. Experiment results showed the partial feature matching method in the one with best efficiency.

Fuzzy Stereo Matching Algorithm (퍼지 스테레오 정합 알고리듬)

  • 전효병;심귀보
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.443-445
    • /
    • 1998
  • 스트레오 영상 처리에 있어서 가장 중요한 단계는 좌우 영상간의 일치점을 찾는 영상 정합 단계라고 할 수 있다. 일반적인 영상 정합 방법으로는 영역 기반에 의한 방법과 특징점에 기반한 방법으로 나누어질 수 있다. 영역 기반의 방법은 많은 계산량을 필요로 하는 단점이 있으며, 특징점에 기반한 방법은 처리 속도는 향상시킬 수 있으나 전체적인 변이도를 구할 수 없는 단점이 있다. 한편 이미지 데이터 자체의 애매함이나 잡음, 처리 과정에서 발생하는 모호성, 인식과 해석 단계에서의 불확실한 지식등을 효과적으로 다루기 위해 퍼지 기법을 이용한 영상 처리 연구가 활발히 진행되고 있다. 본 논문에서는 각 픽셀의 밝기를 소속함수 값으로 변환한 후, 이 소속함수 값을 이용하여 좌우 영상의 일치점을 찾는 퍼지 스테레오 정합 알고리듬을 제안한다. 제안된 알고리듬은 몇 가지 스테레오 영상에 적용하여 그 유효성을 입증한다.

  • PDF

The study of the Image Geometric Transforms for Moving Object Detection (움직이는 물체검출을 위한 영상 좌표계 변환에 관한 연구)

  • Kim Yong-Jin;Lee Yill-Byung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.322-324
    • /
    • 2006
  • 배경이 움직이는 카메라에서 영상을 획득하여 특징점을 추출하고 특징점을 이용해 영상 좌표계 변환 파라미터를 추정한다. 추정된 파라미터를 이용하여 영상내의 움직이는 물체를 검출하기 위해 카메라의 Ego-motion을 보정하는 영상 좌표계 변환 방법을 소개하고, Ego-motion 보정을 통해 연속된 두 영상에서 움직이는 물체를 검출하는 실험을 수행한 내용의 논문이다.

  • PDF