• Title/Summary/Keyword: 특징점 추적

Search Result 340, Processing Time 0.032 seconds

Head Orientation-based Gaze Tracking (얼굴의 움직임을 이용한 응시점 추적)

  • ;R.S. Ramakrishna
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10b
    • /
    • pp.401-403
    • /
    • 1999
  • 본 논문에서 우리는 제약이 없는 배경화면에서 얼굴의 움직임을 이용한 응시점 추적을 위해 얼굴의 특징점(눈, 코, 그리고 입)들을 찾고 head orientation을 구하는 효?거이고 빠른 방법을 제안한다. 얼굴을 찾는 방법이 많이 연구 되어 오고 있으나 많은 부분이 효과적이지 못하거나 제한적인 사항을 필요로 한다. 본 논문에서 제안한 방법은 이진화된 이미지에 기초하고 완전 그래프 매칭을 이용한 유사성을 구하는 방법이다. 즉, 임의의 임계치 값에 의해 이진화된 이미지를 레이블링 한 후 각 쌍의 블록에 대한 유사성을 구한다. 이때 두 눈과 가장 유사성을 갖는 두 블록을 눈으로 선택한다. 눈을 찾은 후 입과 코를 찾아간다. 360$\times$240 이미지의 평균 처리 속도는 0.2초 이내이고 다음 탐색영역을 예상하여 탐색 영역을 줄일 경우 평균 처리속도는 0.15초 이내였다. 그리고 본 논문에서는 얼굴의 움직임을 구하기 위해 각 특징점들이 이루는 각을 기준으로 한 템플릿 매칭을 이용했다. 실험은 다양한 조명환경과 여러 사용자를 대상으로 이루어졌고 속도와 정확성면에서 좋은 결과를 보였다. 도한, 명안정보만을 사용하므로 흑백가메라에서도 사용가능하여 경제적 효과도 기대할 수 있다.

  • PDF

Real-time eye feature tracking using iris model (홍채 모델을 이용한 눈 특징점 실시간 추적)

  • Kim, Do-Hyoung;Chung, Myung-Jin
    • Proceedings of the KIEE Conference
    • /
    • 2000.07d
    • /
    • pp.2717-2719
    • /
    • 2000
  • 사용자의 의도를 파악하는 여러 가지 행동양식 중에서 우리가 관심을 두고 있는 시스템은 사람의 눈 움직임 검출을 이용한 시스템이다. 사람의 눈 움직임에 대한 검출과 추적이 가능하다면 그 적용 분야는 매우 광범위하다. 예를 들면, 일반인들의 컴퓨터 조작을 더 편리하게 할 수도 있고 손을 사용할 수 없는 장애인들의 의사소통이나 정보교환의 한 방법으로 사용될 수 있다. 또한 사람들이 대부분의 정보를 시각적인 면으로 획득한다는 것을 감안할 때 원격 작업의 모니터링과 같은 여러 산업부분이나 군사부분과 같은 분야에 적용될 수 있다. 본 논문에서는 눈의 특징점들을 검출하고 추적하기 위해서 홍채 모델을 설정하고 그 모델이 카메라를 통해 받아들여지는 입력 영상과 일치시키는 과정으로, 카메라의 입력 영상에서 3가지의 기본 영상을 추출하고 모델의 매칭 정도를 판단할 수 있는 매칭 함수를 규정하고 그 함수들을 통하여 홍채 모델을 일치시키는 알고리즘을 제안하고 그 타당성을 보이고자 한다.

  • PDF

Volume Rendering Using Special Point of Volume Data (체적 데이터의 특징점을 이용한 효율적인 볼륨 랜더링)

  • Kim, Hyeong-Gyun;Kim, Yong-Ho
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • v.9 no.2
    • /
    • pp.666-669
    • /
    • 2005
  • 본 논문에서는 3차원 형태로 체적 데이터를 효율적으로 랜더링 하기 위해서, 체적 데이터의 특징점을 추출하고 이를 이용하여 3차원 형태로 복원한다. 여기서, 3D Point(Vertext)를 이용하여 체적 데이터를 랜더링하고자 하여 체적소들에 대해 특정한 3D Points 추출하는 PEF 과정과 랜더링 과정을 담당하는 정점 변환 파이프라인 과정을 제안한다. 일반적으로, 고화질의 광선 추적 랜더링 처리의 경우 계샨량이 많아 그 만큼 랜더링 속도가 떨어져 체적에 대한 다른 ?A너링 기법들이 많이 제안되고 있지만, 본 논문은 다른 각도로의 접근하고자 하여, 기존의 광선 추적에 비해 저화질과 매끄럽지 않는 영상을 나타내지만, 추출된 데이터만 고려하기 때문에 계샨량을 많이 줄일 수 있어 처리속도가 개선되어 졌을 볼 수가 있다. 또한, 본 논문에서 기존의 광선 추적 기법에서 표현하는 회전, 절단, 축소/확대의 기능을 그대로 OpenGL을 이용하여 본 논문에서 제안한 처리 단계로 하여 3차원 랜더링 프로그램 제작 하였다.

  • PDF

Automatic Fingerpring Identification System using Direct Ridge Extraction (직접 융선 추출을 이용한 자동 지문 인식 시스템)

  • 배인구;조병호;김증섭;배재형;유기영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.553-555
    • /
    • 2000
  • 기존의 특징점 추출 알고리즘들은 입력 지문의 전처리, 이미지의 이진화, 세선화, 특징점 추출 등의 여러 처리 단계를 거쳐 이루어지므로 잡음등과 같은 외부적 요인과 여러 처리단계엣 발생하는 내부적 요인 등으로 왜곡 현상을 피하기 어렵고 전체 인증 시간이 길어 지는 등 성능 저해 요인이 많다. 본 논문에서는 복잡한 처리 과정을 거치지 않고 입려영상에서 집적 융선의 흐름을 추적하여 특징점들을 추출하고 매칭을 수행함으로써 이미지의 왜곡에서 오는 오류를 줄이고 처리 시간을 단축하여 기존의 시스템보다 빠른 시간에 지문을 인식하는 시스템을 설계 및 구현한다.

  • PDF

Feature-Based Panoramic Background Generation for Object Tracking in Dynamic Video (가변시점 비디오 객체추적을 위한 특징점 기반 파노라마 배경 생성)

  • Im, Jae-Hyun;Paik, Joon-Ki
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.45 no.6
    • /
    • pp.108-116
    • /
    • 2008
  • In this paper, we propose the algorithm for making panoramic background and object tacking using pan-tilt-zoom camera. We draw an analogy relation between images for cylinder projection, rearrange of images, stitching, and blending. We can then make the panoramic background, and can track the object use the panoramic background. After generated the background, the proposed algorithm tracks the moving object. Therefore it can detect the wide area, and it tracks the object continuously. So the proposed algorithm is able to use at wide area to detect and track the object.

ROI Based Object Extraction Using Features of Depth and Color Images (깊이와 칼라 영상의 특징을 사용한 ROI 기반 객체 추출)

  • Ryu, Ga-Ae;Jang, Ho-Wook;Kim, Yoo-Sung;Yoo, Kwan-Hee
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.8
    • /
    • pp.395-403
    • /
    • 2016
  • Recently, Image processing has been used in many areas. In the image processing techniques that a lot of research is tracking of moving object in real time. There are a number of popular methods for tracking an object such as HOG(Histogram of Oriented Gradients) to track pedestrians, and Codebook to subtract background. However, object extraction has difficulty because that a moving object has dynamic background in the image, and occurs severe lighting changes. In this paper, we propose a method of object extraction using depth image and color image features based on ROI(Region of Interest). First of all, we look for the feature points using the color image after setting the ROI a range to find the location of object in depth image. And we are extracting an object by creating a new contour using the convex hull point of object and the feature points. Finally, we compare the proposed method with the existing methods to find out how accurate extracting the object is.

Design and Implementation of Feature Detector for Object Tracking (객체 추적을 위한 특징점 검출기의 설계 및 구현)

  • Lee, Du-hyeon;Kim, Hyeon;Cho, Jae-chan;Jung, Yun-ho
    • Journal of IKEEE
    • /
    • v.23 no.1
    • /
    • pp.207-213
    • /
    • 2019
  • In this paper, we propose a low-complexity feature detection algorithm for object tracking and present hardware architecture design and implementation results for real-time processing. The existing Shi-Tomasi algorithm shows good performance in object tracking applications, but has a high computational complexity. Therefore, we propose an efficient feature detection algorithm, which can reduce the operational complexity with the similar performance to Shi-Tomasi algorithm, and present its real-time implementation results. The proposed feature detector was implemented with 1,307 logic slices, 5 DSP 48s and 86.91Kbits memory with FPGA. In addition, it can support the real-time processing of 54fps at an operating frequency of 114MHz for $1920{\times}1080FHD$ images.

Human Body Tracking And Transmission System Suitable for Mobile Devices (모바일 기기에 적합한 인체 추적 및 전송 시스템)

  • Kwak, Nae-Joung;Song, Teuk-Sob
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.437-439
    • /
    • 2011
  • 본 논문에서는 카메라에서 입력되는 영상에서 객체의 특징 자동 추출하고 모바일 기기로 전송하여 인체의 움직임을 표현하는 시스템을 제안한다. 제안시스템은 연속된 입력영상에서 인체의 실루엣과 조인트를 자동추출하고 조인트를 추적함으로 객체를 추적한다. 추출된 특징은 객체의 각 연결점의 위치정보로 사용되며 특징을 중심으로 블록매칭 알고리즘을 적용하여 특징의 위치정보를 추적하고 모바일기기로 정보를 전송한다. 모바일 기기에서는 전송된 조인트 정보를 이용하여 인체의 움직임을 재현한다. 제안방법을 실험 동영상에 적용한 결과 인체의 실루엣과 조인트를 자동 검출하며 추출된 조인트로 인체의 매핑이 효율적으로 이루어졌다. 또한 조인트의 추적이 매핑된 인체에 반영되어 인체의 움직임도 적절히 표현되었다.

Gaze Detection by Computing Facial and Eye Movement (얼굴 및 눈동자 움직임에 의한 시선 위치 추적)

  • 박강령
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.41 no.2
    • /
    • pp.79-88
    • /
    • 2004
  • Gaze detection is to locate the position on a monitor screen where a user is looking by computer vision. Gaze detection systems have numerous fields of application. They are applicable to the man-machine interface for helping the handicapped to use computers and the view control in three dimensional simulation programs. In our work, we implement it with a computer vision system setting a IR-LED based single camera. To detect the gaze position, we locate facial features, which is effectively performed with IR-LED based camera and SVM(Support Vector Machine). When a user gazes at a position of monitor, we can compute the 3D positions of those features based on 3D rotation and translation estimation and affine transform. Finally, the gaze position by the facial movements is computed from the normal vector of the plane determined by those computed 3D positions of features. In addition, we use a trained neural network to detect the gaze position by eye's movement. As experimental results, we can obtain the facial and eye gaze position on a monitor and the gaze position accuracy between the computed positions and the real ones is about 4.8 cm of RMS error.