• Title/Summary/Keyword: 얼굴 움직임 추적

Search Result 53, Processing Time 0.028 seconds

Real-Time Face Detection and Tracking Using PCA (주성분분석을 통한 실시간 얼굴 검출 및 추적)

  • Park, Sang-Yong;Lee, Chang-Woo;Lee, Yun-Chul;Kim, Hang-Jun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04a
    • /
    • pp.717-720
    • /
    • 2002
  • 본 논문은 주성분분석(Principal Component Analysis, PCA)을 통하여 실시간 얼굴 검출 및 추적 방법을 제안한다. 제안된 방법은 얼굴 영역 검출과 추적의 두 단계로 구성되어 있다. 검출 단계에서는 피부색깔 모델과 움직임 정보를 이용하여 얼굴 후보 영역들을 검출하고, 검출된 후보 영역들을 주성분 분석을 통하여 검증한다. 추적 단계에서는 검출된 얼굴들 중에서 현재 추적 중인 얼굴과 가장 유사한 얼굴을 찾아 전체 영상의 중심에 위치하도록 pan/tilt 위에 놓여진 카메라를 제어하여 추적한다. 제안된 방법은 잡음이 많은 배경 상황에서도 존은 실험 결과를 보여준다.

  • PDF

Real-Time Face Tracking System Of Object Segmentation Tracking Method Applied To Motion and Color Information (움직임과 색상정보에서 객체 분할 추적 기법을 적용한 실시간 얼굴 추적 시스템)

  • Choi, Young-Kwan;Cho, Sung-Min;Choi, Chul;Hwang, Hoon;Park, Chang-Choon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11a
    • /
    • pp.669-672
    • /
    • 2002
  • 최근 멀티미디어 기술의 급속한 발달로 인해 개인의 신원 확인, 보안 시스템 등의 영역에서 얼굴과 관련된 연구가 활발히 진행 되고 있다. 기존의 연구에서는 원거리 추적이 어려우며, 연산시간, 잡음(noise), 배경과 조명등에 따라 추적 효율이 낮은 단점을 가지고 있다. 본 논문에서는 빠르고 정확한 얼굴 추적을 위한 차 영상 기법(differential image method)을 이용한 분할영역(segmentation region)에서 움직임(motion)과 피부색(skin color) 특성 기반의 객체분할추적(Tracking Of Object segmentation) 방법을 이용하였다. 객체분할추적은 얼굴을 하나의 객체(object)로 인식하고 제안한 방법으로 얼굴 부분만 분할하는 단계와 얼굴특징추출 단계를 적용하여 피부색 기반의 연구에서 나타난 입력영상(Current Frame)에서의 유동적인 피부색의 노출 대한 얼굴 추적 연구의 문제점을 해결했다. 시스템은 현재 컴퓨터에 일반적으로 사용되는 카메라를 이용하여 구현 하였고, 실시간(real-time) 영상에서 비교적 성공적인 얼굴 추적을 하였다[4].

  • PDF

Face and Hand Tracking using MAWUPC algorithm in Complex background (복잡한 배경에서 MAWUPC 알고리즘을 이용한 얼굴과 손의 추적)

  • Lee, Sang-Hwan;An, Sang-Cheol;Kim, Hyeong-Gon;Kim, Jae-Hui
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.39 no.2
    • /
    • pp.39-49
    • /
    • 2002
  • This paper proposes the MAWUPC (Motion Adaptive Weighted Unmatched Pixel Count) algorithm to track multiple objects of similar color The MAWUPC algorithm has the new method that combines color and motion effectively. We apply the MAWUPC algorithm to face and hand tracking against complex background in an image sequence captured by using single camera. The MAWUPC algorithm is an improvement of previously proposed AWUPC (Adaptive weighted Unmatched Pixel Count) algorithm based on the concept of the Moving Color that combines effectively color and motion information. The proposed algorithm incorporates a color transform for enhancing a specific color, the UPC(Unmatched Pixel Count) operation for detecting motion, and the discrete Kalman filter for reflecting motion. The proposed algorithm has advantages in reducing the bad effect of occlusion among target objects and, at the same time, in rejecting static background objects that have a similar color to tracking objects's color. This paper shows the efficiency of the proposed MAWUPC algorithm by face and hands tracking experiments for several image sequences that have complex backgrounds, face-hand occlusion, and hands crossing.

A Study on High Speed Face Tracking using the GPGPU-based Depth Information (GPGPU 기반의 깊이 정보를 이용한 고속 얼굴 추적에 대한 연구)

  • Kim, Woo-Youl;Seo, Young-Ho;Kim, Dong-Wook
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.17 no.5
    • /
    • pp.1119-1128
    • /
    • 2013
  • In this paper, we propose an algorithm to detect and track the human face with a GPU-based high speed. Basically the detection algorithm uses the existing Adaboost algorithm but the search area is dramatically reduced by detecting movement and skin color region. Differently from detection process, tracking algorithm uses only depth information. Basically it uses a template matching method such that it searches a matched block to the template. Also, In order to fast track the face, it was computed in parallel using GPU about the template matching. Experimental results show that the GPU speed when compared with the CPU has been increased to up to 49 times.

Interface Implementation using Facial Feature Tracking (얼굴 특징 추적을 이용한 인터페이스 구현)

  • Shin Yun-Hee;Kang Sin-Kuk;Kim Eun-Yi
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.274-276
    • /
    • 2006
  • 본 논문은 얼굴 특징 추적을 이용한 새로운 인터페이스를 제안한다. 눈의 움직임만으로 구현된 기존의 시스템은 마우스 클릭 이벤트에 걸리는 waiting time으로 인해 속도 개선이 필요했다. 이를 위해서 본 논문에서는 눈의 움직임 뿐 아니라 입의 움직임도 인식하여 사용자의 요구를 처리할 수 있는 시스템을 개발한다. 제안된 시스템은 얼굴 검출 모듈, 눈 검출 모들, 입 검출 모듈, 얼굴 특징 추적 모듈, 마우스 제어모듈의 5 가지 모듈로 구성되어 있다. 먼저, 피부색 모델과 연결 성분 분석을 이용하여 얼굴을 검출하고 신경망 기반의 분류기와 에지 검출기를 이용하여 검출된 얼굴 영역에서 눈과 입을 찾는다. 이후 프레임에서는 mean-shift 알고리즘과 템플릿 매칭을 이용하여 눈과 입이 정확하게 추적되어 눈의 움직임으로 마우스의 포인트를 움직이고 입의 움직임으로 메뉴나 아이콘을 클릭하게 된다. 제안된 시스템의 효율성을 검증하기 위해서 웹 브라우저의 인터페이스로 활용하였다. 25명의 사용자에 대해 실험한 결과는 제안된 시스템이 보다 편리하고 친숙한 인터페이스로 활용될 수 있다는 것을 보여주었다.

  • PDF

Object Tracking System for Additional Service Providing under Interactive Broadcasting Environment (대화형 방송 환경에서 부가서비스 제공을 위한 객체 추적 시스템)

  • Ahn, Jun-Han;Byun, Hye-Ran
    • Journal of KIISE:Information Networking
    • /
    • v.29 no.1
    • /
    • pp.97-107
    • /
    • 2002
  • In general, under interactive broadcasting environment, user finds additional service using top-down menu. However, user can't know that additional service provides information until retrieval has finished and top-down menu requires multi-level retrieval. This paper proposes the new method for additional service providing not using top-down menu but using object selection. For the purpose of this method, the movie of a MPEG should be synchronized with the object information(position, size, shape) and object tracking technique is required. Synchronization technique uses the Directshow provided by the Microsoft. Object tracking techniques use a motion-based tracking and a model-based tracking together. We divide object into two parts. One is face and the other is substance. Face tracking uses model-based tracking and Substance uses motion-based tracking base on the block matching algorithm. To improve precise tracking, motion-based tracking apply the temporal prediction search algorithm and model-based tracking apply the face model which merge ellipse model and color model.

Emotion Recognition of User using 2D Face Image in the Mobile Robot (이동로봇에서의 2D얼굴 영상을 이용한 사용자의 감정인식)

  • Lee, Dong-Hun;Seo, Sang-Uk;Go, Gwang-Eun;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.131-134
    • /
    • 2006
  • 본 논문에서는 가정용 로봇 및 서비스 로봇과 같은 이동로봇에서 사용자의 감정을 인식하는 방법중 한가지인 얼굴영상을 이용한 감정인식 방법을 제안한다. 얼굴영상인식을 위하여 얼굴의 여러 가지 특징(눈썹, 눈, 코, 입)의 움직임 및 위치를 이용하며, 이동로봇에서 움직이는 사용자를 인식하기 위한 움직임 추적 알고리즘을 구현하고, 획득된 사용자의 영상에서 얼굴영역 검출 알고리즘을 사용하여 얼굴 영역을 제외한 손과 배경 영상의 피부색은 제거한다. 검출된 얼굴영역의 거리에 따른 영상 확대 및 축소, 얼굴 각도에 따른 영상 회전변환 등의 정규화 작업을 거친 후 이동 로봇에서는 항상 고정된 크기의 얼굴 영상을 획득 할 수 있도록 한다. 또한 기존의 특징점 추출이나 히스토그램을 이용한 감정인식 방법을 혼합하여 인간의 감성 인식 시스템을 모방한 로봇에서의 감정인식을 수행한다. 본 논문에서는 이러한 다중 특징점 추출 방식을 통하여 이동로봇에서의 얼굴 영상을 이용한 사용자의 감정인식 시스템을 제안한다.

  • PDF

Implementation of an Effective Human Head Tracking System Using the Ellipse Modeling and Color Information (타원 모델링과 칼라정보를 이용한 효율적인 머리 추적 시스템 구현)

  • Park, Dong-Sun;Yoon, Sook
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.38 no.6
    • /
    • pp.684-691
    • /
    • 2001
  • In this paper, we design and implement a system which recognizes and tracks a human head on a sequence of images. In this paper, the color of the skin and ellipse modeling is used as feature vectors to recognize the human head. And the modified time-varying edge detection method and the vertical projection method is used to acquire regions of the motion from images with very complex backgrounds. To select the head from the acquired candidate regions, the process for thresholding on the basis of the I-component of YIQ color information and mapping with ellipse modeling is used. The designed system shows an excellent performance in the cases of the rotated heads, occluded heads, and tilted heads as well as in the case of the normal up-right heads. And in this paper, the combinational technique of motion-based tracking and recognition-based tracking is used to track the human head exactly even though the human head moves fast.

  • PDF

Eye Tracking and synthesize for MPEG-4 Coding (MPEG-4 코딩을 위한 눈 추적과 애니메이션)

  • Park, Dong-Hee;Bae, Cheol-Soo;Na, Sang-Dong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04a
    • /
    • pp.741-744
    • /
    • 2002
  • 본 논문에서는 3D 모델의 눈 변형을 계산하기 위해 검출된 눈 형태를 이용한 눈 움직임 합성 방법을 제안하였다. 얼굴 특징들의 정확한 위치 측정과 추적은 MPEG-4 코딩 시스템을 기반으로 한 고품질 모델 개발에 중요하다. 매우 낮은 비트율의 영상회의 응용에서 시간의 경과에 따라 눈과 입술의 움직임을 정확히 추적하기 위해 얼굴 특징들의 정확한 위치 측정과 추적이 필요하다. 이들의 움직임은 코딩되어지고 원격지로 전송되어 질 수 있다. 애니메이션 기술은 얼굴 모델에서 움직임을 합성하는데 이용되어진다. 본 논문에서는 얼굴 특징 검출과 추적 알고리즘으로 잘 알려지고, 효과적으로 향상시킬 수 있는 휴리스틱 방법을 제안하겠다. 본 논문에서는 눈 움직임의 검출뿐만 아니라 추적, 모델링에도 초점을 두었다.

  • PDF

3D Facial Synthesis and Animation for Facial Motion Estimation (얼굴의 움직임 추적에 따른 3차원 얼굴 합성 및 애니메이션)

  • Park, Do-Young;Shim, Youn-Sook;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.6
    • /
    • pp.618-631
    • /
    • 2000
  • In this paper, we suggest the method of 3D facial synthesis using the motion of 2D facial images. We use the optical flow-based method for estimation of motion. We extract parameterized motion vectors using optical flow between two adjacent image sequences in order to estimate the facial features and the facial motion in 2D image sequences. Then, we combine parameters of the parameterized motion vectors and estimate facial motion information. We use the parameterized vector model according to the facial features. Our motion vector models are eye area, lip-eyebrow area, and face area. Combining 2D facial motion information with 3D facial model action unit, we synthesize the 3D facial model.

  • PDF