• 제목/요약/키워드: 3D-face tracking

검색결과 48건 처리시간 0.024초

MLESAC 움직임 추정 기반의 파티클 필터를 이용한 3D 얼굴 추적 (3D Face Tracking using Particle Filter based on MLESAC Motion Estimation)

  • 성하천;변혜란
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권8호
    • /
    • pp.883-887
    • /
    • 2010
  • 3D 얼굴 추적(Face tracking)은 보안감시, HCI(Human-Computer Interface), 엔터테인먼트(Entertainment)등 컴퓨터 비전과 관련된 여러 분야의 핵심 기술로서 많은 연구가 진행되고 있다. 하지만, 광범위한 응용분야에도 불구하고 3D 얼굴 추적의 기본적인 높은 연산 비용으로 인하여 그 응용 분야가 모바일 단말기 등의 저 사양 플랫폼에는 많은 한계가 있어왔다. 본 논문에서는 이러한 3D얼굴 추적의 연산 비용을 효과적으로 해결하고 폭 넓게 응용 분야를 확대하기 위하여 MLESAC(Maximum Likelihood Estimation by Sampling Consensus)을 이용한 움직임 추정(Motion Estimation) 기법과 기존의 파티클 필터(Particle Filter)를 결합하여 실행 속도 면에서 빠르면서도 성능 면에서도 우수한 3D 얼굴 추적 알고리즘을 제안한다.

3D Facial Landmark Tracking and Facial Expression Recognition

  • Medioni, Gerard;Choi, Jongmoo;Labeau, Matthieu;Leksut, Jatuporn Toy;Meng, Lingchao
    • Journal of information and communication convergence engineering
    • /
    • 제11권3호
    • /
    • pp.207-215
    • /
    • 2013
  • In this paper, we address the challenging computer vision problem of obtaining a reliable facial expression analysis from a naturally interacting person. We propose a system that combines a 3D generic face model, 3D head tracking, and 2D tracker to track facial landmarks and recognize expressions. First, we extract facial landmarks from a neutral frontal face, and then we deform a 3D generic face to fit the input face. Next, we use our real-time 3D head tracking module to track a person's head in 3D and predict facial landmark positions in 2D using the projection from the updated 3D face model. Finally, we use tracked 2D landmarks to update the 3D landmarks. This integrated tracking loop enables efficient tracking of the non-rigid parts of a face in the presence of large 3D head motion. We conducted experiments for facial expression recognition using both framebased and sequence-based approaches. Our method provides a 75.9% recognition rate in 8 subjects with 7 key expressions. Our approach provides a considerable step forward toward new applications including human-computer interactions, behavioral science, robotics, and game applications.

3D FACE RECONSTRUCTION FROM ROTATIONAL MOTION

  • Sugaya, Yoshiko;Ando, Shingo;Suzuki, Akira;Koike, Hideki
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.714-718
    • /
    • 2009
  • 3D reconstruction of a human face from an image sequence remains an important problem in computer vision. We propose a method, based on a factorization algorithm, that reconstructs a 3D face model from short image sequences exhibiting rotational motion. Factorization algorithms can recover structure and motion simultaneously from one image sequence, but they usually require that all feature points be well tracked. Under rotational motion, however, feature tracking often fails due to occlusion and frame out of features. Additionally, the paucity of images may make feature tracking more difficult or decrease reconstruction accuracy. The proposed 3D reconstruction approach can handle short image sequences exhibiting rotational motion wherein feature points are likely to be missing. We implement the proposal as a reconstruction method; it employs image sequence division and a feature tracking method that uses Active Appearance Models to avoid the failure of feature tracking. Experiments conducted on an image sequence of a human face demonstrate the effectiveness of the proposed method.

  • PDF

지상파 DMB 단말에서의 3D 컨텐츠 최적 서비스를 위한 경계 정보 기반 실시간 얼굴 수평 위치 추적 방법에 관한 연구 (A Study on Real-time Tracking Method of Horizontal Face Position for Optimal 3D T-DMB Content Service)

  • 강성구;이상섭;이준호;김중규
    • 대한전자공학회논문지SP
    • /
    • 제48권6호
    • /
    • pp.88-95
    • /
    • 2011
  • 모바일 단말과 같은 임베디드 환경은 범용 컴퓨터에 비하여 연산 성능이 현저히 낮다. 따라서 기존 얼굴 및 추적 알고리즘은 모바일 환경에서 적용하기에는 복잡도가 높아 검출 시간이 오래 걸리기 때문에 모바일 단말에서의 실시간 적용에는 적합하지 않다. 모바일 단말에서 실시간 시선 추적은 사용자와 단말 간의 양방향 멀티미디어 서비스를 가능하게 함으로써 단방향 서비스에 비해 고품질의 서비스를 제공할 수 있게 된다. 따라서 모바일 환경에 최적화된 실시간 시선 추적 기법의 개발이 필요하다. 이에 본 논문에서는 지상파 3D DMB 컨텐츠의 품질 향상을 위하여 단말에서 사용자 얼굴의 수평 위치를 실시간으로 추적할 수 있는 기법을 제안한다. 본 논문에서 제안하는 방법은 에지의 방향성을 이용하여 얼굴의 좌/우 경계 지점을 추정하며 컬러 에지 정보에 의하여 얼굴의 수평 위치 및 크기를 최종적으로 판단한다. 소벨 연산 과정에서의 경사도 벡터를 수직 방향으로 크기 투영한 데이터에서 얼굴의 경계 후보 지점들이 선택되며 정확한 판단을 위하여 평활화 방법 및 탐색 방법을 제안하였다. 일반적인 얼굴 검출 알고리즘은 멀티스케일의 특징 벡터를 사용하기 때문에 모바일 환경에서는 검출 시간이 오래 걸리지만 본 알고리즘은 수평 위치 검출이라는 제약 조건 하에서의 단일 스케일에서의 검출 방법이므로 기존 얼굴 검출 방법에 비하여 빠른 검출이 가능하다.

SIFT 특징을 이용하여 중첩상황에 강인한 AAM 기반 얼굴 추적 (Robust AAM-based Face Tracking with Occlusion Using SIFT Features)

  • 엄성은;장준수
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.355-362
    • /
    • 2010
  • 얼굴추적은 3차원 공간상에서 머리(head)와 안면(face)의 움직임을 추정하는 기술로, 얼굴 표정 감정인식과 같은 상위 분석단계의 중요한 기반기술이다. 본 논문에서는 AAM 기반의 얼굴추적 알고리즘을 제안한다. AAM은 변형되는 대상을 분할하고 추적하는데 광범위하게 적용되고 있다. 그러나 여전히 여러 가지 해결해야할 제약사항들이 있다. 특히 자체중첩(self-occlusion)과 부분적인 중첩, 그리고 일시적으로 완전히 가려지는 완전중첩 상황에서 보통 국부해에 수렴(local convergence)하거나 발산하기 쉽다. 본 논문에서는 이러한 중첩상황에 대한 AAM의 강인성을 향상시키기 위해서 SIFT 특징을 이용하고 있다. SIFT는 일부 영상의 특징점으로 안정적인 추적이 가능하기 때문에 자체와 부분중첩에 효과적이며, 완전중첩의 상황에도 SIFT의 전역적인 매칭성능으로 별도의 재초기화 없이 연속적인 추적이 가능하다. 또한 추적과정에서 큰 자세변화에 따른 움직임을 효과적으로 추정하기 위해서 다시점(multi-view) 얼굴영상의 SIFT 특징을 온라인으로 등록하여 활용하고 있다. 제안한 알고리즘의 이러한 강인성은 위 세 가지 중첩상황에 대해서 기존 알고리즘들과의 비교실험을 통해서 보여준다.

실시간 3차원 얼굴 방향 식별 (Real Time Discrimination of 3 Dimensional Face Pose)

  • 김태우
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권1호
    • /
    • pp.47-52
    • /
    • 2010
  • 본 논문에서는 능동적 적외선 조명을 이용한 3차원 얼굴 방향 식별을 위한 새로운 방법을 제안하고자 한다. 적외선 조명 하에서 밝게 나타나는 동공을 효과적으로 실시간 검출하여 추적할 수 있는 알고리즘을 제안한다. 다른 방향의 얼굴들에서 동공의 기하학적 왜곡을 탐지하여, 3차원 얼굴 방향과 동공의 기하학적 특성 사이의 관계를 나타낸 학습 데이터를 사용하여 고유한 눈 특징 공간을 구축하였고, 입력된 질의 영상에 대한 3차원 얼굴 방향을 고유한 눈 특징 공간을 사용하여 실시간으로 얼굴 방향을 측정할 수 있었다. 실험결과 카메라에 근접한 실험 대상자들에 대하여 최소 94.67%, 최고 100% 의 식별 결과를 나타내었다.

  • PDF

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.

능동적 적외선 조명을 이용한 실시간 3차원 얼굴 방향 식별 (Real Time 3D Face Pose Discrimination Based On Active IR Illumination)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권3호
    • /
    • pp.727-732
    • /
    • 2004
  • 본 논문에서는 능동적 적외선 조명을 이용한 3차원 얼굴 방향 식별을 위한 새로운 방법을 제안하고자 한다. 적외선 조명 하에서 밝게 나타나는 동공을 효과적으로 실시간 검출하여 추적할 수 있는 알고리즘을 제안한다. 다른 방향의 얼굴들에서 동공의 기하학적 왜곡을 탐지하여, 3차원 얼굴 방향과 동공의 기하학적 특성 사이의 관계를 나타낸 학습 데이터를 사용하여 고유한 눈 특징 공간을 구축하였고, 입력된 질의 영상에 대한 3차원 얼굴 방향을 고유한 눈 특징 공간을 사용하여 실시간으로 얼굴 방향을 측정할 수 있었다. 실험결과 카메라에 근접한 실험 대상자들에 대하여 최소 94.67%, 최고 100%의 식별 결과를 나타내었다.

3D Feature Based Tracking using SVM

  • Kim, Se-Hoon;Choi, Seung-Joon;Kim, Sung-Jin;Won, Sang-Chul
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1458-1463
    • /
    • 2004
  • Tracking is one of the most important pre-required task for many application such as human-computer interaction through gesture and face recognition, motion analysis, visual servoing, augment reality, industrial assembly and robot obstacle avoidance. Recently, 3D information of object is required in realtime for many aforementioned applications. 3D tracking is difficult problem to solve because during the image formation process of the camera, explicit 3D information about objects in the scene is lost. Recently, many vision system use stereo camera especially for 3D tracking. The 3D feature based tracking(3DFBT) which is on of the 3D tracking system using stereo vision have many advantage compare to other tracking methods. If we assumed the correspondence problem which is one of the subproblem of 3DFBT is solved, the accuracy of tracking depends on the accuracy of camera calibration. However, The existing calibration method based on accurate camera model so that modelling error and weakness to lens distortion are embedded. Therefore, this thesis proposes 3D feature based tracking method using SVM which is used to solve reconstruction problem.

  • PDF

얼굴 깊이 추정을 이용한 3차원 얼굴 생성 및 추적 방법 (A 3D Face Reconstruction and Tracking Method using the Estimated Depth Information)

  • 주명호;강행봉
    • 정보처리학회논문지B
    • /
    • 제18B권1호
    • /
    • pp.21-28
    • /
    • 2011
  • 얼굴의 3차원 정보는 얼굴 인식이나 얼굴 합성, Human Computer Interaction (HCI) 등 다양한 분야에서 유용하게 이용될 수 있다. 그러나 일반적으로 3차원 정보는 3D 스캐너와 같은 고가의 장비를 이용하여 획득되기 때문에 얼굴의 3차원 정보를 얻기 위해서는 많은 비용이 요구된다. 본 논문에서는 일반적으로 손쉽게 얻을 수 있는 2차원의 얼굴 영상 시퀀스로부터 효과적으로 3차월 얼굴 형태를 추적하고 재구성하기 위한 3차원 Active Appearance Model (3D-AAM) 방법을 제안한다. 얼굴의 3차원 변화 정보를 추정하기 위해 학습 영상은 정면 얼굴 포즈로 다양한 얼굴 표정 변화를 포함한 영상과 표정 변화를 갖지 않으면서 서로 크게 다른 얼굴 포즈를 갖는 영상으로 구성한다. 입력 영상의 3차원 얼굴 변화를 추정하기 위해 먼저 서로 다른 포즈를 갖는 학습 영상으로부터 얼굴의 각 특징점(Land-mark)의 기하학적 변화를 이용하여 깊이 정보를 추정하고 추정된 특징점의 깊이 정보를 입력 영상의 2차원 얼굴 변화에 추가하여 최종적으로 입력 얼굴의 3차원 변화를 추정한다. 본 논문에서 제안된 방법은 얼굴의 다양한 표정 변화와 함께 3차원의 얼굴 포즈 변화를 포함한 실험 영상을 이용하여 기존의 AAM에 비해 효과적이면서 빠르게 입력 얼굴을 추적(Fitting)할 수 있으며 입력 영상의 정확한 3차원 얼굴 형태를 생성할 수 있음을 보였다.