• 제목/요약/키워드: Facial Capture

검색결과 58건 처리시간 0.025초

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

얼굴영역 및 얼굴요소 검출 알고리즘의 성능평가 방법 (Performance Evaluation Method for Detection Algorithms of Face Region and Facial Components)

  • 박광현;김대진;홍지만;정영숙;최병욱
    • 로봇학회논문지
    • /
    • 제4권3호
    • /
    • pp.192-200
    • /
    • 2009
  • In this paper, we report the progress in the development of performance evaluation method for detection algorithms of face region and facial components. This paper aims to provide a standardized evaluation method for general approach in face recognition application as a potential component in futuristic intelligent robot systems. From an image capture process to the retrieval of face-related information, all the necessary steps are shown with examples.

  • PDF

Sammon 매핑을 사용한 모션 데이터의 대화식 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using Sammon's Mapping)

  • 김성호
    • 정보처리학회논문지A
    • /
    • 제11A권2호
    • /
    • pp.189-194
    • /
    • 2004
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이틀 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 Sammon 매핑을 이용하여 2차원 평면에 투영시켰다. 얼굴 애니메이션은 사용자 인터페이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

극사실적 메타휴먼을 위한 3D 볼류메트릭 캡쳐 기반의 동적 페이스 제작 (3D Volumetric Capture-based Dynamic Face Production for Hyper-Realistic Metahuman)

  • 오문석;한규훈;서영호
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.751-761
    • /
    • 2022
  • 디지털 기술의 발전에 따라 메타버스가 콘텐츠 시장의 주요 트렌드로 자리하면서 고품질의 3D(dimension) 모델을 생성하는 기술에 대한 수요가 급증하고 있다. 이에 따라 디지털 휴먼으로 대표되는 고품질 3D 가상 인간의 제작과 관련된 다양한 기술적 시도가 이루어지고 있다. 3D 볼류메트릭 캡처는 기존의 3D 모델 생성 방식보다 빠르고 정밀한 3D 인체모형을 생성할 수 있는 기술로 각광 받고 있다. 본 연구에서는 볼류메트릭 3D 및 4D 모델 생성 분야에서 적용되는 기술들과 콘텐츠 제작의 애로사항에 대해 실제 사례를 바탕으로 3D 고정밀 페이셜 제작 기술의 분석을 시도한다. 그리고 실제 볼류메트릭 캡처를 통한 모델의 구현 사례를 바탕으로 3D 가상인간의 얼굴 제작에 대한 기술들을 고찰하고 효율적인 휴먼 페이셜 생성을 위한 그래픽스 파이프라인을 활용하여 새로운 메타휴먼을 제작하였다.

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

표정분석을 위한 얼굴 구성 요소 검출 (Detection of Face-element for Facial Analysis)

  • 이철희;문성룡
    • 전자공학회논문지CI
    • /
    • 제41권2호
    • /
    • pp.131-136
    • /
    • 2004
  • 미디어의 발달에 따라 다양한 정보가 미디어에 실리게 되는데 이중에서 표정은 흥미있는 정보중에 하나이다. 표정에는 인간 내면의 의중이 포함되어 있기 때문이다. 내면의 상태는 표정 뿐만 아니라 제스처로 나타나기도 하지만 중요도는 표정이 높다고 할 수 있다. 이 표정은 임의로 조작할 수도 있지만 대체로 내면의 의중을 포함한다. 또한 표정은 사람마다 독특한 개성을 가지고 있지만 대체로 일정 구분 가능한 공통점 또한 가지고 있다. 본 논문에서는 USB CCD 카메라 환경의 동영상에서 표정을 분석하기 위해서 얼굴의 구성 요소를 검출 하고자 한다. 얼굴 구성요소에는 사람마다의 공통적인 표정 변화에 따른 특징점이 분포하기 때문이다. 구성 요소 검출을 위해서 먼저 동영상에서 한 프레임을 캡처하여 얼굴의 위치를 파악하고 얼굴영역을 분리한 다음 특징 점을 검출하게 된다.

피로 검출을 위한 능동적 얼굴 추적 (Active Facial Tracking for Fatigue Detection)

  • 김태우;강용석
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권3호
    • /
    • pp.53-60
    • /
    • 2009
  • 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 운전자의 피로 상태를 검출하기 위한 얼굴 표정 인식을 위해 얼굴 특징을 추적하고자 하였다. 그러나 대다수의 얼굴 특징 추적 방법은 다양한 조명 조건과 얼굴 움직임, 회전등으로 얼굴의 특징점이 검출하지 못하는 경우가 발생한다. 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 제안된 방법은 우선, 능동적 적외선 감지기를 사용하여 다양한 조명 조건하에서 동공을 검출하고, 검출된 동공은 얼굴 움직임을 예측하는데 사용되어진다. 얼굴 움직임에 따라 특징이 국부적으로 부드럽게 변화한다고 할 때, 칼만 필터로 얼굴 특징을 추적할 수 있다. 제한된 동공 위치와 칼만 필터를 동시에 사용함으로 각각의 특징 지점을 정확하게 예상할 수 있었고, Gabor 공간에서 예측 지점에 인접한 지점을 특징으로 추적할 수 있다. 패턴은 검출된 특징에서 공간적 연관성에서 추출한 특징들로 구성된다. 실험을 통하여 다양한 조명과 얼굴 방향, 표정 하에서 제안된 능동적 방법의 얼굴 추적의 실효성을 입증하였다.

  • PDF

피로 검출을 위한 능동적 얼굴 추적 (Active Facial Tracking for Fatigue Detection)

  • 박호식;정연숙;손동주;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.603-607
    • /
    • 2004
  • 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 운전자의 피로 상태를 검출하기 위한 얼굴 표정 인식을 위해 얼굴 특징을 추적하고자 하였다. 그러나 대다수의 얼굴 특징 추적 방법은 다양한 조명 조건과 얼굴 움직임, 회전등으로 얼굴의 특징점이 검출하지 못하는 경우가 발생한다. 그러므로 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 제안된 방법은 우선, 능동적 적외선 감지기를 사용하여 다양한 조명 조건 하에서 동공을 검출하고, 검출된 동공은 얼굴 움직임을 예측하는데 사용되어진다. 얼굴 움직임에 따라 특징이 국부적으로 부드럽게 변화한다고 할 때, 칼만 필터로 얼굴 특징을 추적할 수 있다. 제한된 동공 위치와 칼만 필터를 동시에 사용함으로 각각의 특징 지점을 정확하게 예상 할 수 있었고, Gabor 공간에서 예측 지점에 인접한 지점을 특징으로 추적할 수 있다. 패턴은 검출된 특징에서 공간적 연관성에서 추출한 특징들로 구성된다. 실험을 통하여 다양한 조명과 얼굴 방향, 표정 하에서 제안된 능동적 방법의 얼굴 추적의 실효성을 입증하였다.

  • PDF

광각 및 협각 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System by Wide and Narrow View Camera)

  • 박강령
    • 한국통신학회논문지
    • /
    • 제28권12C호
    • /
    • pp.1239-1249
    • /
    • 2003
  • 시선 위치 추적이란 현재 사용자가 쳐다보고 있는 위치를 컴퓨터 시각 인식 방법을 이용하여 파악하는 연구이다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라를 이용하여 사용자의 얼굴 및 눈동자 움직임을 추적하였다. 그러나 이러한 경우, 광각 카메라 내에 포함된 눈동자 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하지 못하는 문제점이 있었다. 그러므로 이 논문에서는 얼굴 영상을 취득하기 위한 광각 카메라 및 눈 영역을 확대하여 취득하는 협각 카메라, 즉 2개의 카메라를 이용하여 시선 위치추적 시스템을 구현하였다. 또한, 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라에서 추출된 얼굴 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 실험자가 눈동자는 고정으로 하고 얼굴만 움직여서 쳐다보는 경우에 약 3.1cm, 흐리고 얼굴 및 눈동자를 같이 움직여서 쳐다보는 경우에 약 3.57cm의 최소 자승 에러성능을 나타냈다. 처리 속도도 Pentium-IV 1.8 GHz에서 약 30ms 이내의 처리 속도를 나타냈다.

ATM 보안 시스템을 위한 모델 인증 알고리즘 (Model Verification Algorithm for ATM Security System)

  • 정헌;임춘환;편석범
    • 대한전자공학회논문지TE
    • /
    • 제37권3호
    • /
    • pp.72-78
    • /
    • 2000
  • 본 연구에서는 ATM 보안 시스템을 위한 DCT와 신경망 기반 모델 인증 알고리즘을 제안한다. CCD 카메라를 이용하여 일정한 조도와 거리에서 30명의 얼굴영상을 획득한 후 데이터 베이스를 구성한다. 모델 인증 실험을 위해 동일인에 대해 학습영상 4장 그리고 실험 영상 4장을 각각 획득한다. 얼굴영상의 에지를 검출한 후 에지 분포에 의해 얼굴영상에서 사각형태로 특징영역을 검출한다. 특징영역에는 눈썹, 눈, 코, 입, 그리고 뺨이 포함된다. 특징영역에 대해 DCT를 수행한 후 대각방향의 계수 합을 구해 특징벡터를 추출한다. 특징벡터는 정규화되어 신경망의 입력 벡터가 된다. 패스워드를 고려하지 않는 경우, 데이터 베이스를 검색한 결과 학습된 얼굴영상에 대해서는 100%의 인증율을 나타내었고 학습되지 않는 얼굴영상의 경우에는92%의 인증률을 나타내었다. 그러나 패스워드를 고려한 경우 모두 100%의 인증율을 보였다.

  • PDF