• 제목/요약/키워드: 3차원 얼굴

검색결과 283건 처리시간 0.026초

3차원 얼굴 복원을 위한 구조 광 영상에서의 2차원 메쉬 추출 (Extracting 2D-Mesh from Structured Light Image for Reconstructing 3D Faces)

  • 이득용;오일석
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2007년도 추계 종합학술대회 논문집
    • /
    • pp.248-251
    • /
    • 2007
  • 본 논문은 3차원 얼굴 영상을 복원하기 위해 구조 광(structured light) 영상에서 2차원 메쉬를 추정하는 방법을 제안한다. 프로젝터를 사용하여 얼굴에 구조 광을 투영하고 카메라로 찍어 구조 광 영상을 획득한다. 획득한 영상에서 투영된 격자점을 추출한다. 격자점들의 위치와 각도를 사용하여 2차원 메쉬를 추출한다. 추출 과정에서 발생한 오류를 편집하고 정확한 2차원 메쉬를 추출한다.

  • PDF

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

퍼지적분을 이용한 웨이블릿 기반의 3차원 얼굴 인식 (Wavelet based Fuzzy Integral System for 3D Face Recognition)

  • 이영학;심재창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권10호
    • /
    • pp.616-626
    • /
    • 2008
  • 깊이 값에 따른 얼굴의 형상은 사람의 특징을 나타내는 중요한 요소 중의 하나로서 각 사람마다 다른 모양을 가지고 있으며, 얼굴 영상으로부터 분리한 주파수 성분은 동일한 얼굴에 대하여 또 다른 중요한 하나의 얼굴 특징으로 볼 수 있다. 본 논문은 3차원 얼굴 영상으로부터 등고선 값에 의해 추출된 영역에 대하여 각 영역별로 주파수 분리를 하여 특징을 추출한 후 이 주파수에 대한 퍼지적분을 적용한 얼굴 인식 알고리즘을 제안한다. 먼저 객체와 배경을 분리하여 얼굴을 추출한 후 얼굴에서 가장 두드러진 형태인 코끝을 찾고, 회전에 대해 정규화를 실시한다. 얼굴의 등고선 영역은 코끝을 기준으로 깊이 값에 따라 영역이 추출되며 사람마다 서로 다른 형상 특징을 가진다. 등고선에 따라 획득된 3차원 얼굴 영상으로부터 이산 웨이블릿 변환을 이용하여 4가지의 주파수 성분을 추출하여 특징정보로 사용한다. 각각의 웨이블릿 주파수 성분을 추출한 등고선 영역에 대해 차원의 감소를 위하여 고유얼굴 추출과 특징 공간상에서 클래스간의 분리를 최대화시키기 위해 선형판별분석 알고리즘을 이용하여 유사도를 비교하였다. 클래스간의 분별 정보를 등고선 영역과 각 영역의 주파수 영역에 대해 퍼지적분 방법을 사용하여 인식률을 향상 시켰으며, 깊이 혼합 방식의 경우는 98.6%의 인식률을 나타내었다. 제안된 방법이 다른 알고리즘보다 인식률이 향상되었다.

얼굴의 3차원 위치 및 움직임 추정에 의한 시선 위치 추적 (Facial Gaze Detection by Estimating Three Dimensional Positional Movements)

  • 박강령;김재희
    • 대한전자공학회논문지SP
    • /
    • 제39권3호
    • /
    • pp.23-35
    • /
    • 2002
  • 시선 위치 추적이란 모니터상에 사용자가 쳐다보고 있는 지점을 파악해 내는 기술이다 이 논문에서는 컴퓨터 비젼 방법을 이용하여 사용자가 모니터 상에 어느 지점을 쳐다보고 있는지를 파악(시선 위치 추적)하는 새로운 방법을 제안한다. 시선위치를 파악하기 위해 본 논문에서는 얼굴 영역 및 얼굴 특징점(양 눈, 양 콧구멍, 입술 끝점 등)을 2차원 카메라 영상으로부터 추출하였으며, 이들의 움직임으로부터 카메라 보정 및 매개변수 추정 방법등을 이용하여 초기 3차원 위치를 추정해 내었다. 이후 모니터 상의 한 지점을 쳐다보기 위해 사용자가 얼굴을 움직이는 경우 이러한 얼굴의 3차원 움직임 량 역시 자동으로 추정하였다. 이로부터 변화된 얼굴 특징점의 3차원 위치를 계산해 낼 수 있었으며, 이를 바탕으로 모니터 상의 시선 위치를 구하였다. 실험 결과, 19인치 모니터상의 임의의 지점을 사용자가 쳐다보았을 때, 약 2.01인치의 시선 위치에러 성능을 얻었다.

정서의 이차원 구조에서 유아의 얼굴표정 해석 (Children's Interpretation of Facial Expression onto Two-Dimension Structure of Emotion)

  • 신영숙;정현숙
    • 인지과학
    • /
    • 제18권1호
    • /
    • pp.57-68
    • /
    • 2007
  • 본 논문은 정서의 이차원 구조상에서 얼굴표정으로부터 아동의 정서이해에 대한 범주를 알아보고자 한다. 3세에서 5세 89명의 아동들을 대상으로 14개의 정서 단어와 관계된 얼굴표정들을 선택하도록 하였다. 실험에 적용된 얼굴표정들은 54명의 대학생들로부터 9점 척도상에서 두차원(쾌-불쾌차원과 각성-수면차원) 각각에서 표정의 강도가 평정된 사진들이 사용되었다. 실험결과에서 아동들은 쾌-불쾌 차원보다는 각성-수면 차원에서 더 큰 안정성을 보였다. 이차원 구조상에서 슬픔, 졸림, 화남, 놀람과 같은 정서들은 두 차원에서 매우 잘 변별된 반면, 두려움, 지겨움과 같은 정서들은 쾌-불쾌 차원에서 불안정성을 보였다. 특히 3세 아동들은 각성-수면정도에 대한 지각이 쾌-불쾌에 대한 지각보다 높게 나타났다.

  • PDF

등고선 영역의 투영 벡터를 이용한 3차원 얼굴 인식 (3D Face Recognition using Projection Vectors for the Area in Contour Lines)

  • 이영학;심재창;이태홍
    • 한국멀티미디어학회논문지
    • /
    • 제6권2호
    • /
    • pp.230-239
    • /
    • 2003
  • 본 논문은 3차원 얼굴 영상으로부터 등고선 영역을 추출하여 얼굴의 지역적 특징이 잘 반영되는 투영 벡터를 이용한 얼굴 인식 알고리즘을 제안한다. 얼굴의 외곽 형상은 사람에 따라 비슷한 모양을 나타내므로 구분하는데 어려움이 많다. 그러나 3차원 얼굴 영상은 깊이 정보를 갖고 있으므로, 코로부터 일정 깊이 값에 대한 영역을 추출하면 사람마다 다른 형상이 추출 될 수 있다. 얼굴 내에서 가장 높은 코를 먼저 추출한 후, 이를 기준으로 깊이 값을 취하면, 코를 포함한 얼굴 내의 등고선 영역을 추출하였다. 이 영역 또한 비슷한 형상을 나타낼 수 있으므로, 논문에서는 영상을 투영한 후 투영 벡터의 국부화를 통하여 영상의 지역적 특성이 잘 반영되는 통계적 성질의 투영 벡터 방법을 사용하여 특징 벡터를 추출하였다. 제안된 방법을 이용한 유사도 비교는 입력과 데이터 베이스에 대하여 각각 두개의 깊이 데이터에 대해 유클리드 거리를 사용하였으며, 실험 결과 5위 이내의 인식률이 94.3%로 나타났다.

  • PDF

실사 영상을 사용한 3차원 아바타 얼굴 텍스쳐 생성 (Generating Face Textures for 3D Avatars from Photos)

  • 김동희;윤종현;박종승
    • 한국게임학회 논문지
    • /
    • 제8권1호
    • /
    • pp.49-58
    • /
    • 2008
  • 본 논문에서는 실사 영상을 사용하여 3차원 아바타의 얼굴 텍스쳐를 생성하는 기법을 제시한다. 먼저 UVW 맵을 기준으로 실사영상에서의 해당 영역을 수동으로 지정한다. 그 다음 지정된 영상 영역들을 사용하여 UVW 맵에 해당하는 텍스쳐 영상을 생성한다. 제안된 텍스쳐 생성 기법은 포토샵 등을 사용한 기존의 방법에 비해서 수작업 시간을 단축할 수 있으며 실사 영상의 사실감을 높여준다. 기존의 텍스쳐 생성 절차들은 3차원 모델의 메쉬 구조에 영향을 주었으나, 제안된 방법은 3차원 모델의 메쉬 구조를 수정하지 않고도 원하는 형태의 텍스쳐를 생성할 수 있는 장점이 있다. 실제 사람의 모습을 여러 각도에서 촬영하여 얻은 영상을 사용하여 주어진 UVW 맵에 적합한 얼굴 텍스쳐를 생성하였다. 생성된 텍스쳐를 사용하여 3차원 아바타를 렌더링한 결과 아바타 얼굴의 사실감이 증가되었음을 알 수 있었다.

  • PDF

가버 텐서를 이용한 얼굴인식 성능 개선 (Efficiency Improvement on Face Recognition using Gabor Tensor)

  • 박경준;고형화
    • 한국통신학회논문지
    • /
    • 제35권9C호
    • /
    • pp.748-755
    • /
    • 2010
  • 본 논문은 가버 텐서(Gabor tensor)를 이용한 얼굴인식 시스템을 제안하였다. 가버 변환은 얼굴 고유의 특징을 잘 나타내주며 외부적인 영향을 줄일 수 있어 인식률 향상에 기여한다. 이러한 특징을 이용한 3차원의 텐서를 구성하여 얼굴인식을 수행하는 방법을 제안한다. 3차원의 가버 텐서를 입력으로 하여 기존의 1차원이나 2차원 주성분 분석법(PCA)보다 다양한 특징을 이용할 수 있는 다중선형 주성분 분석법(Multilinear PCA)를 수행한 다음 선형 판별법(LDA)을 수행하는 얼굴인식 방법을 제안하였다. 이러한 방법들은 표정이나 조명등의 변화에 강인한 특성을 가진다. 제안한 방법은 매트랩(Matlab)을 이용하여 실험하였다. ORL과 Yale 데이터베이스를 이용한 실험 결과를 기존의 방법들과 비교하였을 경우 제안한 방법이 기본적인 1차원 주성분 분석법보다 최대 9~27% 향상된 우수한 인식성능을 나타냄을 확인할 수 있었다.

얼굴인증 방법들의 조명변화에 대한 견인성 비교 연구 (Study On The Robustness Of Face Authentication Methods Under illumination Changes)

  • 고대영;김진영;나승유
    • 정보처리학회논문지B
    • /
    • 제12B권1호
    • /
    • pp.9-16
    • /
    • 2005
  • 본 논문은 얼굴인증 시스템 구현과 조명변화에 견인한 얼굴인증 방법들에 관한 연구에 초점을 둔다. 얼굴인증 시스템 구현을 위한 방법으로 PCA(Principal Component Analysis), GMM(Gaussian Mixture Models), 1차원 HMM(1 Dimensional Hidden Markov Models), 준 2차원 HMM(Pseudo 2 Dimensional Hidden Markov Models) 방법을 이용한다. 네 가지 다른 얼굴인증 방법들의 조명변화에 대한 성능비교 실험을 수행한다. 조명변화실험을 위해 얼굴이미지의 왼쪽에서 오른쪽으로 인공적인 조명효과(${\delta}=0,40,60,80$)를 준다. 얼굴특징벡터는 얼굴이미지에서 분할한 각 블록에 대한 2D DCT(2 Dimensional Discrete Cosine Transform) 계수를 이용하고 실험은 ORL(Olivetti Research Laboratory) 얼굴데이터베이스를 사용한다. 실험결과 모든 경우 조명변화 값이 커질수록 성능저하가 발생한다. 또한 조명변화가 없는 경우(${\delta}=0$) 준 2차원 HMM이 $2.54{\%}$, 1차원 HMM이 $3.18{\%}$, PCA가 $11.7{\%}$, GMM이 $13.38{\%}$의 EER(Equal Error Rate) 성능을 나타낸다. 조명변화가 없는 경우(${\delta}=0$) 1차원 HMM 방법이 PCA 방법보다 좋은 성능을 나타내지만 조명변화 ${\delta}{\geq}40$인 때에는 반대로 PCA 방법이 더 좋은 성능을 나타낸다. 마지막으로 준 2차원 HMM의 경우 조명변화에 관계없이 가장 좋은 EER성능을 나타낸다.

휴먼인터페이스를 위한 한글음절의 입모양합성 (Lip Shape Synthesis of the Korean Syllable for Human Interface)

  • 이용동;최창석;최갑석
    • 한국통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.614-623
    • /
    • 1994
  • 얼굴을 마주보며 인간끼리 대화하는 것처럼 인간과 자연스럽게 대화할 수 있는 휴먼인터페이스를 실현하기 위해서는 임성의 합성과 얼굴영상의 합성이 필요하다. 본 논문은 얼굴영상의 합성을 대상으로 한다. 얼굴영상의 합성에서는 표정변화와 입모양의 변화를 3차원적으로 실현하기 위하여 얼굴의 3차원 형상모델을 이용한다. 얼굴의 3차원 모델을 얼굴 근육의 움직임에 따라 변형하므로서 다양한 얼굴표정과 음절에 어울리는 입모양을 합성한다. 우리말에서 자모의 결합으로 조합가능한 음절은 14,364자에 이른다. 이 음절에 대한 입모양의 대부분은 모음에 따라 형성되고, 일부가 자음에 따라 달라진다. 그러므로, 음절에 어울리는 입모양의 변형규칙을 정하기 위해, 이들을 모두 조사하여 모든 음절을 대표할 수 있는 입모양패턴을 모음과 자음에 따란 분류한다. 그 결과, 자음에 영향을 받는 2개의 패턴과 모음에 의한 8개의 패턴, 총 10개의 패턴으로 입모양을 분류할 수 있었다. 나아가서, 분류된 입모양패턴의 합성규칙을 얼굴근육의 움직임을 고려하여 정한다. 이와같이 분류된 10개의 입모양패턴으로 모든 음절에 대한 입모양을 합성할 수 있고, 얼굴근육의 움직임을 이용하므로써 다양한 표정을 지으면서 말하는 자연스런 얼굴영상을 합성할 수 있었다.

  • PDF