• Title/Summary/Keyword: Facial Model

검색결과 522건 처리시간 0.028초

웹기반 3차원 얼굴 모델링 시스템 (Web-based 3D Face Modeling System)

  • 김응곤;송승헌
    • 한국정보통신학회논문지
    • /
    • 제5권3호
    • /
    • pp.427-433
    • /
    • 2001
  • 본 연구에서는 기존의 방법에 비하여 3차원 스캐너나 카메라를 이용하지 않고 비용과 노력을 크게 절감하면서 실감나는 얼굴 모델링을 효율적으로 수행하는 웹 기반 3차원 얼굴 모델링 시스템을 제안한다. 고가의 영상입력장비를 이용하지 않고 정면과 측면사진영상을 이용하여 3차원 얼굴모델을 만들 수 있다. 특정한 플랫폼과 소프트웨어에 독립적으로 웹상에서 얼굴 모델링 서버에 접속함으로써 3차원 얼굴모델을 만들 수 있도록 설계하였다. 얼굴모델러의 3차원 그래픽스 관련 모듈은 개발된 그래픽 라이브러리들의 특징과 편리함을 제공하는 자바 3B API를 이용하여 개발 중이다. 이 얼굴 모델링 시스템은 클라이언트/서버구조로 되어있다. 클라이언트측의 사용자가 본 시스템에 접속하면 자바 애플릿의 얼굴모델러가 실행되며, 사용자는 두 장의 사진을 입력으로 하여 웹브라우저만으로 절차에 따라서 3차원 얼굴 모델을 생성하게 된다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

상반된 감성에 따른 안면 움직임 차이에 대한 분석 (Analysis of Facial Movement According to Opposite Emotions)

  • 이의철;김윤경;배민경;김한솔
    • 한국콘텐츠학회논문지
    • /
    • 제15권10호
    • /
    • pp.1-9
    • /
    • 2015
  • 본 논문에서는 Kinect 카메라를 통해 촬영된 영상 처리를 통해 상반된 감성 자극 관점에서 안면 움직임의 차이를 분석하는 연구를 진행하였다. Russell의 2차원 감성 모델에서 원점 대칭 위치에 존재하는 두 상반된 감성인 "Sad - Excitement", "Contentment - Angry" 감성을 유발하기 위해 피험자에게 시각자극과 청각자극을 동시에 제공하였다. Kinect Face Tracking SDK에서 제공되는 121개 특징점으로 구성된 안면 active appearance model에서 안면 움직임을 잘 표현하는 31개의 주요 특징점 주변의 화소 변화를 측정하였다. 안면 근육의 비선형적 움직임 문제를 해결하기 위해 지역 이동 기반 최소거리 결정 방법(local minimum shift matching)을 사용하였다. 분석 결과, sad 감성에서는 우측 안면 움직임이 많이 나타났고, excitement 감성에서는 좌측 안면 움직임이 많이 나타남으로써 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 보였다. 또한 "Contentment" 감성에서는 좌측 안면 움직임이 많이 나타났고, "Angry" 감성에서는 안면의 좌우 구분 없이 움직임이 나타남으로써, 두 상반된 감성 자극에 대해서는 우측 안면에서 차이를 확인할 수 있었다.

주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출 (Face and Its Components Extraction of Animation Characters Based on Dominant Colors)

  • 장석우;신현민;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.93-100
    • /
    • 2011
  • 애니메이션 캐릭터의 감정과 성격을 가장 잘 표출해 낼 수 있는 부분이 캐릭터의 얼굴이므로 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 분석하여 필요한 정보를 추출하는 연구의 필요성이 증가하고 있는 추세이다. 본 논문에서는 애니메이션 캐릭터 얼굴의 특성에 맞게 수정한 메쉬모델을 정의하고, 주색상 정보를 이용하여 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 검출하는 방법을 제안한다. 제안된 시스템은 먼저 애니메이션 캐릭터 얼굴에 맞는 메쉬모델을 생성하고, 이 메쉬모델을 처음 입력되는 애니메이션 캐릭터의 얼굴에 정합시켜 얼굴과 얼굴의구성요소에 대한 주색상 값을 추출한다. 그리고 추출된 주색상 값을 이용하여 새롭게 입력되는 영상으로부터 캐릭터의 얼굴과 얼굴 구성요소의 후보 영역을 선정한 후, 모델로부터 추출한 주색상 정보와 후보 영역들의 주색상 사이의 유사도를 측정하여 최종적인 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 검출한다. 본 논문의 실험에서는 제안된 애니메이션 캐릭터 얼굴과 구성요소 검출 방법의 성능을 평가하기 위한 실험결과를 보인다.

Active Shape Model을 이용한 외형기반 얼굴표정인식에 관한 연구 (A Study on Appearance-Based Facial Expression Recognition Using Active Shape Model)

  • 김동주;신정훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.43-50
    • /
    • 2016
  • 본 논문에서는 ASM(Active Shape Model) 특징점(Landmark)을 이용하여 정밀한 얼굴영역을 획득하고, 외형기반 접근법으로 표정을 인식하는 방법에 대하여 제안한다. 외형기반 표정인식은 EHMM(Embedded Hidden Markov Model) 및 이진패턴 히스토그램 특징과 SVM(Support Vector Machine)을 사용하는 알고리즘으로 구성되며, 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었다. 더불어, 성능비교는 기존의 눈 거리 기반의 얼굴 정규화 방법과 비교를 통하여 수행되었고, 또한 ASM 전체 특징점 및 변형된 특징을 SVM으로 인식하는 기하학적 표정인식 방법론과 성능비교를 수행하였다. 실험 결과, 제안 방법은 거리기반 얼굴정규화 영상을 사용한 방법보다 CK 데이터베이스 및 JAFFE 데이터베이스 경우, 최대 6.39%와 7.98%의 성능향상을 보였다. 또한, 제안 방법은 기하학적 특징점을 사용한 방법보다 높은 인식 성능을 보였으며, 이로부터 제안하는 표정인식 방법의 효용성을 확인하였다.

내적상태 차원모형에 근거한 얼굴표정 합성 시스템 (A system for facial expression synthesis based on a dimensional model of internal states)

  • 한재현;정찬섭
    • 인지과학
    • /
    • 제13권3호
    • /
    • pp.11-21
    • /
    • 2002
  • 쾌-불쾌, 각성-수면의 2차원 감정상태 공간에서 임의의 좌표값을 지정하면 Parke와 Waters[1]의 근육 기반 얼굴모형에 근거하여 그것에 해당하는 표정을 자동 합성할 수 있는 시스템을 개발하였다. 얼굴 변형의 준거 설정을 위하여 정찬섭, 오경자, 이일병과 변혜란[2]의 표정 DB에 수록된 표정 자료 및 내적감정상태 모형을 사용하였다. DB 내 표정 자료들은 감정 모형에 근거하여 차원값 및 범주로 기술된 내적상태 정보를 포함하고 있었다. 내적상태 변화에 따른 표정의 변형 규칙을 찾기 위해 표집된 표정들에 대해 21개 얼굴 근육의 변화량을 측정하였다. 내적감정상태와 얼굴 근육들의 관계 구조를 파악하기 위해 수집된 자료들을 대상으로 회귀분석을 실시하였다. 이러한 과정을 거쳐 얻어진 변형 규칙은 꽤-불쾌 및 각성-수면 차원값으로 주어지는 내적상태에 대한 자연스러운 표정을 합성해내었다. 이같은 결과는 방대한 양의 자료 및 개별 근육의 변화를 포착하는 회귀분석으로부터 도출된 규칙이 얼굴표정을 합성하는데 유용하고 강력한 도구가 될 수 있음을 시사한다.

  • PDF

카데바 자료를 이용한 얼굴근육의 해부학적 기능 학습을 위한 삼차원 교육 콘텐츠 제작과 관련된 융합 연구 (Convergence Study on the Three-dimensional Educational Model of the Functional Anatomy of Facial Muscles Based on Cadaveric Data)

  • 이재기
    • 한국융합학회논문지
    • /
    • 제12권9호
    • /
    • pp.57-63
    • /
    • 2021
  • 이 연구는 한국인 성인 시신의 얼굴근육을 해부하고 삼차원 스캔하여, 사실적인 얼굴근육의 형태를 삼차원 오브젝트를 만들고, 이를 통해 표정을 재현하여 카데바 얼굴근육의 복합적인 움직임을 삼차원적으로 관찰 가능한 교육 자료를 제작하는데 목적이 있다. 카데바 해부 사진 자료를 이용하여, 얼굴근육에 대해 삼차원 모델링 하였고, 네 가지 표정(슬픔, 미소, 놀람, 분노)에 따라 얼굴근육이 변화하는 삼차원 영상을 제작하였다. 이를 통해, 삼차원으로 구현한 카데바 얼굴근육의 복합적인 작용과 다양한 표정 변화를 확인할 수 있었다. 이 연구결과는 얼굴근육의 개별적인 기능에 대한 정량적인 자료를 확인할 수는 없지만, 사실적이고 입체적인 카데바의 얼굴근육 형태를 관찰할 수 있고, 복합적인 얼굴근육의 작용으로 인한 표정 변화를 확인할 수 있다. 이러한 자료는 얼굴근육의 해부학적 교육 자료로 활용할 수 있을 것으로 기대한다.

3차원 얼굴 모델링과 예측 시스템 (A Three-Dimensional Facial Modeling and Prediction System)

  • 구본관;정철희;조선영;이명원
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제17권1호
    • /
    • pp.9-16
    • /
    • 2011
  • 본논문에서는 3차원 3D 얼굴 스캔 데이터와 사진 이미지를 이용하여 3D 얼굴 모델을 생성하고 향후의 얼굴을 예측하는 시스템 개발에 대해 기술한다. 본 시스템은 3차원 텍스처매핑, 얼굴 정의 파라미터 입력 도구, 3차원 예측 알고리즘으로 구성 되어 있다. 3차원 텍스처매핑 기능에서는 3D 스캐너로 획득한 얼굴 모델과 사진 이미지를 이용하여 특정 연령에서의 새로운 얼굴모델을 생성한다. 텍스처매핑은 3D 스캐너로부터 획득한 메쉬 데이터에 정면과 좌우 측면의 세 방향의 사진 이미지를 이용하여 매핑하였다. 얼굴 정의 파라미터 입력도구는 3차원 텍스처매핑에 필요한 사용자 인터페이스 도구로서, 얼굴 모델의 정확한 재질값을 얼굴 사진으로부터 얻기 워하여 사진과 3D 얼굴 모델의 특징점을 일치시키는데 사용된다. 본 연구에서는 한 얼굴의 향후 연령대에서의 얼굴 모델을 구하기 위하여 100여개의 얼굴 스캔 데이터베이스를 이용한 통계적 분석에 의해 재질값을 예측 계산하여 해상도 높은 재질값을 가지는 모든 연령대의 3D 얼굴모델을 구성하였다.

적응형 결정 트리를 이용한 국소 특징 기반 표정 인식 (Local Feature Based Facial Expression Recognition Using Adaptive Decision Tree)

  • 오지훈;반유석;이인재;안충현;이상윤
    • 한국통신학회논문지
    • /
    • 제39A권2호
    • /
    • pp.92-99
    • /
    • 2014
  • 본 논문은 결정 트리(Decision tree) 구조를 기반으로 한 표정 인식 방법을 제안한다. ASM(Active Shape Model)과 LBP(Local Binary Pattern)를 통해, 표정 영상들의 국소 특징들을 추출한다. 국소 특징들로부터 표정들을 잘 분류할 수 있는 판별 특징(Discriminant feature)들을 추출하고, 그 판별 특징들은 모든 조합의 각 두 가지 표정들을 분류시킨다. 분류를 통해 얻어진 정인식의 합을 통해, 정인식 최대화 기반 국소 영역과 표정 조합을 결정한다. 이 가지 분류들을 종합하여, 결정 트리를 생성한다. 이 결정 트리 기반 표정 인식률은 약 84.7%로, 결정 트리를 고려하지 않은 방법보다, 더 좋은 인식 성능을 보였다.

쾌 및 각성차원 기반 얼굴 표정인식 (Facial expression recognition based on pleasure and arousal dimensions)

  • 신영숙;최광남
    • 인지과학
    • /
    • 제14권4호
    • /
    • pp.33-42
    • /
    • 2003
  • 본 논문은 내적상태의 차원모형을 기반으로 한 얼굴 표정인식을 위한 새로운 시스템을 제시한다. 얼굴표정 정보는 3단계로 추출된다. 1단계에서는 Gabor 웨이브렛 표상이 얼굴 요소들의 경계선을 추출한다. 2단계에서는 중립얼굴상에서 얼굴표정의 성긴 특징들이 FCM 군집화 알고리즘을 사용하여 추출된다. 3단계에서는 표정영상에서 동적인 모델을 사용하여 성긴 특징들이 추출된다. 마지막으로 다층 퍼셉트론을 사용하여 내적상태의 차원모델에 기반한 얼굴표정 인식을 보인다. 정서의 이차원 구조는 기본 정서와 관련된 얼굴표정의 인식 뿐만 아니라 다양한 정서의 표정들로 인식할 수 있음을 제시한다.

  • PDF