• Title/Summary/Keyword: 표정

Search Result 1,191, Processing Time 0.03 seconds

Construction of facial database for a facial expression-inner states correlation model (표정-내적상태 상관모형을 위한 얼굴 DB 구축)

  • 반세범;한재현;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.215-219
    • /
    • 1997
  • 내적 감성상태와 표정을 연결하는 상관모형을 개발하기 위\ulcorner 기초자료로서 광범위한 얼굴표정자료를 수집하였다. 다양한 얼굴유형의 표정자료를 DB화하기 위해서는 궁극적으로 50명 이상의 인물표정 자료수집이 필요하다고 보고, 우선 영화배우 10면분의 표정자료를 수집하였다. 이를 위해 표정연기가 자연스럽다고 평가된 영화배우 10명을 선정하고, 이들이 출연한 50여편의 영화비디오에서 표정자료를 수집하였다. 한사람의 인물당 50개의 표정을 한세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 한사람의 인물당 50개의 표정을 한 세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 각각의 표정은 시작-상승-절정-하강-종료의 연속 5단계를 비율적으로 표집하여 동적정보를 포함하고 있다. 이들 자료들은 등자인물의 출연맥락이나 상황별로 분류하여 표정관련 맥락단서를 기록하였고, 후속연구를 통해 각 표정에 대응되는 내적상태를 기록할 수 있도록 DB화 하였다. 이와같이 구조화된 자료들은 표정인식과 합성의 입출력모형을 위한 기초자료로 활용될 뿐 아니라, 한국인의 얼굴 프로토타입 DB구축 및 향후 표정관련 연구의 타당성을 검증할 수 있는 Benchmarking 정보를 제공할 수 있다.

  • PDF

Auto Setup Method of Best Expression Transfer Path at the Space of Facial Expressions (얼굴 표정공간에서 최적의 표정전이경로 자동 설정 방법)

  • Kim, Sung-Ho
    • The KIPS Transactions:PartA
    • /
    • v.14A no.2
    • /
    • pp.85-90
    • /
    • 2007
  • This paper presents a facial animation and expression control method that enables the animator to select any facial frames from the facial expression space, whose expression transfer paths the system can setup automatically. Our system creates the facial expression space from approximately 2500 captured facial frames. To create the facial expression space, we get distance between pairs of feature points on the face and visualize the space of expressions in 2D space by using the Multidimensional scaling(MDS). To setup most suitable expression transfer paths, we classify the facial expression space into four field on the basis of any facial expression state. And the system determine the state of expression in the shortest distance from every field, then the system transfer from the state of any expression to the nearest state of expression among thats. To complete setup, our system continue transfer by find second, third, or fourth near state of expression until finish. If the animator selects any key frames from facial expression space, our system setup expression transfer paths automatically. We let animators use the system to create example animations or to control facial expression, and evaluate the system based on the results.

Structural Analysis of Facial Expressions Measured by a Standard Mesh Frame (표준형상모형 정합을 통한 얼굴표정 구조 분석)

  • 한재현;심연숙;변혜란;오경자;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.271-276
    • /
    • 1999
  • 자동 표정인식 및 합성 기술과 내적상태별 얼굴표정 프로토타입 작성의 기초 작업으로서 특정 내적상태를 표현하는 얼굴표정의 특징적 구조를 분석하였다. 내적상태의 평정 절차를 거쳐 열 다섯 가지의 내적상태로 명명된 배우 여섯 명에 대한 영상자료 90장을 사용하여 각 표정의 특징적 구조를 발견하고자 하였다. 서로 다른 얼굴들의 표준화 작업과 서로 다른 표정들의 직접 비교 작업에 정확성을 기하기 위하여 각 표정 표본들을 한국인 표준형상모형에 정합하였다. 정합 결과로 얻어진 각 얼굴표정의 특징점에 대해 모형이 규정하고 있는 좌표값들만으로는 표정해석이 불가능하며 중립얼굴로부터의 변화값이 표정해석에 유효하다는 결론을 얻었다. 표정의 특징적 구조는 그 표정이 표현하는 내적상태가 무엇인가에 따라 발견되지 않는 경우도 있었으며 내적상태가 기본정서에 가까울수록 비교적 일관된 형태를 갖는 것으로 나타났다. 내적상태별 특징적 표정을 결정할 수 있는 경우에 표정의 구조는 얼굴표정 요소들 중 일부에 의해서 특징지어짐을 확인하였다.

  • PDF

Generation Method of Expression Space for Realtime Facial Expression Control of 3D Avatar (3차원 아바타의 실시간 얼굴표정제어를 위한 표정공간의 생성방법)

  • Kim Sung-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06a
    • /
    • pp.109-111
    • /
    • 2006
  • 본 논문은 애니메이터로 하여금 얼굴 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정을 실시간적으로 제어할 수 있도록 하기 위한 표정공간의 생성방법에 관하여 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정이 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 한 표정에서 다른 표정까지 거쳐 갈 수 있는 경로를 캡쳐된 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정 제어는 애니메이터들이 표정공간을 항해할 때 실시간적으로 수행된다. 이를 도와주기 위해 표정공간을 차원 스케일링 기법을 이용하여 2차원 공간으로 가시화하였고, 애니메이터들로 하여금 본 시스템을 사용하여 실시간 표정 제어를 수행하게 했는데, 본 논문은 그 결과를 평가한다.참여하는 빈들 간의 관계를 분석하여 워크플로우에 대한 성능 측정이 가능하도록 한다. 또한 제안된 메트릭을 통하여 EJB 어플리케이션의 성능 향상을 도모할 수 있도록 한다.로 표면 위로 자라났고, 부종은 창상 밑 조직까지 감소하였으며, 육아조직은 교원질 섬유로 대체되었다. 창상 유발 21일 후, 다른 창상에 비해, HG 처치창은 유의적으로 창상 표면이 거의 재생성 상피로 덮였으며, 육아조직은 창상 유발 14일 후와 비교해서 유의적으로 교원질 섬유로 대체되었다. 위의 모든 결과에서 보듯이, 개에서 전층피부 창상의 처치 시 HG의 사용은 HC와 생리 식염수에 비해 창상치유 복구기의 치유 속도를 촉진하는 것으로 사료된다.시범학교의 자녀를 들 부모들은 환경관련문제에 대한 의식 및 환경관련 제품에 대한 구매행동의 변화가 두드러지게 나타났다.EX>$d^{2+}$ + SA처리구는 두 화합물의 이중 효과에 의해 전반적인 생리 활성을 억제하여, 결국에는 식물의 고사를 유도하는 것으로 사료된다.목에 대한 보안'이 가장 중요한 것으로 나타났다. 본 연구에서는 솔루션 선정요인에 관한 중요도를 e-마켓플레이스의 유형과 산업 별로 평가해보았는데, 여기에서 밝혀진 중요도를 통해 e 마켓플레이스를 구축하고 자 하는 기업은 솔루션을 자체 개발하거나 구입할 때 올바른 의사결정을 할 수 있다. 그리고 솔루션을 제공하려는 기업측면에서는 e-마켓플레이스를 구축하고자 하는 기업에게 유형과 산업별로 적절한 솔루션을 제공할 수 있다.순환이 뇌대사 및 수술 후 신경학적 결과에 보다 유익한 효과를 제공해 줄 수 있음

  • PDF

Robust Facial Expression-Recognition Against Various Expression Intensity (표정 강도에 강건한 얼굴 표정 인식)

  • Kim, Jin-Ok
    • The KIPS Transactions:PartB
    • /
    • v.16B no.5
    • /
    • pp.395-402
    • /
    • 2009
  • This paper proposes an approach of a novel facial expression recognition to deal with different intensities to improve a performance of a facial expression recognition. Various expressions and intensities of each person make an affect to decrease the performance of the facial expression recognition. The effect of different intensities of facial expression has been seldom focused on. In this paper, a face expression template and an expression-intensity distribution model are introduced to recognize different facial expression intensities. These techniques, facial expression template and expression-intensity distribution model contribute to improve the performance of facial expression recognition by describing how the shift between multiple interest points in the vicinity of facial parts and facial parts varies for different facial expressions and its intensities. The proposed method has the distinct advantage that facial expression recognition with different intensities can be very easily performed with a simple calibration on video sequences as well as still images. Experimental results show a robustness that the method can recognize facial expression with weak intensities.

Phased Visualization of Facial Expressions Space using FCM Clustering (FCM 클러스터링을 이용한 표정공간의 단계적 가시화)

  • Kim, Sung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.8 no.2
    • /
    • pp.18-26
    • /
    • 2008
  • This paper presents a phased visualization method of facial expression space that enables the user to control facial expression of 3D avatars by select a sequence of facial frames from the facial expression space. Our system based on this method creates the 2D facial expression space from approximately 2400 facial expression frames, which is the set of neutral expression and 11 motions. The facial expression control of 3D avatars is carried out in realtime when users navigate through facial expression space. But because facial expression space can phased expression control from radical expressions to detail expressions. So this system need phased visualization method. To phased visualization the facial expression space, this paper use fuzzy clustering. In the beginning, the system creates 11 clusters from the space of 2400 facial expressions. Every time the level of phase increases, the system doubles the number of clusters. At this time, the positions of cluster center and expression of the expression space were not equal. So, we fix the shortest expression from cluster center for cluster center. We let users use the system to control phased facial expression of 3D avatar, and evaluate the system based on the results.

Recognition of Facial Expressions using Geometrical Features (기하학적인 특징 추출을 이용한 얼굴 표정인식)

  • 신영숙;이일병
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.205-208
    • /
    • 1997
  • 본 연구는 기하학적인 특징 추출을 기반으로 얼굴 영상에서 얼굴표정을 인식하는 방법을 제시한다. 얼굴표정은 3가지 그룹으로 제한한다(무표정, 기쁨, 놀람). 표정에 관련된 기본 특징들을 추출하기 위하여 얼굴표정정영상에서 눈높이, 눈폭, 입높이, 입폭을 추출하여 데이터를 분석한다. 분석결과로 눈높이, 입폭, 입높이가 표정을 분별하는 주요 특징으로 추출되었다. 각 표정별 눈높이, 입폭, 입높이가 표정을 분별하는 주요 특징으로 추출되었다. 각 표정별 눈높이, 입폭, 입높이의 평균과 표준편차를 구하여 표정별 표준 템플릿을 작성하였다. 표정인식 방법은 최소 근접 분류기(nearest neighbor classifier)를 사용하였다. 새로운 얼굴표정 영상과 표준 템플릿간의 유클리드 거리를 계산하여 새로운 표정에 대하여 83%인식률을 얻었다.

  • PDF

Recognizing Facial Expressions Using a Neural Network (신경망을 이용한 얼굴 표정인식)

  • 신영숙;이일병
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.04a
    • /
    • pp.101-105
    • /
    • 1998
  • 기존의 표정인식 연구는 Ekman의 기본정서모형의 특에 의하여 표정인식이 이루어져왔다. 그러나 이러한 6가지 기본정서(행복, 놀람, 공포, 분노, 혐오, 슬픔)에 의한 표정인식은 6개 정서 중에서 선택하는 간제 선택법이 아닌 자유응답방식을 택했을때는 훨씬 인식률이 떨어진다. 이는 표정이 기본정서이외에도 여러 가지 미묘한 마음상태를 표현하고 있기 때문이다. 본 연구는 섬세한 표정인식을 우한 방법으로, 차원모형을 근거로 MLP를 적용한 표정인식을 수행하였다. 차원 모형에 의한 표정은 3가지 차원으로 하나의 표정을 이룬다. 3가지 차원은 쾌-불쾌, 각성-수면과 외부지향-내부지향이다. 3가지 차원을 갖는 각각의 표정은 MLP에 의하여 쾌-불쾌차원 68%, 각성-수면차원 60%, 외부지향-내부지향차원 76%의 인식률을 보였다. 연구결과에서 차원모형에 근거한 표정인식을 통하여 기존의 표정인식을 통하여 기존의 기본정서모형의 한계성을 극복하고 섬세한 표정인식을 수행할 수 있었다.

  • PDF

Facial Expression Recognition without Neutral Expressions (중립표정에 무관한 얼굴표정 인식)

  • Shin Young-Suk
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.301-303
    • /
    • 2006
  • 본 논문은 중립 표정과 같은 표정 측정의 기준이 되는 단서 없이 다양한 내적상태 안에서 얼굴표정을 인식할 수 있는 개선된 시스템을 제안한다. 표정정보를 추출하기 위한 전처리작업으로, 백색화(whitening) 단계가 적용되었다. 백색화 단계는 영상데이터들의 평균값이 0이며, 단위분산값으로 균일한 분포를 갖도록 하여 조명 변화에 대한 민감도를 줄인다. 백색화 단계 수행 후 제 1 주성분이 제외된 나머지 주성분들로 이루어진 PCA표상을 표정정보로 사용함으로써 중립 표정에 대한 단서 없이 얼굴표정의 특징추출을 가능하게 하였다. 본 실험 결과는 83개의 내적상태와 일치되는 다양한 얼굴표정들에서 임의로 선택된 표정영상들의 얼굴표정 인식을 수행함으로써 다양하고 자연스런 얼굴 표정인식을 가능하게 하였다.

  • PDF

Real-time Facial Modeling and Animation based on High Resolution Capture (고해상도 캡쳐 기반 실시간 얼굴 모델링과 표정 애니메이션)

  • Byun, Hae-Won
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.8
    • /
    • pp.1138-1145
    • /
    • 2008
  • Recently, performance-driven facial animation has been popular in various area. In television or game, it is important to guarantee real-time animation for various characters with different appearances between a performer and a character. In this paper, we present a new facial animation approach based on motion capture. For this purpose, we address three issues: facial expression capture, expression mapping and facial animation. Finally, we show the results of various examination for different types of face models.

  • PDF