• 제목/요약/키워드: Facial expression

검색결과 627건 처리시간 0.026초

점진적 능동준지도 학습 기반 고효율 적응적 얼굴 표정 인식 (High Efficiency Adaptive Facial Expression Recognition based on Incremental Active Semi-Supervised Learning)

  • 김진우;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권2호
    • /
    • pp.165-171
    • /
    • 2017
  • 사람의 얼굴 표정을 실제 환경에서 인식하는 데에는 여러 가지 난이한 점이 존재한다. 그래서 학습에 사용된 데이터베이스와 실험 데이터가 여러 가지 조건이 비슷할 때에만 그 성능이 높게 나온다. 이러한 문제점을 해결하려면 수많은 얼굴 표정 데이터가 필요하다. 본 논문에서는 능동준지도 학습을 통해 다양한 조건의 얼굴 표정 데이터를 쉽게 모으고 보다 빠르게 성능을 확보할 수 있는 방법을 제안한다. 제안하는 알고리즘은 딥러닝 네트워크와 능동 학습 (Active Learning)을 통해 초기 모델을 학습하고, 이후로는 준지도 학습(Semi-Supervised Learning)을 통해 라벨이 없는 추가 데이터를 확보하며, 성능이 확보될 때까지 이러한 과정을 반복한다. 위와 같은 능동준지도 학습(Active Semi-Supervised Learning)을 통해서 보다 적은 노동력으로 다양한 환경에 적합한 데이터를 확보하여 성능을 확보할 수 있다.

얼굴 표정인식을 위한 2D-DCT 특징추출 방법 (Feature Extraction Method of 2D-DCT for Facial Expression Recognition)

  • 김동주;이상헌;손명규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권3호
    • /
    • pp.135-138
    • /
    • 2014
  • 본 논문에서는 2D-DCT와 EHMM 알고리즘을 이용하여 과적합에 강인한 얼굴 표정인식 방법을 고안하였다. 특히, 본 논문에서는 2D-DCT 특징추출을 위한 윈도우 크기를 크게 설정하여 EHMM의 관측벡터를 추출함으로써, 표정인식 성능 향상을 도모하였다. 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었고, 실험 결과로부터 특징추출 윈도우의 크기가 커질수록 표정 인식률이 향상됨을 확인하였다. 또한, CK 데이터베이스를 이용하여 표정 모델을 생성하고 JAFFE 데이터베이스 전체 샘플을 테스트한 결과, 제안 방법은 87.79%의 높은 인식률을 보였으며, 기존의 히스토그램 특징 기반의 표정인식 접근법보다 46.01~50.05%의 향상된 인식률을 보였다.

Video Expression Recognition Method Based on Spatiotemporal Recurrent Neural Network and Feature Fusion

  • Zhou, Xuan
    • Journal of Information Processing Systems
    • /
    • 제17권2호
    • /
    • pp.337-351
    • /
    • 2021
  • Automatically recognizing facial expressions in video sequences is a challenging task because there is little direct correlation between facial features and subjective emotions in video. To overcome the problem, a video facial expression recognition method using spatiotemporal recurrent neural network and feature fusion is proposed. Firstly, the video is preprocessed. Then, the double-layer cascade structure is used to detect a face in a video image. In addition, two deep convolutional neural networks are used to extract the time-domain and airspace facial features in the video. The spatial convolutional neural network is used to extract the spatial information features from each frame of the static expression images in the video. The temporal convolutional neural network is used to extract the dynamic information features from the optical flow information from multiple frames of expression images in the video. A multiplication fusion is performed with the spatiotemporal features learned by the two deep convolutional neural networks. Finally, the fused features are input to the support vector machine to realize the facial expression classification task. The experimental results on cNTERFACE, RML, and AFEW6.0 datasets show that the recognition rates obtained by the proposed method are as high as 88.67%, 70.32%, and 63.84%, respectively. Comparative experiments show that the proposed method obtains higher recognition accuracy than other recently reported methods.

모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어 (Facial Expression Control of 3D Avatar by Hierarchical Visualization of Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.277-284
    • /
    • 2004
  • 본 논문은 사용자로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정 제어기법을 기술한다. 본 시스템에서는 2,40P0여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해하면서 수행한다. 그러나 표정의 수가 너무 많아 사용자가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 2,400여개의 표정들을 이용하여 약 11개의 클러스터센터를 가지도록 클러스터링한다. 클러스터 센터들은 2차원 평면에 표시되며 후보 키 프레임으로 사용된다 사용자는 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 초기 항해경로를 생성한다. 사용자가 줌 인(이산적인 단계를 가지고 있음)을 하면 상세한 단계를 보기를 원한다는 의미이므로 줌 인된 단계에 적합한 표정 클러스터들을 생성한다. 단계가 증가될 때 마다 클러스터의 수를 두 배로 하고, 클러스터의 수만큼 표정들을 클러스터링한다. 사용자는 현재 단계에서 그전 단계의 항해경로를 따라 새로운 키 프레임(클러스터 센터)들을 선택하여 항해경로를 갱신한다. 줌 인을 최대로 한 마지막 단계에서 항해경로를 갱신하면 표정 제어 설정이 끝난다. 사용자는 언제든지 줌 아웃을 통해 그 전단계로 돌아가서 항해경로를 수정할 수 있다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

게임 캐릭터의 표면처리와 표현요소가 Uncanny Valley 현상에 미치는 영향에 관한 연구 (A study on the Effect of Surface Processing and Expression Elements of Game Characters on the Uncanny Valley Phenomenon)

  • 은석함;권만우;황미경
    • 한국멀티미디어학회논문지
    • /
    • 제25권7호
    • /
    • pp.964-972
    • /
    • 2022
  • The Uncanny Valley phenomenon has already been deemed as theoretical, and the characteristics of game character expression elements for the Uncanny Valley phenomenon were recognized through case analysis as well. By theoretical consideration and case studies, it was found out that the influential elements of the Uncanny Valley phenomenon can be classified as two primary factors: character surface treatment and facial expression animation. The prepared experimental materials and adjectives were measured to be Five-Point Likert Scale. The measured results were evaluated for both influence and comparative analysis through essential statistical analysis and Repeated Measuring ANOVA in SPSS. The conclusions which were drawn from this research are as follows: The surface treatment of characters did not substantially affect the Uncanny Valley phenomenon. Instead, character's expression animation had a significant impact on the Uncanny Valley phenomenon, which also led to another conclusion that the facial expression animation had an overall deeper impact on Uncanny Valley phenomenon compared with character's surface treatment. It was the unnatural facial expression animation that controlled all of the independent variables and also caused the Uncanny Valley phenomenon. In order for game characters to evade the Uncanny Valley phenomenon and enhance game immersion, the facial expression animation of the character must be done spontaneously.

SIFT 기술자를 이용한 얼굴 표정인식 (Facial Expression Recognition Using SIFT Descriptor)

  • 김동주;이상헌;손명규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권2호
    • /
    • pp.89-94
    • /
    • 2016
  • 본 논문에서는 SIFT 기술자를 이용한 얼굴 특징과 SVM 분류기로 표정인식을 수행하는 방법에 대하여 제안한다. 기존 SIFT 기술자는 물체 인식 분야에 있어 키포인트 검출 후, 검출된 키포인트에 대한 특징 기술자로써 주로 사용되나, 본 논문에서는 SIFT 기술자를 얼굴 표정인식의 특징벡터로써 적용하였다. 표정인식을 위한 특징은 키포인트 검출 과정 없이 얼굴영상을 서브 블록 영상으로 나누고 각 서브 블록 영상에 SIFT 기술자를 적용하여 계산되며, 표정분류는 SVM 알고리즘으로 수행된다. 성능평가는 기존의 LBP 및 LDP와 같은 이진패턴 특징기반의 표정인식 방법과 비교 수행되었으며, 실험에는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 사용하였다. 실험결과, SIFT 기술자를 이용한 제안방법은 기존방법보다 CK 데이터베이스에서 6.06%의 향상된 인식결과를 보였으며, JAFFE 데이터베이스에서는 3.87%의 성능향상을 보였다.

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

가상 캐릭터의 몸짓과 얼굴표정의 일치가 감성지각에 미치는 영향: 어떤 얼굴표정이 중요한가? (The Congruent Effects of Gesture and Facial Expression of Virtual Character on Emotional Perception: What Facial Expression is Significant?)

  • 류지헌;유승범
    • 한국콘텐츠학회논문지
    • /
    • 제16권5호
    • /
    • pp.21-34
    • /
    • 2016
  • 디지털 콘텐츠에서 구현되는 가상 캐릭터를 효과적으로 개발하기 위해서는 감성 상태(기쁨, 슬픔, 공포, 화남)가 제대로 전달되도록 하는 것이 중요하다. 이 연구에서는 가상 캐릭터의 얼굴표정과 몸짓이 표현하는 감성 상태의 일치여부에 따라서 사용자가 가상 캐릭터의 감성 상태를 어떻게 지각하며, 가상 캐릭터의 몸짓을 어떻게 평가하는가를 검증하였다. 이를 위하여 몸짓과 얼굴표정의 감성표현을 동일하게 구성한 일치조건, 정반대의 감성표현으로 구성된 불일치조건, 그리고 무표정한 얼굴표정으로 구현된 통제집단을 구성했다. 연구결과에 따르면 슬픔 조건에서 의도된 감성 상태가 제대로 전달되지 않았을 뿐만 아니라 오히려 화난 것으로 지각되었다. 그러나 나머지 감성 상태에서는 몸짓과 얼굴표정의 일치여부는 의도된 감성 전달에 영향을 미치지 않았다. 감성 상태의 표현에 대한 가상 캐릭터의 전체적인 몸짓에 대한 평가에서는 기쁨을 표현한 몸짓이 불일치 조건의 얼굴표정을 갖게 될 때, 평가 점수가 낮았다. 가상 캐릭터의 감성을 표현할 때는 얼굴 표정도 중요하지만 몸짓 자체의 감성표현이 전반적으로 결정적인 역할을 수행하고 있음을 확인할 수 있었다. 가상 캐릭터의 성별이나 연령과 같은 사회적 단서에 대한 연구의 필요성을 설명했다.

표정 HMM과 사후 확률을 이용한 얼굴 표정 인식 프레임워크 (A Recognition Framework for Facial Expression by Expression HMM and Posterior Probability)

  • 김진옥
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제11권3호
    • /
    • pp.284-291
    • /
    • 2005
  • 본 연구에서는 학습한 표정 패턴을 기반으로 비디오에서 사람의 얼굴을 검출하고 표정을 분석하여 분류하는 프레임워크를 제안한다. 제안 프레임워크는 얼굴 표정을 인식하는데 있어 공간적 정보 외시간에 따라 변하는 표정의 패턴을 표현하기 위해 표정 특성을 공간적으로 분석한 PCA와 시공간적으로 분석한 Hidden Markov Model(HMM) 기반의 표정 HMM을 이용한다. 표정의 공간적 특징 추출은 시간적 분석 과정과 밀접하게 연관되어 있기 때문에 다양하게 변화하는 표정을 검출하여 추적하고 분류하는데 HMM의 시공간적 접근 방식을 적용하면 효과적이기 때문이다. 제안 인식 프레임워크는 현재의 시각적 관측치와 이전 시각적 결과간의 사후 확률 방법에 의해 완성된다. 결과적으로 제안 프레임워크는 대표적인 6개 표정뿐만 아니라 표정의 정도가 약한 프레임에 대해서도 정확하고 강건한 표정 인식 결과를 보인다. 제안 프레임 워크를 이용하면 표정 인식, HCI, 키프레임 추출과 같은 응용 분야 구현에 효과적이다