• 제목/요약/키워드: 표정 패턴

검색결과 59건 처리시간 0.038초

실시간 감정 표현 아바타의 설계 및 구현 (Design and Implementation of a Real-Time Emotional Avatar)

  • 정일홍;조세홍
    • 디지털콘텐츠학회 논문지
    • /
    • 제7권4호
    • /
    • pp.235-243
    • /
    • 2006
  • 본 논문에서는 얼굴의 표정 변화를 인식하여 실시간으로 감정을 표현하는 아바타를 설계하고 구현하는 방법을 제안하였다. 실시간 감정 표현 아바타는 수동으로 아바타의 표정 패턴을 변화를 주는 것이 아니라 웹캠을 이용하여 실시간으로 입 모양 특징을 추출하고 추출한 입 모양의 패턴을 분석한 뒤, 미리 정의된 표정 패턴에 부합되는 것을 찾는다. 그리고 부합된 표정 패턴을 아바타에 적용하여 아바타의 얼굴 표정을 표현한다. 표정 인식 아바타는 웹캠에서 들어온 영상을 모델 접근 방법을 이용하여 보다 빠르게 입 부분을 인식할 수 있도록 하였다. 그리고 표정 패턴 추출은 표정에 따라 입 모양이 변하는 것을 이용하였다. 모델접근 방법을 이용하여 눈의 정보를 찾은 후 그 정보를 이용하여 입 모양을 추출하게 된다. 기본적으로 13가지 입 모양으로 각각의 표정을 유추하고 각 표정 패턴에 맞는 6개의 아바타를 미리 구현하여 보다 빠르게 아바타의 표정을 변할 수 있게 하였다.

  • PDF

다선형 모델을 이용한 얼굴 및 표정 인식 (A Case Study on Face and Expression Recognition using AAMs and Multilinear Analysis)

  • 박용찬;이성오;박귀태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 제39회 하계학술대회
    • /
    • pp.1901-1902
    • /
    • 2008
  • 얼굴 인식은 얼굴의 특징적인 패턴을 이용하지만, 이러한 패턴은 표정, 포즈, 조명의 변화에 민감하여 인식에 어려움이 있다. 본 논문은 표정 변화에 강인한 인식 모델을 개발하기 위해 Cohn-Kanade 표정 데이터베이스와 AAM을 이용하여 다양한 데이터를 추출하였고, 추출된 데이터를 다선형 분석을 이용하여 분석하였다. 이를 적용한 인식 실험에서 PCA보다 표정에 좀 더 강인한 인식 성능을 나타내었다.

  • PDF

LDA 융합모델과 최소거리패턴분류법을 이용한 얼굴 표정 인식 연구 (A Study on Face Expression Recognition using LDA Mixture Model and Nearest Neighbor Pattern Classification)

  • 노종흔;백영현;문성룡;강영진
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.167-170
    • /
    • 2006
  • 본 논문은 선형분류기인 LDA 융합모델과 최소거리패턴분류법을 이용한 얼굴표정인식 알고리즘 연구에 관한 것이다. 제안된 알고리즘은 얼굴 표정을 인식하기 위해 두 단계의 특징 추출과정과 인식단계를 거치게 된다. 먼저 특징추출 단계에서는 얼굴 표정이 담긴 영상을 PCA를 이용해 고차원에서 저차원의 공간으로 변환한 후, LDA 이용해 특징벡터를 클래스 별로 나누어 분류한다. 다음 단계로 LDA융합모델을 통해 계산된 특징벡터에 최소거리패턴분류법을 적용함으로서 얼굴 표정을 인식한다. 제안된 알고리즘은 6가지 기본 감정(기쁨, 화남, 놀람, 공포, 슬픔, 혐오)으로 구성된 데이터베이스를 이용해 실험한 결과, 기존알고리즘에 비해 향상된 인식률과 특정 표정에 관계없이 고른 인식률을 보임을 확인하였다.

  • PDF

얼굴 특징영역상의 광류를 이용한 표정 인식 (Recognition of Hmm Facial Expressions using Optical Flow of Feature Regions)

  • 이미애;박기수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권6호
    • /
    • pp.570-579
    • /
    • 2005
  • 표정인식 연구는 맨$\cdot$머신 인터페이스 개발, 개인 식별, 가상모델에 의한 표정복원 등 응용가치의 무한한 가능성과 함께 다양한 분야에서 연구되고 있다 본 논문에서는 인간의 기본정서 중 행복, 분노, 놀람, 슬픔에 대한 4가지 표정을 얼굴의 강체 움직임이 없는 얼굴동영상으로부터 간단히 표정인식 할 수 있는 방법을 제안한다. 먼저, 얼굴 및 표정을 결정하는 요소들과 각 요소의 특징영역들을 색상, 크기 그리고 위치정보를 이용하여 자동으로 검출한다. 다음으로 Gradient Method를 이용하여 추정한 광류 값으로 특징영역들에 대한 방향패턴을 결정한 후, 본 연구가 제안한 방향모델을 이용하여 방향패턴에 대한 매칭을 행한다. 각 정서를 대표하는 방향모델과의 패턴 매칭에서 그 조합 값이 최소를 나타내는 부분이 가장 유사한 정서임을 판단하고 표정인식을 행한다. 마지막으로 실험을 통하여 본 논문의 유효성을 확인한다.

표정 HMM과 사후 확률을 이용한 얼굴 표정 인식 프레임워크 (A Recognition Framework for Facial Expression by Expression HMM and Posterior Probability)

  • 김진옥
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제11권3호
    • /
    • pp.284-291
    • /
    • 2005
  • 본 연구에서는 학습한 표정 패턴을 기반으로 비디오에서 사람의 얼굴을 검출하고 표정을 분석하여 분류하는 프레임워크를 제안한다. 제안 프레임워크는 얼굴 표정을 인식하는데 있어 공간적 정보 외시간에 따라 변하는 표정의 패턴을 표현하기 위해 표정 특성을 공간적으로 분석한 PCA와 시공간적으로 분석한 Hidden Markov Model(HMM) 기반의 표정 HMM을 이용한다. 표정의 공간적 특징 추출은 시간적 분석 과정과 밀접하게 연관되어 있기 때문에 다양하게 변화하는 표정을 검출하여 추적하고 분류하는데 HMM의 시공간적 접근 방식을 적용하면 효과적이기 때문이다. 제안 인식 프레임워크는 현재의 시각적 관측치와 이전 시각적 결과간의 사후 확률 방법에 의해 완성된다. 결과적으로 제안 프레임워크는 대표적인 6개 표정뿐만 아니라 표정의 정도가 약한 프레임에 대해서도 정확하고 강건한 표정 인식 결과를 보인다. 제안 프레임 워크를 이용하면 표정 인식, HCI, 키프레임 추출과 같은 응용 분야 구현에 효과적이다

Feature Extraction Based on GRFs for Facial Expression Recognition

  • Yoon, Myoong-Young
    • 한국산업정보학회논문지
    • /
    • 제7권3호
    • /
    • pp.23-31
    • /
    • 2002
  • 본 논문에서는 화상자료의 특성인 이웃 화소간의 종속성을 표현하는데 적합한 깁스분포를 바탕으로 얼굴 표정을 인식을 위한 특징벡터를 추출하는 새로운 방법을 제안하였다. 추출된 특징벡터는 얼굴 이미지의 크기, 위치, 회전에 대하여 불변한 특성을 갖는다. 얼굴 표정을 인식하기 위한 알고리즘은 특징벡터 추출하는 과정과 패턴을 인식하는 두 과정으로 나뉘어진다. 특징벡터는 얼굴 화상에 대하여 추정된 깁스분포를 바탕으로 수정된 2-D 조건부 모멘트로 구성된다. 얼굴 표정인식 과정에서는 패턴인식에 널리 사용되는 이산형 HMM를 사용한다. 제안된 방법에 대한 성능평가를 위하여 4가지의 얼굴 표정 인식 실험을 Workstation에서 실험한 결과, 제안된 얼굴 표정 인식 방법이 95% 이상의 성능을 보여주었다.

  • PDF

CNN 기반의 얼굴 표정 인식 (CNN-based facial expression recognition)

  • 최인규;안하은;송혁;고민수;유지상
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.271-272
    • /
    • 2016
  • 본 논문에서는 딥러닝 기술 중의 하나인 CNN(Convolutional Neural Network) 기반의 얼굴 표정 인식 기법을 제안한다. 다섯 가지 주요 표정의 얼굴 영상을 CNN 구조에 스스로 학습시켜 각각의 표정 패턴에 적합한 특징 지도(feature map)를 형성하고 이 특징 지도를 통해 들어오는 입력 영상을 적합한 표정으로 분류한다. 기존의 CNN 구조를 본 논문에서 이용한 데이터 셋에 알맞게 convolutional layer 및 node의 수를 변경하여 특징 지도를 형성하고 학습 및 인식에 필요한 파라미터수를 대폭 감소시켰다. 실험 결과 제안하는 기법이 높은 얼굴 표정 분류 성능을 보여준다는 것을 보였다.

  • PDF

Quantified Lockscreen: 감정 마이닝과 자기정량화를 위한 개인화된 표정인식 및 모바일 잠금화면 통합 어플리케이션 (Quantified Lockscreen: Integration of Personalized Facial Expression Detection and Mobile Lockscreen application for Emotion Mining and Quantified Self)

  • 김성실;박준수;우운택
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1459-1466
    • /
    • 2015
  • 잠금화면은 현대인들이 모바일 플랫폼에서 가장 자주 대면하는 인터페이스 중 하나이다. 조사에 따르면 스마트폰 사용자들은 일일 평균 150번 잠금해제를 수행하지만[1], 패턴인식, 비밀번호와 같은 잠금화면 인터페이스등은 보안 및 인증의 목적을 제외하곤 별 다른 이익을 제공하지 못하는 것이 현 실정이다. 본 논문에서는 보안용도의 기존 잠금화면을 전방 카메라를 활용한 얼굴 및 표정인식 어플리케이션으로 대체하여 표정 데이터를 수집한 뒤 실시간 표정 및 감정 변화 피드백을 제공하는 인터페이스를 제시한다. 본 연구에선 Quantified Lockscreen 어플리케이션을 통한 실험을 통해 1) 잠금화면을 활용한 비침습적인 인터페이스를 통해 연속적인 표정데이터 획득과 감정패턴을 분석할 수 있는 것을 검증했으며 2) 개인화된 학습 및 분석으로 표정인식 및 감정 검출의 정확도를 개선하였으며 3) 표정으로부터 추론된 감정 데이터의 타당성을 강화하기 위한 양괄식 검증기법을 도입하여 감정 검출의 다중채널 및 다중입력 방법론의 가능성을 확인하였다.

LDP 기반의 얼굴 표정 인식 평가 시스템의 설계 및 구현 (A Study of Evaluation System for Facial Expression Recognition based on LDP)

  • 이태환;조영탁;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권7호
    • /
    • pp.23-28
    • /
    • 2014
  • 본 논문에서는 기존에 제안된 LDP(Local Directional Pattern)를 기반으로 얼굴 표정 인식 시스템에 대한 설계 및 구현 방법을 제안한다. LDP는 얼굴 영상을 구성하고 있는 각 화소를 주변 화소들과의 관계를 고려하여 지역적인 미세 패턴(Local Micro Pattern)으로 표현해준다. 새롭게 제시된 LDP에서 생성되는 코드들이 다양한 조건하에서 정확한 정보를 포함할 수 있는지의 여부를 검증할 필요가 있다. 따라서, 새롭게 제안된 지역 미세 패턴인 LDP를 다양한 환경에서 신속하게 검증하기 위한 평가 시스템을 구축한다. 제안된 얼굴 표정인식 평가 시스템에서는 6개의 컴포넌트를 거쳐 얼굴 표정인식률을 계산할 수 있도록 구성하였으며, Gabor, LBP와 비교하여 LDP의 인식률을 검증한다.

휴먼인터페이스를 위한 한글음절의 입모양합성 (Lip Shape Synthesis of the Korean Syllable for Human Interface)

  • 이용동;최창석;최갑석
    • 한국통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.614-623
    • /
    • 1994
  • 얼굴을 마주보며 인간끼리 대화하는 것처럼 인간과 자연스럽게 대화할 수 있는 휴먼인터페이스를 실현하기 위해서는 임성의 합성과 얼굴영상의 합성이 필요하다. 본 논문은 얼굴영상의 합성을 대상으로 한다. 얼굴영상의 합성에서는 표정변화와 입모양의 변화를 3차원적으로 실현하기 위하여 얼굴의 3차원 형상모델을 이용한다. 얼굴의 3차원 모델을 얼굴 근육의 움직임에 따라 변형하므로서 다양한 얼굴표정과 음절에 어울리는 입모양을 합성한다. 우리말에서 자모의 결합으로 조합가능한 음절은 14,364자에 이른다. 이 음절에 대한 입모양의 대부분은 모음에 따라 형성되고, 일부가 자음에 따라 달라진다. 그러므로, 음절에 어울리는 입모양의 변형규칙을 정하기 위해, 이들을 모두 조사하여 모든 음절을 대표할 수 있는 입모양패턴을 모음과 자음에 따란 분류한다. 그 결과, 자음에 영향을 받는 2개의 패턴과 모음에 의한 8개의 패턴, 총 10개의 패턴으로 입모양을 분류할 수 있었다. 나아가서, 분류된 입모양패턴의 합성규칙을 얼굴근육의 움직임을 고려하여 정한다. 이와같이 분류된 10개의 입모양패턴으로 모든 음절에 대한 입모양을 합성할 수 있고, 얼굴근육의 움직임을 이용하므로써 다양한 표정을 지으면서 말하는 자연스런 얼굴영상을 합성할 수 있었다.

  • PDF