• 제목/요약/키워드: 얼굴 표정

검색결과 518건 처리시간 0.032초

얼굴표정에 의한 내적상태 추정 (Mapping Facial expressions onto internal states)

  • 한재현;정찬섭
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.41-58
    • /
    • 1998
  • 얼굴표정과 내적상태의 관계 모형을 수립하기 위한 기초 자료로서 얼굴표정과 내적상태의 대응 관계를 조사하였다. 심리적으로 최소유의미거리에 있는 두 내적상태는 서로 구별되는 얼굴표정으로 대응된다는 것을 확인함으로써 얼굴표정과 내적상태의 일대일 대응 관계가 성립한다는 것을 발견하였다. 얼굴표정 차원값과 내적상태 차원값의 관계 구조를 파악하기 위하여 중다희귀분석 및 정준상관분석을 실시한 결과, 쾌-불쾌는 입의 너비에 의해서 각성-수면은 눈과 입이 열린 정도에 의해서 얼굴표정에 민감하게 반영되는 것으로 나타났다. 얼굴표정 차원 열 두 개가 내적상태 차원상의 변화를 설명하는 정도는 50%내외였다. 선형모형이 이처럼 높은 예측력을 갖는다는 것은 이 두 변수 사이에 비교적 단순한 수리적 대응 구조가 존재한다는 것을 암시한다.

  • PDF

정신분열증 환자의 얼굴표정을 통한 정서 인식 특성 (Emotion Recognition of Schizophrenics)

  • 박수경;오경자
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.356-361
    • /
    • 1999
  • 본 연구에서는 정신분열증 환자들이 인식하는 타인의 얼굴표정에 관한 정보를 정상집단과 비교해보았다. 정신분열증환자 30명과 정상인 31명을 대상으로 얼굴 계인 검사와 28개의 얼굴표정에 대한 명명과제를 실시하였다. 연구 결과, 얼굴표정에 대한 명명에서 정신분열증 환자집단은 정상집단에 비해 얼굴표정을 명명하는 일치율이 낮았고 흐뭇함과 두려움을 표현하는 표정을 인식하는데 어려움을 나타냈다. 또한, 28개의 얼굴표정들 중, 정신분열증 환자들은 7개의 표정(흐뭇함 3, 두려움 2, 경멸 1, 나른한 1)을 정상집단과 다른 정서로 명명하였다. 연구 결과를 통해, 정신분열증 환자들은 타인의 얼굴정서를 인식하는데 정상인들과 차이를 나타낸다는 것을 알 수 있었으며 이러한 결과를 토대로 정신분열증 환자들의 타인의 정서인식능력의 결핍에 대해서 논의하였다.

  • PDF

얼굴표정을 통한 감정 분류 및 음악재생 프로그램 (Music player using emotion classification of facial expressions)

  • 윤경섭;이상원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.243-246
    • /
    • 2019
  • 본 논문에서는 감성과 힐링, 머신러닝이라는 주제를 바탕으로 딥러닝을 통한 사용자의 얼굴표정을 인식하고 그 얼굴표정을 기반으로 음악을 재생해주는 얼굴표정 기반의 음악재생 프로그램을 제안한다. 얼굴표정 기반 음악재생 프로그램은 딥러닝 기반의 음악 프로그램으로써, 이미지 인식 분야에서 뛰어난 성능을 보여주고 있는 CNN 모델을 기반으로 얼굴의 표정을 인식할 수 있도록 데이터 학습을 진행하였고, 학습된 모델을 이용하여 웹캠으로부터 사용자의 얼굴표정을 인식하는 것을 통해 사용자의 감정을 추측해낸다. 그 후, 해당 감정에 맞게 감정을 더 증폭시켜줄 수 있도록, 감정과 매칭되는 노래를 재생해주고, 이를 통해, 사용자의 감정이 힐링 및 완화될 수 있도록 도움을 준다.

  • PDF

표정 정규화를 통한 얼굴 인식율 개선 (Improvement of Face Recognition Rate by Normalization of Facial Expression)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제15B권5호
    • /
    • pp.477-486
    • /
    • 2008
  • 얼굴의 기하학적 특징이 변하여 생기는 표정은 얼굴 인식 시스템의 인식 결과에 다양한 영향을 끼친다. 얼굴 인식율을 개선하기 위해 본 연구에서는 인식 대상 얼굴과 참조 얼굴 사이의 표정 차이를 줄이는 방법으로 얼굴 표정 정규화를 제안한다. 본 연구에서는 대형의 이미지 데이터베이스를 구축하지 않고도 한 개의 정지 이미지에 일반적인 얼굴 근육 모델을 이용하는 접근 방식을 제시하여 얼굴 표정 모델링과 정규화를 처리한다. 첫 번째 방식은 본능적으로 변하는 얼굴 표정의 생물학적 모델을 구축하기 위해 선형 근육 모델의 기하학적 계수를 예측하는 것이다. 두 번째 방식은 RBF(Radial Basis Function)기반의 보간과 와핑을 통해 주어진 표정에 따라 얼굴 근육 모델을 무표정한 얼굴로 정규화한 것이다. 실험 결과, 기저얼굴 방식, 지역 이진 패턴 방식, 회색조 상관측정 방식과 같은 얼굴 인식 과정의 전처리 단계로 본 연구의 표정 정규화 과정을 적용하면 정규화를 거치지 않은 것보다 더 높은 인식율을 보인다.

Action Units(AU)를 사용한 애니메이션 캐릭터 표정 분석 (A Study on Expression Analysis of Animation Character Using Action Units(AU))

  • 신현민;원선희;김계영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2008년도 제39차 동계학술발표논문집 16권2호
    • /
    • pp.163-167
    • /
    • 2009
  • 본 논문에서는 크게 2단계에 걸쳐 다양한 형태의 얼굴을 가진 2차원 애니메이션 상의 캐릭터 얼굴구성요소를 추출하고 표정을 분석한다. 첫 번째 단계에서는, 기존의 얼굴인식 및 표정인식 분야에서 이용되었던 동적메쉬모델을 간소화하여 캐릭터 얼굴에 적용하기 위한 최적의 표준 메쉬모델을 제작하고, 이 모델을 사용하여 얼굴구성요소의 위치 및 형태정보를 추출한다. 두 번째 단계에서는, 앞 단계에서 추출된 3가지 얼굴구성요소(눈썹, 눈, 입)를 사용하여 FACS(Facial Action Coding System)에 정의된 AU(Action Units) 44개 중 12개의 AU를 사용하여 캐릭터의 5까지 기본적인 얼굴 표정에 대해 분석 및 정의한다. 본 논문에서 정의한 AU로 기본적인 5가지 얼굴표정에 대해 표정분석 정확도를 측정하였고, 서로 다른 캐릭터에 실험함으로써 제안된 AU정의의 타당성을 제시한다.

  • PDF

얼굴의 기하학적 특징을 이용한 표정 인식 (Facial Expression Recognition using the geometric features of the face)

  • 우효정;이슬기;김동우;송영준;안재형
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2013년도 춘계 종합학술대회 논문집
    • /
    • pp.289-290
    • /
    • 2013
  • 이 논문은 얼굴의 기하학적 특징을 이용한 표정인식 시스템을 제안한다. 먼저 얼굴 인식 시스템으로 Haar-like feature의 특징 마스크를 이용한 방법을 적용하였다 인식된 얼굴은 눈을 포함하고 있는 얼굴 상위 부분과 입을 포함하고 있는 얼굴 하위 부분으로 분리한다. 그래서 얼굴 요소 추출에 용이하게 된다. 얼굴 요소 추출은 PCA를 통한 고유 얼굴의 고유 눈과 고유 입의 템플릿 매칭으로 추출하였다. 얼굴 요소는 눈과 입이 있으며 두 요소의 기하학적 특징을 통하여 표정을 인식한다. 눈과 입의 특징 값은 실험을 통하여 정한 각 표정별 임계 값과 비교하여 표정이 인식된다. 본 논문은 기존의 논문에서 거의 사용하지 않는 눈동자의 비율을 적용하여 기존의 표정인식 알고리즘보다 인식률을 높이는 방향으로 제안되었다. 실험결과 기존의 논문보다 인식률이 개선됨을 확인 할 수 있었다.

  • PDF

표정인식 시스템을 위한 얼굴 특징 영역 추출 (Facial Features Extraction for Recognition System of Facial Expression)

  • 김상준;이성오;박귀태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2003년도 하계학술대회 논문집 D
    • /
    • pp.2564-2566
    • /
    • 2003
  • 표정인식은 컴퓨터 비전 분야에서 중요한 부분을 차지하고 있으며, 현재 꾸준히 연구가 진행되고 있다. 표정인식 시스템은 크게 얼굴 영역 추출과 표정인식 부분으로 나눌 수 있으며, 얼굴 영역 추출은 전체 인식 시스템의 성능에 큰 영향을 미친다. 특히 표정인식 시스템은 일반 얼굴인식 시스템과 다르게 부분적으로나 전체적으로 형태의 변화가 큰 얼굴에 대해서 정확한 얼굴 영역이 확보되지 않으면 높은 인식성능을 기대하기 어렵다. 따라서 표정인식 시스템은 얼굴 영역 추출이 비중한 부분을 차지하고 있다. 본 논문에서는 영상에서 실시간으로 얼굴 영역을 찾아내고, 그 영역에서 얼굴의 특징점인 눈과 입의 위치를 검출하고, 이를 바탕으로 얼굴의 정확한 영역을 확정하는 일련의 과정을 서술한다.

  • PDF

광류와 표정 HMM에 의한 동영상으로부터의 실시간 얼굴표정 인식 (Realtime Facial Expression Recognition from Video Sequences Using Optical Flow and Expression HMM)

  • 전준철;신기한
    • 인터넷정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.55-70
    • /
    • 2009
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 그러한 측면에서 얼굴표정인식에 의한 인간의 심리적 상태를 추론하는 기술은 중요한 이슈이다. 본 연구에서는 감성인식 HMM 모델과 광류에 기반한 얼굴 움직임 추적 방법을 이용하여 동영상으로부터 얼굴표정을 인식하는 새로운 방법을 제시하였다. 특히, 기존의 감성상태 변환을 설명하는 HMM 모델은 특정 표정상태 간의 전환 시 항상 중립 상태를 거치도록 설계되어 있다. 그러나 본 연구에서는 기존의 표정상태 전환 모델에 중간상태를 거치는 과정 없이 특정 표정 상태간의 변환이 가능한 확장된 HMM 모델을 제시한다. 동영상으로부터 얼굴의 특성정보를 추출하기 위하여 탬플릿 매칭과 광류방법을 적용하였다. 광류에 의해 추적된 얼굴의 표정특성 정보는 얼굴표정인식을 위한 HMM의 매개변수 정보로 사용된다. 실험을 통하여 제안된 얼굴표정인식 방법이 실시간 얼굴 표정인식에 효과적임을 입증하였다.

  • PDF

표정-내적상태 상관모형을 위한 얼굴 DB 구축 (Construction of facial database for a facial expression-inner states correlation model)

  • 반세범;한재현;정찬섭
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1997년도 한국감성과학회 연차학술대회논문집
    • /
    • pp.215-219
    • /
    • 1997
  • 내적 감성상태와 표정을 연결하는 상관모형을 개발하기 위\ulcorner 기초자료로서 광범위한 얼굴표정자료를 수집하였다. 다양한 얼굴유형의 표정자료를 DB화하기 위해서는 궁극적으로 50명 이상의 인물표정 자료수집이 필요하다고 보고, 우선 영화배우 10면분의 표정자료를 수집하였다. 이를 위해 표정연기가 자연스럽다고 평가된 영화배우 10명을 선정하고, 이들이 출연한 50여편의 영화비디오에서 표정자료를 수집하였다. 한사람의 인물당 50개의 표정을 한세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 한사람의 인물당 50개의 표정을 한 세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 각각의 표정은 시작-상승-절정-하강-종료의 연속 5단계를 비율적으로 표집하여 동적정보를 포함하고 있다. 이들 자료들은 등자인물의 출연맥락이나 상황별로 분류하여 표정관련 맥락단서를 기록하였고, 후속연구를 통해 각 표정에 대응되는 내적상태를 기록할 수 있도록 DB화 하였다. 이와같이 구조화된 자료들은 표정인식과 합성의 입출력모형을 위한 기초자료로 활용될 뿐 아니라, 한국인의 얼굴 프로토타입 DB구축 및 향후 표정관련 연구의 타당성을 검증할 수 있는 Benchmarking 정보를 제공할 수 있다.

  • PDF

실감 있는 얼굴 표정 애니메이션 및 3차원 얼굴 합성 (Realistics Facial Expression Animation and 3D Face Synthesis)

  • 한태우;이주호;양현승
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.25-31
    • /
    • 1998
  • 컴퓨터 하드웨어 기술과 멀티미디어 기술의 발달로 멀티미디어 입출력 장치를 이용한 고급 인터메이스의 필요성이 대두되었다. 친근감 있는 사용자 인터페이스를 제공하기 위해 실감 있는 얼굴 애니메이션에 대한 요구가 증대되고 있다. 본 논문에서는 사람의 내적 상태를 잘 표현하는 얼굴의 표정을 3차원 모델을 이용하여 애니메이션을 수행한다. 애니메이션에 실재감을 더하기 위해 실제 얼굴 영상을 사용하여 3차원의 얼굴 모델을 변형하고, 여러 방향에서 얻은 얼굴 영상을 이용하여 텍스터 매핑을 한다. 변형된 3차원 모델을 이용하여 얼굴 표정을 애니메이션 하기 위해서 해부학에 기반한 Waters의 근육 모델을 수정하여 사용한다. 그리고, Ekman이 제안한 대표적인 6가지 표정들을 합성한다.

  • PDF