• 제목/요약/키워드: 얼굴감정인식

검색결과 130건 처리시간 0.022초

감정 인식을 위한 얼굴 영상 분석 알고리즘 (Facial Image Analysis Algorithm for Emotion Recognition)

  • 주영훈;정근호;김문환;박진배;이재연;조영조
    • 한국지능시스템학회논문지
    • /
    • 제14권7호
    • /
    • pp.801-806
    • /
    • 2004
  • 감성 인식 기술은 사회의 여러 분야에서 요구되고 있는 필요한 기술이지만, 인식 과정의 어려움으로 인해 풀리지 않는 문제로 낡아있다. 특히 얼굴 영상을 이용한 감정 인식 기술에서 얼굴 영상을 분석하는 기술 개발이 필요하다. 하지만 얼굴분석을 어려움으로 인해 많은 연구가 진행 중이다. 된 논문에서는 감정 인식을 위한 얼굴 영상 분석 알고리즘을 제안한다. 제안된 얼굴 영상 분석 알고리즘은 얼굴 영역 추출 알고리즘과 얼굴 구성 요소 추출 알고리즘으로 구성된다. 얼굴 영역 추출 알고리즘은 다양한 조명 조건에서도 강인하게 얼굴 영역을 추출할 수 있는 퍼지 색상 필터를 사용한 방법을 제안하였다. 또한 얼굴 구성 요소 추출 알고리즘에서는 가상 얼굴 모형을 이용함으로써 보다 정확하고 빠른 얼굴 구성 요소 추출이 가능하게 하였다. 최종적으로 모의실험을 통해 각 알고리즘들의 수행 과정을 살펴보았으며 그 성능을 평가하였다.

얼굴 인식 기반 표정 및 얼굴형 분류 스마트 미러 (Smart Mirror for Based on Facial Recognition Emotion and Face Shape Classification)

  • 성연우;전흥석
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.55-58
    • /
    • 2023
  • 본 논문에서는 스마트 미러 사용자의 얼굴 인식, 표정 인식, 얼굴형 인식을 활용하여 감정에 적절한 멘트와 화장법을 제공하는 시스템의 개발 내용에 관해 기술한다. 이 시스템을 사용함으로써 사람들은 자신의 감정을 정확하게 인지할 뿐만 아니라 위로와 공감을 받을 수 있으며, 자신의 스타일에 적절한 화장법을 추천받을 수 있다. 스마트 미러를 통해, 사용자는 자기 이해도가 늘어나게 되어 스스로에게 더욱 집중할 수 있고 화장법을 찾는 시간이나 화장에 실패할 가능성이 줄어들어 시간과 비용을 절약할 수 있게 될 것이다.

  • PDF

얼굴영상을 이용한 한국인과 일본인의 감정 인식 비교 (Emotion Recognition of Korean and Japanese using Facial Images)

  • 이대종;안의숙;박장환;전명근
    • 한국지능시스템학회논문지
    • /
    • 제15권2호
    • /
    • pp.197-203
    • /
    • 2005
  • 본 논문에서는 얼굴영상을 이용하여 한국인과 일본인의 감정인식에 대하여 연구하였다. 얼굴의 감정인식을 위하여 심리학자인 Ekman과 Friesen의 연구에 의해 문화에 영향을 받지 않고 공통으로 인식하는 6개의 기본 감정인 기쁨, 슬픔, 화남, 놀람, 공포, 혐오를 바탕으로 실험하였다. 감정인식에서 입력영상은 이산 웨이블렛을 기반으로 한 다해상도 분석기법을 사용하여 데이터 수를 압축한 후, 각각의 영상에서 주성분분석기법 및 선형판별분석기법에 의해 얼굴의 감정특징을 추출하였다. 실험결과 한국인과 일본인 모두 "기쁨", "슬픔", "화남" 감정은 비교적 인식률이 높은 반면에 "놀람", "공포", "혐오" 감정은 인식률이 저조하게 나타냈다. 특히, 일본인의 경우 "혐오" 감정이 가장 저조한 결과를 나타냈으며, 전반적으로 한국인에 비해 일본인의 감정인식결과가 낮은 것으로 나타났다.

인간의 감정을 인지하는 안드로이드 기반 컨텍스트폰 (An Android based Contextphone to aware Human Emotion)

  • 류윤지;김상욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.558-561
    • /
    • 2010
  • 컨텍스트폰은 사용자의 주변 상황을 실시간으로 수집하고 시각화하는 휴대전화이며 인간의 여섯 번째 감각 도구로써 신체의 일부가 되고 있다. 이에 따라 사용자에 특화된 상황 인지 기능을 지원하는 모바일 플랫폼 기술이 많이 연구되고 있다. 하지만 모바일 기기간의 상호작용이 아니라 사용자간의 소셜 인터랙션을 지원하는 모바일 플랫폼 연구는 미비하며 감정 등의 고수준 정보는 지원하지 않는다. 따라서 본 논문에서는 감정을 포함한 다양한 정보들을 지원하는 컨텍스트폰 플랫폼을 이용하여 사용자간의 감정을 공유 할 수 있는 컨텍스트폰에 대해 기술한다. 또한 사용자의 감정을 인식하기 위해 컨텍스트폰 플랫폼은 휴대전화 카메라를 이용하여 사용자의 얼굴이미지를 수집하고 감정인식기로 전달한다. 감정인식기는 사용자의 얼굴을 특징추출하여 패턴인식에 적용되는 분류분석 알고리즘을 통해 사용자의 감정을 알아내고 컨텍스트 서버를 매개체로 사용자간 감정을 전달하며 모바일 화면에 시각화한다.

얼굴 열화상 기반 감정인식을 위한 CNN 학습전략 (Divide and Conquer Strategy for CNN Model in Facial Emotion Recognition based on Thermal Images)

  • 이동환;유장희
    • 한국소프트웨어감정평가학회 논문지
    • /
    • 제17권2호
    • /
    • pp.1-10
    • /
    • 2021
  • 감정인식은 응용 분야의 다양성으로 많은 연구가 이루어지고 있는 기술이며, RGB 영상은 물론 열화상을 이용한 감정인식의 필요성도 높아지고 있다. 열화상의 경우는 RGB 영상과 비교해 조명 문제에 거의 영향을 받지 않는 장점이 있으나 낮은 해상도로 성능 높은 인식 기술을 필요로 한다. 본 논문에서는 얼굴 열화상 기반 감정인식의 성능을 높이기 위한 Divide and Conquer 기반의 CNN 학습전략을 제안하였다. 제안된 방법은 먼저 분류가 어려운 유사 감정 클래스를 confusion matrix 분석을 통해 동일 클래스 군으로 분류하도록 학습시키고, 다음으로 동일 클래스 군으로 분류된 감정 군을 실제 감정으로 다시 인식하도록 문제를 나누어서 해결하는 방법을 사용하였다. 실험을 통하여, 제안된 학습전략이 제시된 모든 감정을 하나의 CNN 모델에서 인식하는 경우보다 모든 실험에서 높은 인식성능을 보이는 것을 확인하였다.

상반신 추적 기술 기반 감정 인식 시스템 (Emotion Recognition System based on Upper Body Tracking)

  • 오지훈;유선진;이민규;임우택;안충현;이상윤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 하계학술대회
    • /
    • pp.284-285
    • /
    • 2013
  • Kinect를 통해 Color영상과 Depth영상을 받아온 후, 사람과 사람의 스켈레톤이 검출되도록 했다. 스켈레톤이 검출되면 머리 위치를 중심으로 얼굴 유효영역을 만들고, 효율적인 얼굴 검출로 사용자 인식이 가능하도록 했다. 스켈레톤 검출 및 추적을 통해, 4가지 감정에 대해 제스쳐를 정의했으며, 각 감정에 따른 제스쳐를 취했을 때 정의한 감정이 인식되는지 실험했다. 실험 결과, 제스쳐를 통한 감정 인식 성공률이 86~88% 나왔으며, 이 제스쳐 인식이 다른 감정인식 방법과 융합될 필요가 있다.

  • PDF

Active Shape Model과 통계적 패턴인식기를 이용한 얼굴 영상 기반 감정인식 (Video-based Facial Emotion Recognition using Active Shape Models and Statistical Pattern Recognizers)

  • 장길진;조아라;박정식;서용호
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권3호
    • /
    • pp.139-146
    • /
    • 2014
  • 본 논문에서는 얼굴 영상으로부터 자동으로 사람의 감정을 인식하는 효과적인 방법을 제안한다. 얼굴 표정으로부터 감정을 파악하기 위해서는 카메라로부터 얼굴영상을 입력받고, ASM (active shape model)을 이용하여 얼굴의 영역 및 얼굴의 주요 특징점을 추출한다. 추출한 특징점으로부터 각 장면별로 49차의 크기 및 변이에 강인한 특징벡터를 추출한 후, 통계기반 패턴분류 방법을 사용하여 얼굴표정을 인식하였다. 사용된 패턴분류기는 Naive Bayes, 다중계층 신경회로망(MLP; multi-layer perceptron), 그리고 SVM (support vector machine)이며, 이중 SVM을 이용하였을 때 가장 높은 최종 성능을 얻을 수 있었으며, 6개의 감정분류에서 50.8%, 3개의 감정분류에서 78.0%의 인식결과를 보였다.

동적얼굴영상으로부터 감정인식에 관한 연구 (A Study on Emotion Recognition from a Active Face Images)

  • 이명원;곽근창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.295-297
    • /
    • 2011
  • 본 논문에서는 동적얼굴영상으로부터 감정인식을 위해 벡터 표현 보다는 직접적인 텐서 표현으로 특징들을 추출하는 텐서 기반 다선형 주성분분석(MPCA: Multilinear Principal Component Analysis) 기법을 사용한다. 사람 6가지의 얼굴 표정을 사용하는데 한 사람의 각 표정마다 5프레임으로 묶어서 텐서 형태로 취하여 특징을 추출하고 인식한다. 시스템의 성능 평가는 CNU 얼굴 감정인식 데이터베이스를 이용하여 특징점 개수와 성능척도에 따른 실험을 수행하여 제시된 방법의 유용성에 관해 살펴본다.

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.