• 제목/요약/키워드: face expression recognition

검색결과 197건 처리시간 0.026초

한국인 표준 얼굴 표정 이미지의 감성 인식 정확률 (The Accuracy of Recognizing Emotion From Korean Standard Facial Expression)

  • 이우리;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제14권9호
    • /
    • pp.476-483
    • /
    • 2014
  • 본 논문은 국내 표정 연구에 적합한 얼굴 표정 이미지를 제작하는 것에 목적을 두었다. 이를 위해서 1980년대 태생의 한국인의 표준 형상에 FACS-Action Unit을 결합하여, KSFI(Korean Standard Facial Image) AU set를 제작하였다. KSFI의 객관성을 확보하기 위해 6가지 기본 감성(슬픔, 행복, 혐오, 공포, 화남, 놀람) 이미지를 제작하여, 감성 별 인식 정확률과 얼굴 요소의 감성인식 기여도를 평가하였다. 실험 결과, 정확률이 높은 행복, 놀람, 슬픔, 분노의 이미지의 경우 주로 눈과 입의 얼굴 요소를 통해 감성을 판단하였다. 이러한 연구 결과를 통해 본 연구에서는 표정 이미지의 AU 변경할 수 있는 KSFI 콘텐츠를 제안하였다. 향후 KSFI가 감성 인식률 향상에 기여할 수 있는 학습 콘텐츠로서의 역할을 할 수 있을 것으로 사료된다.

얼굴표정과 음성을 이용한 감정인식 (An Emotion Recognition Method using Facial Expression and Speech Signal)

  • 고현주;이대종;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.799-807
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정과 음성 속에 담긴 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 혐오, 공포)에 대한 특징을 추출하고 인식하고자 한다. 이를 위해 얼굴표정을 이용한 감정인식에서는 이산 웨이블렛 기반 다해상도 분석을 이용하여 선형판별분석기법으로 특징을 추출하고 최소 거리 분류 방법을 이용하여 감정을 인식한다. 음성에서의 감정인식은 웨이블렛 필터뱅크를 이용하여 독립적인 감정을 확인한 후 다중의사 결정 기법에 외해 감정인식을 한다. 최종적으로 얼굴 표정에서의 감정인식과 음성에서의 감정인식을 융합하는 단계로 퍼지 소속함수를 이용하며, 각 감정에 대하여 소속도로 표현된 매칭 감은 얼굴에서의 감정과 음성에서의 감정별로 더하고 그중 가장 큰 값을 인식 대상의 감정으로 선정한다.

3D 캐릭터를 이용한 감정 기반 헤드 로봇 시스템 (Emotional Head Robot System Using 3D Character)

  • 안호석;최정환;백영민;샤밀;나진희;강우성;최진영
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.328-330
    • /
    • 2007
  • Emotion is getting one of the important elements of the intelligent service robots. Emotional communication can make more comfortable relation between humans and robots. We developed emotional head robot system using 3D character. We designed emotional engine for making emotion of the robot. The results of face recognition and hand recognition is used for the input data of emotional engine. 3D character expresses nine emotions and speaks about own emotional status. The head robot has memory of a degree of attraction. It can be chaIU!ed by input data. We tested the head robot and conform its functions.

  • PDF

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

데이터와 적용되는 알고리즘의 연관성을 이용한 클러스터링 기법 (Clustering Technique Using Relevance of Data and Applied Algorithms)

  • 한우연;남미영;이필규
    • 정보처리학회논문지B
    • /
    • 제12B권5호
    • /
    • pp.577-586
    • /
    • 2005
  • 영상 처리와 패턴 인식 그리고 컴퓨터 비젼 분야의 가장 성공적인 응용들 중 하나인 얼굴 인식을 위해 많은 알고리즘이 제안되었고, 최근에는 얼굴의 어떤 속성이 대상을 인식하는 것을 더 쉽거나 어렵게 만드는지에 대한 연구가 진행되고 있다. 본 논문에서는 얼굴의 속성(조명, 표정)에 따라 각각의 알고리즘의 인식 성능이 달라지는 점에 착안해서, 얼굴 데이터와 적용된 알고리즘과의 연관성을 이용하여 인식 성능을 높이는 클러스터링 방법을 제안하였다. 실험에서는 인식 알고리즘으로 n-tuple, PCA 그리고 가보 웨이블릿이 사용되었고, 세 가지 벡터화 방법이 제안되었다. 우선 학습 데이터를 k-means 알고리즘을 이용하여 클러스터링하고 각각의 클러스터에 대한 세 가지 인식 알고리즘의 적합도를 평가한 후, 같은 알고리즘을 선택한 클러스터들을 통합하여 새로운 클러스터를 구성한다. 그리고 테스트 데이터에서 새로운 클러스터에 대한 유사도를 평가하여 가장 가까운 클러스터가 선택한 알고리즘으로 인식을 수행한다. 그 결과 클러스터링 과정을 거치지 않고 단일 알고리즘을 사용하여 인식했을 때보다 인식 성능이 향상된 것을 관찰할 수 있다.

공포와 놀람 표정인식을 이용한 위험상황 인지 (Risk Situation Recognition Using Facial Expression Recognition of Fear and Surprise Expression)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.523-528
    • /
    • 2015
  • 본 논문은 얼굴의 표정 인식을 이용한 위험상황 인지 알고리즘을 제안한다. 제안방법은 인간의 다양한 감정 표정 중 위험상황을 인지하기 위한 표정인 놀람과 공포의 표정을 인식한다. 제안방법은 먼저 얼굴 영역을 추출하고 검출된 얼굴 영역으로부터 눈 영역과 입술 영역을 추출한다. 각 영역에 유니폼 LBP 방법을 적용하여 표정을 판별하고 위험 상황을 인식한다. 제안방법은 표정인식을 위해 사용되는 Cohn-Kanade 데이터베이스 영상을 대상으로 성능을 평가하였다. 이 데이터베이스는 사람의 기본표정인 웃는 표정, 슬픈 표정, 놀란 표정, 화난 표정, 역거운 표정, 공포 표정 등 6가지의 표정영상을 포함하고 있다. 그 결과 표정 인식에 좋은 결과를 보였으며 이를 이용하여 위험상황을 잘 판별하였다.

쾌 및 각성차원 기반 얼굴 표정인식 (Facial expression recognition based on pleasure and arousal dimensions)

  • 신영숙;최광남
    • 인지과학
    • /
    • 제14권4호
    • /
    • pp.33-42
    • /
    • 2003
  • 본 논문은 내적상태의 차원모형을 기반으로 한 얼굴 표정인식을 위한 새로운 시스템을 제시한다. 얼굴표정 정보는 3단계로 추출된다. 1단계에서는 Gabor 웨이브렛 표상이 얼굴 요소들의 경계선을 추출한다. 2단계에서는 중립얼굴상에서 얼굴표정의 성긴 특징들이 FCM 군집화 알고리즘을 사용하여 추출된다. 3단계에서는 표정영상에서 동적인 모델을 사용하여 성긴 특징들이 추출된다. 마지막으로 다층 퍼셉트론을 사용하여 내적상태의 차원모델에 기반한 얼굴표정 인식을 보인다. 정서의 이차원 구조는 기본 정서와 관련된 얼굴표정의 인식 뿐만 아니라 다양한 정서의 표정들로 인식할 수 있음을 제시한다.

  • PDF

HEEAS: 감정표현 애니메이션 알고리즘과 구현에 관한 연구 (HEEAS: On the Implementation and an Animation Algorithm of an Emotional Expression)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제6권3호
    • /
    • pp.125-134
    • /
    • 2006
  • 본 논문은 음성이 인간에게 전달되어 나타나는 여러 가지 감정 표현 중에서 단지 4가지 감정 즉 두려움, 싫증, 놀람 그리고 중성에 대한 감정 표현이 얼굴과 몸동작에 동시에 나타내는 애니메이션 시스템인 HEEAS(Human Emotional Expression Animation System)를 구현하는데 그 주된 목적이 있다. 이를 위해서 본 논문에서는 감정 표현이 풍부한 한국인 20대 청년을 모델로 설정하였다. 또한 입력되어진 음성 신호를 통해서 추출된 감정표현에 대한 데이터를 얼굴코드와 몸동작코드를 부여하고 이를 데이터 베이스화 하여 실제 애니메이션 구현을 하기 위한 처리의 시간을 최소화하였다. 즉, 입력되어진 음성 신호를 이용해서 원하는 결과인 얼굴, 몸동작에 대한 자료를 이진 검색을 이용해서 데이터베이스에서 찾으므로 검색 시간을 최소화하였다. 실제 감정 표현에 대한문제들을 실험을 통해서 얻은 결과가 99.9%의 정확도임을 알 수가 있었다.

  • PDF

얼굴색 정보를 포함하기 위한 LDP 코드 설계에 관한 연구 (A Study on LDP Code Design to includes Facial Color Information)

  • 정웅경;이태환;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권7호
    • /
    • pp.9-15
    • /
    • 2014
  • 본 논문에서는 기존 LDP 코드의 문제점을 보완하고 화소의 색상 정보와 밝기 정보, 에지 방향 정보, 그리고 에지 반응 크기 정보를 포함할 수 있는 새로운 LDP를 제안한다. 제안된 방법은 얼굴색 정보를 포함하기 위해 기존 LDP 코드를 줄이는 방법을 제안하고 그 결과를 분석하였다. 새로운 LDP 코드는 기존 LDP 코드와 달리 6비트로 표현함으로써 나머지 2비트에 필요로 하는 정보를 포함할 수 있도록 하였으며, 기존 LDP 코드에 비해서 잡음과 환경 변화에 효과적으로 적응할 수 있도록 하였다. 실험 결과 제안된 LDP 코드는 기존 방법들에 비해 높은 인식률 향상과 얼굴 표정인식 결과에서도 효과적임을 보여주었다.

Multi-Frame Face Classification with Decision-Level Fusion based on Photon-Counting Linear Discriminant Analysis

  • Yeom, Seokwon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제14권4호
    • /
    • pp.332-339
    • /
    • 2014
  • Face classification has wide applications in security and surveillance. However, this technique presents various challenges caused by pose, illumination, and expression changes. Face recognition with long-distance images involves additional challenges, owing to focusing problems and motion blurring. Multiple frames under varying spatial or temporal settings can acquire additional information, which can be used to achieve improved classification performance. This study investigates the effectiveness of multi-frame decision-level fusion with photon-counting linear discriminant analysis. Multiple frames generate multiple scores for each class. The fusion process comprises three stages: score normalization, score validation, and score combination. Candidate scores are selected during the score validation process, after the scores are normalized. The score validation process removes bad scores that can degrade the final output. The selected candidate scores are combined using one of the following fusion rules: maximum, averaging, and majority voting. Degraded facial images are employed to demonstrate the robustness of multi-frame decision-level fusion in harsh environments. Out-of-focus and motion blurring point-spread functions are applied to the test images, to simulate long-distance acquisition. Experimental results with three facial data sets indicate the efficiency of the proposed decision-level fusion scheme.