• Title/Summary/Keyword: facial expression analysis

Search Result 164, Processing Time 0.032 seconds

The Influence of Female Consumer's Cosmetics Purchase Experience on Image-making Efficacy and Cosmetics Pursuit Benefits (여성소비자의 화장품구매체험이 이미지메이킹 효능감과 화장품추구혜택에 미치는 영향)

  • Park, Eun-Hee;Lee, Sang-Joo
    • Journal of the Korea Fashion and Costume Design Association
    • /
    • v.17 no.4
    • /
    • pp.131-144
    • /
    • 2015
  • The object of this study was to find out the influence of female consumers' cosmetics purchase experience on image-making efficacy and cosmetics pursuit benefits. Total 405 surveys of women working at the industrial complex in Daegu-Kyoungbuk area were used for data analysis. Frequency, factor analysis, reliability analysis, regression analysis, and ${\chi}^2$-test were used for data analysis. Our findings are as follows. Cosmetics purchase experience of female consumers had factors as recognition experience, relationship experience, emotional experience, visit experience, and sensual experience. The factors of image-making efficacy were self-confidence in displaying, ability of facial expression and display ability while those of cosmetics purchase experience turned out to be trend/brand pursuit, appearance improvement pursuit, functionality pursuit and economic feasibility pursuit. Cosmetics purchase experience was found to have significant effects on the factors of image-making efficacy, and cosmetics purchase experience on factors of cosmetics pursuit benefits. The differences by ages variable was examined with relation to the level of make-up and how they chose products when buying.

  • PDF

Face Recognition Based on Facial Landmark Feature Descriptor in Unconstrained Environments (비제약적 환경에서 얼굴 주요위치 특징 서술자 기반의 얼굴인식)

  • Kim, Daeok;Hong, Jongkwang;Byun, Hyeran
    • Journal of KIISE
    • /
    • v.41 no.9
    • /
    • pp.666-673
    • /
    • 2014
  • This paper proposes a scalable face recognition method for unconstrained face databases, and shows a simple experimental result. Existing face recognition research usually has focused on improving the recognition rate in a constrained environment where illumination, face alignment, facial expression, and background is controlled. Therefore, it cannot be applied in unconstrained face databases. The proposed system is face feature extraction algorithm for unconstrained face recognition. First of all, we extract the area that represent the important features(landmarks) in the face, like the eyes, nose, and mouth. Each landmark is represented by a high-dimensional LBP(Local Binary Pattern) histogram feature vector. The multi-scale LBP histogram vector corresponding to a single landmark, becomes a low-dimensional face feature vector through the feature reduction process, PCA(Principal Component Analysis) and LDA(Linear Discriminant Analysis). We use the Rank acquisition method and Precision at k(p@k) performance verification method for verifying the face recognition performance of the low-dimensional face feature by the proposed algorithm. To generate the experimental results of face recognition we used the FERET, LFW and PubFig83 database. The face recognition system using the proposed algorithm showed a better classification performance over the existing methods.

An Emotion Recognition and Expression Method using Facial Image and Speech Signal (음성 신호와 얼굴 표정을 이용한 감정인식 몇 표현 기법)

  • Ju, Jong-Tae;Mun, Byeong-Hyeon;Seo, Sang-Uk;Jang, In-Hun;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.04a
    • /
    • pp.333-336
    • /
    • 2007
  • 본 논문에서는 감정인식 분야에서 가장 많이 사용되어지는 음성신호와 얼굴영상을 가지고 4개의(기쁨, 슬픔, 화남, 놀람) 감정으로 인식하고 각각 얻어진 감정인식 결과를 Multi modal 기법을 이용해서 이들의 감정을 융합한다. 이를 위해 얼굴영상을 이용한 감정인식에서는 주성분 분석(Principal Component Analysis)법을 이용해 특징벡터를 추출하고, 음성신호는 언어적 특성을 배재한 acoustic feature를 사용하였으며 이와 같이 추출된 특징들을 각각 신경망에 적용시켜 감정별로 패턴을 분류하였고, 인식된 결과는 감정표현 시스템에 작용하여 감정을 표현하였다.

  • PDF

A Study on Expression Analysis of Animation Character Using Action Units(AU) (Action Units(AU)를 사용한 애니메이션 캐릭터 표정 분석)

  • Shin, Hyun-Min;Weon, Sun-Hee;Kim, Gye-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.163-167
    • /
    • 2009
  • 본 논문에서는 크게 2단계에 걸쳐 다양한 형태의 얼굴을 가진 2차원 애니메이션 상의 캐릭터 얼굴구성요소를 추출하고 표정을 분석한다. 첫 번째 단계에서는, 기존의 얼굴인식 및 표정인식 분야에서 이용되었던 동적메쉬모델을 간소화하여 캐릭터 얼굴에 적용하기 위한 최적의 표준 메쉬모델을 제작하고, 이 모델을 사용하여 얼굴구성요소의 위치 및 형태정보를 추출한다. 두 번째 단계에서는, 앞 단계에서 추출된 3가지 얼굴구성요소(눈썹, 눈, 입)를 사용하여 FACS(Facial Action Coding System)에 정의된 AU(Action Units) 44개 중 12개의 AU를 사용하여 캐릭터의 5까지 기본적인 얼굴 표정에 대해 분석 및 정의한다. 본 논문에서 정의한 AU로 기본적인 5가지 얼굴표정에 대해 표정분석 정확도를 측정하였고, 서로 다른 캐릭터에 실험함으로써 제안된 AU정의의 타당성을 제시한다.

  • PDF

Recognizing Facial Expression Using 1-order Moment and Principal Component Analysis (1차 모멘트와 주요성분분석을 이용한 얼굴표정 인식)

  • Cho Yong-Hyun;Hong Seung-Jun
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.05a
    • /
    • pp.405-408
    • /
    • 2006
  • 본 논문에서는 영상의 1차 모멘트와 주요성분분석을 이용한 효율적인 얼굴표정 인식방법을 제안하였다. 여기서 1차 모멘트는 영상의 중심이동을 위한 전처리 과정으로 인식에 불필요한 배경의 배제와 계산시간의 감소로 인식성능을 개선하기 위함이다. 또한 주요성분분석은 얼굴표정의 특징인 고유영상을 추출하는 것으로, 이는 2차의 통계성을 고려한 중복신호의 제거로 인식성능을 개선하기 위함이다. 제안된 방법을 각각 320*243 픽셀의 48개(4명*6장*2그룹) 얼굴표정을 대상으로 Euclidean 분류척도를 이용하여 실험한 결과 전처리를 수행하지 않는 기존 방법보다 우수한 인식성능이 있음을 확인하였다.

  • PDF

Recognizing Facial Expression Using Centroid Shift and Independent Component Analysis (중심이동과 독립성분분석에 의한 얼굴표정 인식)

  • Cho Yong-Hyun;Hong Seung-Jun;Park Yong-Soo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.05a
    • /
    • pp.401-404
    • /
    • 2006
  • 본 논문에서는 영상의 중심이동과 독립성분분석에 의한 효율적인 표정 인식방법을 제안하였다. 여기서 중심이동은 얼굴영상의 1차 모멘트에 의한 전처리 과정으로 불필요한 배경을 배제시켜 계산시간의 감소 및 인식률을 개선하기 위함이다. 또한 독립성분분석은 얼굴표정의 특징으로 기저영상을 추출하는 것으로 고차의 통계성을 고려한 중복신호의 제거로 인식성능을 개선하기 위함이다. 제안된 방법을 320*243 픽셀의 48개(4명*6장*2그룹) 표정을 대상으로 Euclidean 분류척도를 이용하여 실험한 결과, 전처리를 수행치 않는 기존방법에 비해 우수한 인식성능이 있음을 확인하였다.

  • PDF

An Analysis of Face Recognition Methods for Recognition of Game Player's Facial Expression (게임 사용자 얼굴표정 인식을 위한 얼굴인식 기법 분석)

  • Yoo, Chae-Gon
    • Journal of Korea Game Society
    • /
    • v.3 no.2
    • /
    • pp.19-23
    • /
    • 2003
  • 컴퓨터 기술의 발전에 따라서 게임분야 역시 다양한 첨단 기술이 적용되고 있다. 예를 들면 강력한 3D가속 기능을 가진 비디오카드, 5.1 채널 사운드, 포스피드백 지원 입력 장치, 운전대, 적외선 센서, 음성 감지기 등이 게임의 입출력 인터페이스로서 이용되고 있다. 전형적인 방법 이외에도 광학방식이나 휴대용 게임기에 대한 플레이 방식에 대한 연구도 활발하다. 최근에는 비디오 게임기에도 사람의 동작을 인식하여 게임의 입력으로 받아들이는 기술이 상용화되기도 하였다. 본 논문에서는 이런 발전 방향을 고려하여 차세대 게임 인터페이스의 방식으로서 사용될 수 있는 사람의 표정 인식을 통한 인터페이스 구현을 위한 접근 방법들에 대하여 고찰을 하고자 한다. 사람의 표정을 입력으로 사용하는 게임은 심리적인 변화를 게임에 적용시킬 수 있으며, 유아나 장애자들이 게임을 플레이하기 위한 수단으로도 유용하게 사용될 수 있다. 영상을 통한 자동 얼굴 인식 및 분석 기술은 다양한 응용분야에 적용될 수 있는 관계로 많은 연구가 진행되어 왔다. 얼굴 인식은 동영상이나 정지영상과 같은 영상의 형태, 해상도, 조명의 정도 등에 따른 요소에 의하여 인식률이나 인식의 목적이 달라진다. 게임플레이어의 표정인식을 위해서는 얼굴의 정확한 인식 방법을 필요로 하며, 이를 위한 비교적 최근의 연구 동향을 살펴보고자 한다.

  • PDF

Face Recognition Using Feature Information and Neural Network

  • Chung, Jae-Mo;Bae, Hyeon;Kim, Sung-Shin
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2001.10a
    • /
    • pp.55.2-55
    • /
    • 2001
  • The statistical analysis of the feature extraction and the neural networks are proposed to recognize a human face. In the preprocessing step, the normalized skin color map with Gaussian functions is employed to extract the region efface candidate. The feature information in the region of face candidate is used to detect a face region. In the recognition step, as a tested, the 360 images of 30 persons are trained by the backpropagation algorithm. The images of each person are obtained from the various direction, pose, and facial expression, Input variables of the neural networks are the feature information that comes from the eigenface spaces. The simulation results of 30 persons show that the proposed method yields high recognition rates.

  • PDF

Development of a 1:1 Presentation Coaching Application (1:1 발표력 코칭 애플리케이션의 개발)

  • Wi, Seung-Hyun;Moon, Mi-kyeong
    • Journal of IKEEE
    • /
    • v.22 no.4
    • /
    • pp.992-998
    • /
    • 2018
  • Presentation is a technique that is logically and confidently conveying your thoughts and opinions in front of others. It is essential when you go to school or work. However, it takes a lot of time, money, and effort to improve your presentation skills. In this paper, we describe the development of a presentation coaching application that analyzes the presentation practice video. The application program can analyze the presentation time, the speaker's expression, the use of duplicate words, etc.

Product Images Attracting Attention: Eye-tracking Analysis

  • Pavel Shin;Kil-Soo Suh;Hyunjeong Kang
    • Asia pacific journal of information systems
    • /
    • v.29 no.4
    • /
    • pp.731-751
    • /
    • 2019
  • This study examined the impact of various product photo features on the attention of potential consumers in online apparel retailers' environment. Recently, the method of apparel's product photo representation in online shopping stores has been changed a lot from the classic product photos in the early days. In order to investigate if this shift is effective in attracting consumers' attention, we examined the related theory and verified its effect through laboratory experiments. In particular, experiment data was collected and analyzed using eye tracking technology. According to the results of this study, it was shown that the product photos with asymmetry are more attractive than symmetrical photos, well emphasized object within a photo more attractive than partially emphasized, smiling faces are more attractive for customer than emotionless and sad, and photos with uncentered models focus more consumer's attention than photos with model in the center. These results are expected to help design internet shopping stores to gaze more customers' attention.