• 제목/요약/키워드: Face expression

검색결과 453건 처리시간 0.025초

Viola & Jones 얼굴 검출 알고리즘의 성능 분석 (Performance Analysis of Viola & Jones Face Detection Algorithm)

  • 오정수;허훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.477-480
    • /
    • 2018
  • Viola와 Jones의 객체 검출 알고리즘은 대표적인 얼굴 검출 알고리즘이다. 알고리즘은 얼굴 표현을 위해 하르-유사 특징들을 사용하고 분류를 위해 약분류기들의 선형 조합인 강분류기들로 구성된 cascade-Adaboost 알고리즘을 사용하고 있다. 이 알고리즘은 구현을 위해 몇 개의 변수 설정을 요구하고 설정된 값들이 알고리즘 성능에 영향을 준다. 본 논문은 알고리즘에 설정되는 변수에 따른 얼굴 검출 성능을 분석한다.

  • PDF

색상요소를 고려한 얼굴검출에 대한 연구 (A study of face detection using color component)

  • 이정하;강진석;최연성;김장형
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 추계종합학술대회
    • /
    • pp.240-243
    • /
    • 2002
  • 본 논문에서는 칼라 이미지에서 색상 요소를 기초로 하여 얼굴영역을 추출하고 얼굴의 특징요소를 추출하는 방법을 제안한다. 얼굴 영역을 추출하기 위하여 일반적인 얼굴색상분포를 이용하여 색상변환을 하였다. 얼굴 특성요소를 찾기 위하여 윤곽선검출을 이용하였다. 얼굴영역의 상단부분에서 눈의 요소를 찾고, 눈과 입의 지정학적 위치를 이용하여 입의 후보영역을 지정하고 입을 찾도록 하였다. 검색영역을 좁혀 계산량을 줄임으로서 탐색시간을 줄일 수 있고, 일반적인 얼굴색상분포를 이용하여 얼굴 영역을 검출함으로서 얼굴표정, 얼굴색변화, 기울짐에 대해서도 얼굴영역을 검출할 수 있었다.

  • PDF

다차원 데이터의 동적 얼굴 이미지그래픽 표현 (Representation of Dynamic Facial ImageGraphic for Multi-Dimensional)

  • 최철재;최진식;조규천;차홍준
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권10호
    • /
    • pp.1291-1300
    • /
    • 2001
  • 이 논문은 실시간 변화가 가능한 동적 그래픽스를 기반하며, 인간의 감성적 인식을 위해서 이미지 영상을 다차원 데이터의 그래픽 요소로 조작하는 시각화 표현 기법으로 연구되었다. 이 구현의 중요한 사상은 사람의 얼굴 특징 점과 기존의 화상 인식 알고리즘을 바탕으로 획득한 모수 제어 값을 다차원 데이터에 대응시켜 그 변화하는 수축 표정에 따라 감성 표현의 가상 이미지를 생성하는 이미지그래픽으로 표현한다. 제안된 DyFIG 시스템은 감성적인 표현을 할 수 있는 얼굴 그래픽의 모듈을 제안하고 구현하며, 조작과 실험을 통해 감성 데이터 표현 기술과 기법이 실현 가능함을 보인다.

  • PDF

Image-based Realistic Facial Expression Animation

  • Yang, Hyun-S.;Han, Tae-Woo;Lee, Ju-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.133-140
    • /
    • 1999
  • In this paper, we propose a method of image-based three-dimensional modeling for realistic facial expression. In the proposed method, real human facial images are used to deform a generic three-dimensional mesh model and the deformed model is animated to generate facial expression animation. First, we take several pictures of the same person from several view angles. Then we project a three-dimensional face model onto the plane of each facial image and match the projected model with each image. The results are combined to generate a deformed three-dimensional model. We use the feature-based image metamorphosis to match the projected models with images. We then create a synthetic image from the two-dimensional images of a specific person's face. This synthetic image is texture-mapped to the cylindrical projection of the three-dimensional model. We also propose a muscle-based animation technique to generate realistic facial expression animations. This method facilitates the control of the animation. lastly, we show the animation results of the six represenative facial expressions.

에지 방향 정보를 이용한 LDP 코드 개선에 관한 연구 (A Study of Improving LDP Code Using Edge Directional Information)

  • 이태환;조영탁;안용학;채옥삼
    • 전자공학회논문지
    • /
    • 제52권7호
    • /
    • pp.86-92
    • /
    • 2015
  • 본 논문에서는 지역적인 에지의 방향 정보와 반응 크기, 주변 화소와의 밝기값 차이를 LDP 코드에 포함함으로써 얼굴 표정 인식률을 향상시킨다. 기존 LDP 코드를 사용하면 LBP에 비해서 영상의 밝기 변화에 덜 민감하고 잡음에 강한 장점을 가진다. 하지만, 밝기 변화가 없는 매끄러운 영역의 정보를 표현하기 어렵고, 배경에 얼굴과 유사한 에지 패턴이 존재하는 경우에는 인식률이 저하되는 문제점이 있다. 따라서 에지 방향 정보를 기반으로 에지 강도 및 밝기값을 추가할 수 있도록 LDP 코드를 개선하고, 인식률을 측정한다.

Conveying Emotions Through CMC: A Comparative Study of Memoji, Emoji, and Human Face

  • Eojin Kim;Yunsun Alice Hong;Kwanghee Han
    • 감성과학
    • /
    • 제26권4호
    • /
    • pp.93-102
    • /
    • 2023
  • Emojis and avatars are widely used in online communications, but their emotional conveyance lacks research. This study aims to contribute to the field of emotional expression in computer-mediated communication (CMC) by exploring the effectiveness of emotion recognition, the intensity of perceived emotions, and the perceived preferences for emojis and avatars as emotional expression tools. The following were used as stimuli: 12 photographs from the Yonsei-Face database, 12 Memojis that reflected the photographs, and 6 iOS emojis. The results of this study indicate that emojis outperformed other forms of emotional expression in terms of conveying emotions, intensity, and preference. Indeed, the study findings confirm that emojis remain the dominant form of emotional signals in CMC. In contrast, the study revealed that Memojis were inadequate as an expressive emotional cue. Participants did not perceive Memojis to effectively convey emotions compared with other forms of expression, such as emojis or real human faces. This suggests room for improvement in the design and implementation of Memojis to enhance their effectiveness in accurately conveying intended emotions. Addressing the limitations of Memojis and exploring ways to optimize their emotional expressiveness necessitate further research and development in avatar design.

얼굴로봇 Buddy의 기능 및 구동 메커니즘 (Functions and Driving Mechanisms for Face Robot Buddy)

  • 오경균;장명수;김승종;박신석
    • 로봇학회논문지
    • /
    • 제3권4호
    • /
    • pp.270-277
    • /
    • 2008
  • The development of a face robot basically targets very natural human-robot interaction (HRI), especially emotional interaction. So does a face robot introduced in this paper, named Buddy. Since Buddy was developed for a mobile service robot, it doesn't have a living-being like face such as human's or animal's, but a typically robot-like face with hard skin, which maybe suitable for mass production. Besides, its structure and mechanism should be simple and its production cost also should be low enough. This paper introduces the mechanisms and functions of mobile face robot named Buddy which can take on natural and precise facial expressions and make dynamic gestures driven by one laptop PC. Buddy also can perform lip-sync, eye-contact, face-tracking for lifelike interaction. By adopting a customized emotional reaction decision model, Buddy can create own personality, emotion and motive using various sensor data input. Based on this model, Buddy can interact probably with users and perform real-time learning using personality factors. The interaction performance of Buddy is successfully demonstrated by experiments and simulations.

  • PDF

데이터 퓨전을 이용한 얼굴영상 인식 및 인증에 관한 연구 (2D Face Image Recognition and Authentication Based on Data Fusion)

  • 박성원;권지웅;최진영
    • 한국지능시스템학회논문지
    • /
    • 제11권4호
    • /
    • pp.302-306
    • /
    • 2001
  • 얼굴인식은 이미지의 많은 변동(표정, 조명, 얼굴의 방향 등)으로 인해 한 가지 인식 방법으로는 높은 인식률을 얻기 어렵다. 이러한 어려움을 해결하기 위해, 여러 가지 정보를 융합시키는 데이터 퓨전 방법이 연구되었다. 기존의 데이터 퓨전 방법은 보조적인 생체 정보(지문, 음성 등)를 융합하여 얼굴인식기를 보조하는 방식을 취하였다. 이 논문에서는 보조적인, 생체 정보를 사용하지 않고, 기존의 얼굴인식방법을 통해 얻어지는 상호보완적인 정보를 융합하여 사용하였다. 개별적인 얼굴인식기의 정보를 융합하기 위해, 전체적으로는 Dempster-Shafer의 퓨전이론에 근거하면서, 핵심이 되는 질량함수를 새로운 방식으로 재정의학 퓨전모델을 제안하였다. 제안된 퓨전모델을 사용하여 개별적인 얼굴인식기의 정보를 융합한 결과, 보조적인 생체정보 없이, 개별적인 얼굴인식기보다 나은 인식률을 얻을 수 있었다.

  • PDF

가버 텐서를 이용한 얼굴인식 성능 개선 (Efficiency Improvement on Face Recognition using Gabor Tensor)

  • 박경준;고형화
    • 한국통신학회논문지
    • /
    • 제35권9C호
    • /
    • pp.748-755
    • /
    • 2010
  • 본 논문은 가버 텐서(Gabor tensor)를 이용한 얼굴인식 시스템을 제안하였다. 가버 변환은 얼굴 고유의 특징을 잘 나타내주며 외부적인 영향을 줄일 수 있어 인식률 향상에 기여한다. 이러한 특징을 이용한 3차원의 텐서를 구성하여 얼굴인식을 수행하는 방법을 제안한다. 3차원의 가버 텐서를 입력으로 하여 기존의 1차원이나 2차원 주성분 분석법(PCA)보다 다양한 특징을 이용할 수 있는 다중선형 주성분 분석법(Multilinear PCA)를 수행한 다음 선형 판별법(LDA)을 수행하는 얼굴인식 방법을 제안하였다. 이러한 방법들은 표정이나 조명등의 변화에 강인한 특성을 가진다. 제안한 방법은 매트랩(Matlab)을 이용하여 실험하였다. ORL과 Yale 데이터베이스를 이용한 실험 결과를 기존의 방법들과 비교하였을 경우 제안한 방법이 기본적인 1차원 주성분 분석법보다 최대 9~27% 향상된 우수한 인식성능을 나타냄을 확인할 수 있었다.

얼굴 인식의 성능 향상을 위한 혼합형 신경회로망 연구 (A study of hybrid neural network to improve performance of face recognition)

  • 정성부;김주웅
    • 한국정보통신학회논문지
    • /
    • 제14권12호
    • /
    • pp.2622-2627
    • /
    • 2010
  • 24시간 무인 감시 시스템에서 정확한 얼굴 인식은 절대적으로 필요한 요소이다. 그러나 얼굴 인식은 얼굴 영상의 왜곡, 조명, 얼굴의 크기, 얼굴 표정, 배경 영상 등의 변화로 인해 많은 제약이 있다. 본 연구에서는 얼굴 인식의 성능 향상을 위하여 혼합형 신경회로망을 제안한다. 제안한 방식은 신경회로망의 비지도학습 방식인 SOM과 LVQ 알고리즘을 이용하여 구성한다. 제안한 방식의 유용성을 확인하기 위하여 고유얼굴 방식, 은닉 마코프 모델 방식, 다층 신경회로망 방식과 비교한다.