• 제목/요약/키워드: Facial recognition

검색결과 716건 처리시간 0.026초

시청자 참여형 양방향 TV 방송을 위한 얼굴색 영역 및 모션맵 기반 포스처 인식 (Posture Recognition for a Bi-directional Participatory TV Program based on Face Color Region and Motion Map)

  • 황선희;임광용;이수웅;유호영;변혜란
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권8호
    • /
    • pp.549-554
    • /
    • 2015
  • 최근 자연스러운 인터페이스 하드웨어의 증가와 더불어 사용자의 자세를 인식하는 콘텐츠 산업이 부상하고 있다. 컴퓨터 비전 기술은 고가 하드웨어 장치의 대안으로 콘텐츠 산업의 발전에 효율적이다. 본 논문에서는 생방송으로 진행되는 시청자 참여형 양방향 TV 프로그램에 적합한 시청자의 포스처를 인식하는 방법을 제안한다. 제안하는 방법은 검출된 얼굴 위치에서 획득한 사용자 얼굴색과 모션맵을 사용하여 사용자의 손 위치를 안정적으로 검출하고, 위치 관계 분석을 통해 포스처를 인식한다. 제안하는 방법은 복잡한 배경에서도 생방송 양방향 TV 프로그램에서 사용되는 세 가지 자세를 인식하는데 90%의 인식 성능이 나타나는 것을 실험을 통해 확인하였다.

중심이동과 독립기저영상을 이용한 얼굴인식 (Face Recognitions Using Centroid Shift and Independent Basis Images)

  • 조용현
    • 한국지능시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.581-587
    • /
    • 2005
  • 본 논문에서는 1차 모멘트와 뉴우턴법의 고정점 알고리즘 독립성분분석을 조합한 얼굴인식 기법을 제안하였다. 여기서 1차 모멘트는 입력되는 얼굴영상의 중심좌표를 계산하는 것이며, 이는 얼굴을 중심 이동하여 인식에 불필요한 배경을 배제시킴으로써 인식성능을 개선시키기 위함이다. 고정점 알고리즘의 독립성분분석은 통계적으로 독립인 얼굴특징들의 집합인 기저영상을 빠르게 얻기 위함이다. 제안된 기법을 64*64 픽셀의 48개(12명*4장) 얼굴영상을 대상으로 city-block, Euclidean, 그리고 negative angle의 3가지 거리 척도를 분류척도로 이용하여 실험하였다. 실험결과, 제안된 기법은 전처리과정을 거치지 않는 단순히 독립기저영상만을 이용하는 기법보다 우수한 인식성능이 있음을 확인하였다. 특히 city-block이 Euclidean이나 negative angle의 거리척도보다 상대적으로 정확하게 유사성을 측정할 수 있었다.

멀티 뷰 기법 리뷰: 이해와 응용 (Multi-view learning review: understanding methods and their application)

  • 배강일;이영섭;임창원
    • 응용통계연구
    • /
    • 제32권1호
    • /
    • pp.41-68
    • /
    • 2019
  • 멀티 뷰 기법은 데이터를 다양한 관점에서 보려는 접근 방법이며 데이터의 다양한 정보를 통합하여 사용하려는 시도이다. 최근 많은 연구가 진행되고 있는 멀티 뷰 기법에서는 단일 뷰 만을 이용하여 모형을 학습시켰을 때 보다 좋은 성과를 보인 경우가 많았다. 멀티 뷰 기법에서 딥 러닝 기법의 도입으로 이미지, 텍스트, 음성, 영상 등 다양한 분야에서 좋은 성과를 보였다. 본 연구에서는 멀티 뷰 기법이 인간 행동 인식, 의학, 정보 검색, 표정 인식 분야에서 직면한 여러 가지 문제들을 어떻게 해결하고 있는지 소개하였다. 또한 전통적인 멀티 뷰 기법들을 데이터 차원, 분류기 차원, 표현 간의 통합으로 분류하여 멀티 뷰 기법의 데이터 통합 원리를 리뷰 하였다. 마지막으로 딥 러닝 기법 중 가장 범용적으로 사용되고 있는 CNN, RNN, RBM, Autoencoder, GAN 등이 멀티 뷰 기법에 어떻게 응용되고 있는지를 살펴보았다. 이때 CNN, RNN 기반 학습 모형을 지도학습 기법으로, RBM, Autoencoder, GAN 기반 학습 모형을 비지도 학습 기법으로 분류하여 이 방법들이 대한 이해를 돕고자 하였다.

시선추적 장치를 활용한 부정적 감정표현 이모티콘의 시각적 주의집중도 분석 (Analysis of Visual Attention in Negative Emotional Expression Emoticons using Eye-Tracking Device)

  • 박민희;권만우;황미경
    • 한국멀티미디어학회논문지
    • /
    • 제24권11호
    • /
    • pp.1580-1587
    • /
    • 2021
  • Currently, the development and sale of various emoticons has given users a wider range of choices, but a systematic and specific approach to the recognition and use of emoticons by actual users is lacking. Therefore, this study tried to investigate the subjective perception and visual attention concentration of actual users on negative emotional expression emoticons through a survey and eye tracking experiment. First, as a result of subjective recognition analysis, it was found that emoticons are frequently used because their appearance is important, and they can express various emotions in a fun and interesting way. In particular, it was found that emoticons that express negative emotions are often used because they can indirectly express negative emotions through various and concretely expressed visual elements. Next, as a result of the eye tracking experiment, it was found that the negative emotional expression emoticons focused on the large elements that visually emphasized or emphasized the emotional expression elements, and it was found that the focus was not only on the facial expression but also on the physical behavioral responses and language of expression of emotions. These results will be used as basic data to understand users' perceptions and utilization of the diversified emoticons. In addition, for the long-term growth and activation of the emoticon industry market in the future, continuous research should be conducted to understand the various emotions of real users and to develop differentiated emoticons that can maximize the empathy effect appropriate to the situation.

조명 변화, 얼굴 표정 변화에 강인한 얼굴 인식 방법 (A Face Recognition Method Robust to Variations in Lighting and Facial Expression)

  • 양희성;김유호;이준호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권2호
    • /
    • pp.192-200
    • /
    • 2001
  • 본 논문은 조명 변화, 표정 변화, 부분적인 오클루전이 있는 얼굴 영상에 강인하고 적은 메모리양과 계산량을 갖는 효율적인 얼굴 인식 방법을 제안한다. SKKUface(Sungkyunkwan University face)라 명명한 이 방법은 먼저 훈련 영상에 PCA(principal component analysis)를 적용하여 차원을 줄일 때 구해지는 특징 벡터 공간에서 조명 변화, 얼굴 표정 변화 등에 해당되는 공간이 최대한 제외된 새로운 특징 벡터 공간을 생성한다. 이러한 특징 벡터 공간은 얼굴의 고유특징만을 주로 포함하는 벡터 공간이므로 이러한 벡터 공간에 Fisher linear discriminant를 적용하면 클래스간의 더욱 효과적인 분리가 이루어져 인식률을 획기적으로 향상시킨다. 또한, SKKUface 방법은 클래스간 분산(between-class covariance) 행렬과 클래스내 분산(within-class covariance) 행렬을 계산할 때 문제가 되는 메모리양과 계산 시간을 획기적으로 줄이는 방법을 제안하여 적용하였다. 제안된 SKKUface 방법의 얼굴 인식 성능을 평가하기 위하여 YALE, SKKU, ORL(Olivetti Research Laboratory) 얼굴 데이타베이스를 가지고 기존의 얼굴 인식 방법으로 널리 알려진 Eigenface 방법, Fisherface 방법과 함께 인식률을 비교 평가하였다. 실험 결과, 제안된 SKKUface 방법이 조명 변화, 부분적인 오클루전이 있는 얼굴 영상에 대해서 Eigenface 방법과 Fisherface 방법에 비해 인식률이 상당히 우수함을 알 수 있었다.

  • PDF

표정 인식을 위한 얼굴의 표정 특징 추출 (Facial Expression Feature Extraction for Expression Recognition)

  • 김영일;김정훈;홍석근;조석제
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.537-540
    • /
    • 2005
  • 본 논문에서는 사람의 감정, 건강상태, 정신상태등 다양한 정보를 포함하고 있는 웃음, 슬픔, 졸림, 놀람, 윙크, 무표정 등의 표정을 인식하기 위한 표정의 특징이 되는 얼굴의 국부적 요소인 눈과 입을 검출하여 표정의 특징을 추출한다. 표정 특징의 추출을 위한 전체적인 알고리즘 과정으로는 입력영상으로부터 칼라 정보를 이용하여 얼굴 영역을 검출하여 얼굴에서 특징점의 위치 정보를 이용하여 국부적 요소인 특징점 눈과 입을 추출한다. 이러한 특징점 추출 과정에서는 에지, 이진화, 모폴로지, 레이블링 등의 전처리 알고리즘을 적용한다. 레이블 영역의 크기를 이용하여 얼굴에서 눈, 눈썹, 코, 입 등의 1차 특징점을 추출하고 누적 히스토그램 값과 구조적인 위치 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확한 눈과 입을 추출한다. 표정 변화에 대한 표정의 특징을 정량적으로 측정하기 위해 추출된 특징점 눈과 입의 눈과 입의 크기와 면적, 미간 사이의 거리 그리고 눈에서 입까지의 거리 등 기하학적 정보를 이용하여 6가지 표정에 대한 표정의 특징을 추출한다.

  • PDF

유비쿼터스 환경을 위한 하프미러형 인터페이스 시스템 개발과 응용 (Development of Half-Mirror Interface System and Its Application for Ubiquitous Environment)

  • 권영준;김대진;이상완;변증남
    • 제어로봇시스템학회논문지
    • /
    • 제11권12호
    • /
    • pp.1020-1026
    • /
    • 2005
  • In the era of ubiquitous computing, human-friendly man-machine interface is getting more attention due to its possibility to offer convenient services. For this, in this paper, we introduce a 'Half-Mirror Interface System (HMIS)' as a novel type of human-friendly man-machine interfaces. Basically, HMIS consists of half-mirror, USB-Webcam, microphone, 2ch-speaker, and high-speed processing unit. In our HMIS, two principal operation modes are selected by the existence of the user in front of it. The first one, 'mirror-mode', is activated when the user's face is detected via USB-Webcam. In this mode, HMIS provides three basic functions such as 1) make-up assistance by magnifying an interested facial component and TTS (Text-To-Speech) guide for appropriate make-up, 2) Daily weather information provider via WWW service, 3) Health monitoring/diagnosis service using Chinese medicine knowledge. The second one, 'display-mode' is designed to show decorative pictures, family photos, art paintings and so on. This mode is activated when the user's face is not detected for a time being. In display-mode, we also added a 'healing-window' function and 'healing-music player' function for user's psychological comfort and/or relaxation. All these functions are accessible by commercially available voice synthesis/recognition package.

허프 변환과 분리필터를 이용한 홍채 검출 (Iris detection using Hough transform and separable filter)

  • 김태우;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권2호
    • /
    • pp.3-11
    • /
    • 2010
  • 본 논문에서는 얼굴에서 양 눈의 홍채를 검출하기 위한 새로운 알고리즘을 제안하고자 한다. 제안된 방법은 분리 필터를 이용하여 소영역을 먼저 추출하고, 그 중 쌍을 이루고 있는 소영역에 대하여 허프 변환과 분리 필터 값을 연산한다. 제안된 알고리즘은 허프 변환과 분리 필터 값을 최소로 하는 소영역 쌍을 선택하여 양 눈의 홍채로 검출하게 된다. 안경을 착용하지 않은 150장의 얼굴영상을 가지고 제안된 방법으로 실험한 결과 최고 97.3%, 최저 95.3%의 성공률을 얻을 수 있었다.

  • PDF

다차원 데이터의 동적 얼굴 이미지그래픽 표현 (Representation of Dynamic Facial ImageGraphic for Multi-Dimensional)

  • 최철재;최진식;조규천;차홍준
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권10호
    • /
    • pp.1291-1300
    • /
    • 2001
  • 이 논문은 실시간 변화가 가능한 동적 그래픽스를 기반하며, 인간의 감성적 인식을 위해서 이미지 영상을 다차원 데이터의 그래픽 요소로 조작하는 시각화 표현 기법으로 연구되었다. 이 구현의 중요한 사상은 사람의 얼굴 특징 점과 기존의 화상 인식 알고리즘을 바탕으로 획득한 모수 제어 값을 다차원 데이터에 대응시켜 그 변화하는 수축 표정에 따라 감성 표현의 가상 이미지를 생성하는 이미지그래픽으로 표현한다. 제안된 DyFIG 시스템은 감성적인 표현을 할 수 있는 얼굴 그래픽의 모듈을 제안하고 구현하며, 조작과 실험을 통해 감성 데이터 표현 기술과 기법이 실현 가능함을 보인다.

  • PDF

피로 인식을 위한 베이지안 네트워크 모델 (Bayesian Network Model for Human Fatigue Recognition)

  • 이영식;박호식;배철수
    • 한국통신학회논문지
    • /
    • 제30권9C호
    • /
    • pp.887-898
    • /
    • 2005
  • 본 논문에서는 피로를 인식하기 위하여 베이지안 네트워크를 기반으로 한 확률 모델을 제안하고자 한다. 먼저 적외선 조명을 조사하여 눈거풀의 움직임, 시선 방향, 얼굴의 움직임 및 얼굴 표정 같은 얼굴특징정보를 측정하였다. 그러나 각각의 얼굴특징정보만으로 생체 피로를 결정하기에는 충분하지 않다. 그러므로, 본 논문에서는 생체 피로를 확률적 추론하기 위하여 가능한 많은 피로 원인에 대한 정보와 얼굴특징정보들로 베이지안 네트워크 모델을 구성하여 BN 피로지수를 산출하였다. 또한, BN 피로지수의 문턱치값은 MSBNX 시물레이션 결과 0.95로 산출되었다. 실험 결과 BN 피로지수와 TOVA 응답 시간을 비교한 결과 밀접한 상관관계가 있음을 확인하여 제안한 피로인식모델의 유효성을 입증하였다.