• 제목/요약/키워드: 얼굴표정 인식기술

검색결과 66건 처리시간 0.022초

간단한 얼굴 방향성 검출방법 (A Simple Way to Find Face Direction)

  • 박지숙;엄성용;조현희;정민교
    • 한국멀티미디어학회논문지
    • /
    • 제9권2호
    • /
    • pp.234-243
    • /
    • 2006
  • 최근 급속한 HCI(Human-Computer Interaction) 및 감시 기술의 발달로, 얼굴영상을 처리하는 다양한 시스템들에 대한 관심이 높아지고 있다. 그러나 이런 얼굴영상을 처리하는 시스템들에 대한 연구는 주로 얼굴인식이나 얼굴 표정분석과 같은 분야에 집중되었고, 얼굴의 방향성 검출과 같은 분야에는 많은 연구가 수행되지 못하였다. 본 논문은 두 눈썹과 아래 입술로 구성된 얼굴삼각형(Facial Triangle)이라는 특징을 이용하여 얼굴의 방향성을 쉽게 측정하는 방법을 제안한다. 특히, 하나의 이미지만을 사용하여 얼굴의 수평 회전각과 수직 회전각을 구하는 간단한 공식을 소개한다. 수평회전각은 좌 우 얼굴삼각형간의 면적비율을 이용하여 계산하고, 수직회전각은 얼굴삼각형의 밑변과 높이 비율을 이용하여 계산한다. 실험을 통해, 제안하는 방법은 오차범위 ${\pm}1.68^{\circ}$ 내에서 수평회전각을 구할 수 있었고, 수직회전각은 회전각이 증가할수록 오류가 줄어드는 경향을 보여주었다.

  • PDF

감성 인식 컴퓨팅 기술을 적용한 이러닝 상호작용 기술 연구 (Enhancing e-Learning Interactivity vla Emotion Recognition Computing Technology)

  • 박정현;김인옥;정상목;송기상;김종백
    • 컴퓨터교육학회논문지
    • /
    • 제11권2호
    • /
    • pp.89-98
    • /
    • 2008
  • 학습자와 이러닝 시스템 사이의 상호작용은 이러닝 시스템의 효율성을 결정짓는 중요한 요소이다. 기존의 웹기반 콘텐츠의 경우에도 다양한 상호작용 기능이 채용되고 있지만 학습자들은 인간-컴퓨터 상호작용 기술의 한계에 따른 실시간 인간 교사로부터 받는 것과 같은 피드백을 경험하는 것은 한계가 있다. 본 논문에서는 학습자의 얼굴 표정을 이용하여 감정을 인식하는 시스템을 개발하고 튜터링 시스템에 통합시켰다. 관찰되는 학습자의 감정 변화에 대하여 인간 교사가 하듯이 적합한 피드백 메시지를 제공하여 이러닝 환경에서 나타날 수 있는 학습자의 고립감을 제거할 수 있도록 하였다. 본 체제를 실제 수업에 도입한 결과 학업 성취도의 개선과 이러닝 학습의 흥미도 개선이 유의미하게 이루어질 수 있음을 보였다.

  • PDF

SIFT 특징을 이용하여 중첩상황에 강인한 AAM 기반 얼굴 추적 (Robust AAM-based Face Tracking with Occlusion Using SIFT Features)

  • 엄성은;장준수
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.355-362
    • /
    • 2010
  • 얼굴추적은 3차원 공간상에서 머리(head)와 안면(face)의 움직임을 추정하는 기술로, 얼굴 표정 감정인식과 같은 상위 분석단계의 중요한 기반기술이다. 본 논문에서는 AAM 기반의 얼굴추적 알고리즘을 제안한다. AAM은 변형되는 대상을 분할하고 추적하는데 광범위하게 적용되고 있다. 그러나 여전히 여러 가지 해결해야할 제약사항들이 있다. 특히 자체중첩(self-occlusion)과 부분적인 중첩, 그리고 일시적으로 완전히 가려지는 완전중첩 상황에서 보통 국부해에 수렴(local convergence)하거나 발산하기 쉽다. 본 논문에서는 이러한 중첩상황에 대한 AAM의 강인성을 향상시키기 위해서 SIFT 특징을 이용하고 있다. SIFT는 일부 영상의 특징점으로 안정적인 추적이 가능하기 때문에 자체와 부분중첩에 효과적이며, 완전중첩의 상황에도 SIFT의 전역적인 매칭성능으로 별도의 재초기화 없이 연속적인 추적이 가능하다. 또한 추적과정에서 큰 자세변화에 따른 움직임을 효과적으로 추정하기 위해서 다시점(multi-view) 얼굴영상의 SIFT 특징을 온라인으로 등록하여 활용하고 있다. 제안한 알고리즘의 이러한 강인성은 위 세 가지 중첩상황에 대해서 기존 알고리즘들과의 비교실험을 통해서 보여준다.

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.

엔터테인먼트 로봇을 위한 음성으로부터 감정 인식 및 표현 모듈 개발 (Development of Emotion Recognition and Expression module with Speech Signal for Entertainment Robot)

  • 문병현;양현창;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.82-85
    • /
    • 2007
  • 현재 가정을 비롯한 여러 분야에서 서비스 로봇(청소 로봇, 애완용 로봇, 멀티미디어 로봇 둥)의 사용이 증가하고 있는 시장상황을 보이고 있다. 개인용 서비스 로봇은 인간 친화적 특성을 가져야 그 선호도가 높아질 수 있는데 이를 위해서 사용자의 감정 인식 및 표현 기술은 필수적인 요소이다. 사람들의 감정 인식을 위해 많은 연구자들은 음성, 사람의 얼굴 표정, 생체신호, 제스쳐를 통해서 사람들의 감정 인식을 하고 있다. 특히, 음성을 인식하고 적용하는 것에 관한 연구가 활발히 진행되고 있다. 본 논문은 감정 인식 시스템을 두 가지 방법으로 제안하였다. 현재 많이 개발 되어지고 있는 음성인식 모듈을 사용하여 단어별 감정을 분류하여 감정 표현 시스템에 적용하는 것과 마이크로폰을 통해 습득된 음성신호로부터 특정들을 검출하여 Bayesian Learning(BL)을 적용시켜 normal, happy, sad, surprise, anger 등 5가지의 감정 상태로 패턴 분류를 한 후 이것을 동적 감정 표현 알고리즘의 입력값으로 하여 dynamic emotion space에 사람의 감정을 표현할 수 있는 ARM 플랫폼 기반의 음성 인식 및 감정 표현 시스템 제안한 것이다.

  • PDF

Local Prominent Directional Pattern을 이용한 얼굴 사진과 스케치 영상 성별인식 방법 (Local Prominent Directional Pattern for Gender Recognition of Facial Photographs and Sketches)

  • ;채옥삼
    • 융합보안논문지
    • /
    • 제19권2호
    • /
    • pp.91-104
    • /
    • 2019
  • 본 논문에서는 성별 인식을 위해 얼굴 영상을 효과적으로 기술하는 새로운 지역 패턴 방법 Local Prominent Directional Pattern (LPDP)를 제안한다. 제안된 LPDP 방법은 성별 인식에 중요한 얼굴 모양을 명확하게 구분하기 위해 주변 패턴이 누적된 히스토그램을 통계적으로 분석하고 패턴 변화가 크게 발생하는 픽셀을 부호화 한다. 통계적인 정보를 사용하는 얼굴 모양 구분에 중요한 뚜렷한 에지 방향 패턴 영역을 구분하는 중요한 정보를 제공 할 수 있다. 이는 뚜렷한 에지 방향 패턴이 나타나는 영역의 주변도 유사한 에지 방향 패턴이 나타내기 때문에 통계적으로 특정 방향이 히스토그램에 많이 누적될 수 있기 때문이다. 또한 통계적인 방법은 주변 영역의 정보를 많이 수용하기 때문에 잡음으로 발생하는 에지 방향 변화 오류에 강력한 장점이 있다. 제안된 방법은 기존 방법들 보다 더 강력한 성별인식에 중요한 얼굴 모양 구분 능력을 보여주면서 국소적으로 발생하는 잡음에 견고함을 보여준다. 우리는 제안된 방법의 성능을 평가하기 위해 밝기, 표정, 연령, 머리 포즈가 변화하는 성별 인식 데이터 셋에 다양한 실험을 실험 했고 기존 방법 보다 제안된 방법의 성능이 우수함을 입증했다.

동안이미지 연출을 위한 동안 메이크업에 관한 연구 (A study on baby face makeup to create a baby face image)

  • 김용신
    • 한국응용과학기술학회지
    • /
    • 제40권1호
    • /
    • pp.146-159
    • /
    • 2023
  • 동안 이미지를 위한 메이크업 기법으로서 일반적인 사항에 따라 동안 메이크업의 표현 기법에 대한 인식의 차이가 있을 것이다.' '전체적인 특성에 따라 동안 메이크업 표현 기법에 대한 인식의 차이가 있을 것'이라는 두 가지 가설이 뒷받침되었으며, 동안 이미지를 연출하기 위한 메이크업 기법은 남녀 모두에게 중요한 기능임은 물론, 외모로. 사회활동을 위한 '신체적 자원'으로 일상생활에서 심신의 능률향상과 정신능력의 현저한 향상이 있음을 확인하였다. 동안 이미지 메이크업 표현'에 대한 연구 결과를 통해 동안 이미지에 대한 인식과 관심은 높지만 동안 이미지 제작에 대한 연구가 필요하다. 동안 메이크업을 위한 표정 요소의 필요성은 동안 이미지 개발을 위한 기초자료로 활용될 것으로 예상되며, 본 연구는 동안 이미지 및 동안 메이크업을 위한 외적 얼굴 관리에 중점을 두었다.

양측성 안구운동이 조현병 환자의 얼굴 재인에 미치는 영향 (The Effect of Bilateral Eye Movements on Face Recognition in Patients with Schizophrenia)

  • 이나현;김지웅;임우영;이상민;임상현;권혁찬;김민영;김기웅;김승준
    • 정신신체의학
    • /
    • 제24권1호
    • /
    • pp.102-108
    • /
    • 2016
  • 연구목적 조현병 환자의 흔한 신경인지적 결함 중 대표적인 것으로 재인 기억의 손상을 들 수 있다. 또한 조현병 환자에게서는 일반인에게 관찰되는 정서 자극에 대한 기억 증진 현상이 명확하게 나타나지 않는다. 한편, 기억 검사 시행 전 양측성 안구운동을 수행할 경우 일반적인 재인 기억뿐만 아니라 정서가를 가진 자극에 대한 기억이 보다 향상되는 것으로 알려져 있다. 본 연구에서는 이러한 양측성 안구운동의 기억 향상 효과가 조현병 환자에게서도 나타나는지를 알아보고자 하였다. 방 법 조현병 환자 21명이 연구에 참여하였다. 참여자들은 일주일 간격으로 두 번 분노 표정 혹은 무표정을 보이는 얼굴 사진들을 학습한 후 양측성 안구운동 혹은 안구 고정 조건을 무작위 순서로 거쳐 이전에 학습한 사진에 대한 재인 과제를 시행하였다. 양측성 안구운동 여부 및 얼굴 사진 표정 차이에 따른 인식 정확도, 반응 편향성, 정답 반응 시간의 차이를 이원 반복측정 분산분석을 사용하여 분석하였다. 결 과 조현병 환자는 양측성 안구운동을 시행한 경우 그렇지 않은 경우에 비해 통계적으로 유의미하게 얼굴 재인 과제에서 정답 반응 시간이 단축되었고(F=5.812, p<0.05), 반응 편향성이 완화되었다(F=10.366, p<0.01). 조현병 환자가 얼굴 재인 과제 수행 시 양측성 안구운동 조건과 얼굴 자극 표정 조건 간의 상호작용은 통계적으로 유의미하지 않았다. 결 론 본 연구 결과는 양측성 안구운동이 조현병 환자의 일반적인 재인 기억 능력을 촉진시킬 수 있으나 정서 자극의 처리를 보다 촉진시키지는 못함을 보여준다. 향후 신경생리학적 혹은 신경영상학적 검사 등의 추가 연구를 통해 이러한 기억 촉진 효과의 생물학적 기전을 밝혀야 할 것이다.

다중 분류기의 판정단계 융합에 의한 얼굴인식 (Multi-classifier Decision-level Fusion for Face Recognition)

  • 염석원
    • 대한전자공학회논문지SP
    • /
    • 제49권4호
    • /
    • pp.77-84
    • /
    • 2012
  • 얼굴인식 기술은 지능형 보안, 웹에서 콘텐츠 검색, 지능로봇의 시각부분, 머신인터페이스 등, 활용이 광범위 하다. 그러나 일반적으로 대상자의 표정과 포즈 변화, 주변의 조명 환경과 같은 문제가 있으며 이와 더불어 원거리에서 획득한 영상의 경우 저해상도를 비롯하여 블러와 잡음에 의한 영상의 열화 등의 여러 가지 어려움이 발생한다. 본 논문에서는 포톤 카운팅(Photon-counting) 선형판별법(Linear Discriminant Analysis)을 이용한 다중 분류기(Classifier)에 의한 판정을 융합하여 얼굴 영상 인식을 수행한다. Fisher 선형판별법은 집단 간 분산을 최대로 하고 집단 내 분산을 최소로 하는 공간으로 선형 투영하는 방법으로, 학습영상의 수가 적을 경우 특이행렬 문제가 발생하지만 포톤카운팅 선형 판별법은 이러한 문제가 없으므로 차원축소를 위한 전 처리 과정이 필요 없다. 본 논문의 다중 분류기는 포톤 카운팅 선형판별법의 유클리드 거리(Euclidean Distance) 또는 정규화된 상관(Normalized Correlation)을 적용하는 판정규칙에 따라 구성된다. 다중분류기의 판정의 융합은 각 분류기 cost의 정규화(Normalization), 유효화(Validation), 그리고 융합규칙(Fusion Rule)으로 구성된다. 각 분류기에서 도출된 cost는 같은 범위로 정규화된 후 유효화 과정에서 선별되고 Minimum, 또는 Average, 또는 Majority-voting의 융합규칙에 의하여 융합된다. 실험에서는 원거리에서 획득한 효과를 구현하기 위하여 고해상도 데이터베이스 영상을 인위적으로 Unfocusing과 Motion 블러를 이용하여 열화하여 테스트하였다. 실험 결과는 다중분류기 융합결과의 인식률은 단일분류기보다 높다는 것을 보여준다.

딥 러닝 기술 이용한 얼굴 표정 인식에 따른 이모티콘 추출 연구 (A Study on the Emoticon Extraction based on Facial Expression Recognition using Deep Learning Technique)

  • 정봉재;장범
    • 한국인공지능학회지
    • /
    • 제5권2호
    • /
    • pp.43-53
    • /
    • 2017
  • In this paper, the pattern of extracting the same expression is proposed by using the Android intelligent device to identify the facial expression. The understanding and expression of expression are very important to human computer interaction, and the technology to identify human expressions is very popular. Instead of searching for the emoticons that users often use, you can identify facial expressions with acamera, which is a useful technique that can be used now. This thesis puts forward the technology of the third data is available on the website of the set, use the content to improve the infrastructure of the facial expression recognition accuracy, in order to improve the synthesis of neural network algorithm, making the facial expression recognition model, the user's facial expressions and similar e xpressions, reached 66%.It doesn't need to search for emoticons. If you use the camera to recognize the expression, itwill appear emoticons immediately. So this service is the emoticons used when people send messages to others, and it can feel a lot of convenience. In countless emoticons, there is no need to find emoticons, which is an increasing trend in deep learning. So we need to use more suitable algorithm for expression recognition, and then improve accuracy.