• 제목/요약/키워드: Facial Expression Space

검색결과 48건 처리시간 0.025초

모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권3호
    • /
    • pp.9-16
    • /
    • 2007
  • 본 논문은 Isomap 알고리즘을 사용하여 다량의 고차원 얼굴 모션 데이터를 2차원 평면에 분포시키는 방법론과, 사용자가 이 공간을 항해하면서 원하는 표정들을 선택함으로써 실시간적으로 얼굴 표정 제어가 가능한 사용자 인터페이스 기법에 대하여 기술한다. Isomap 알고리즘은 세 단계의 과정으로 처리된다. 첫째, 각 표정 데이터의 인접표정을 정의하고, 둘째, 각 표정들 사이의 다양체 거리를 계산하여 표정공간을 구성한다. 표정공간의 생성은 임의의 두 표정간의 최단거리(다양체 거리)의 결정으로 귀결되고, 이를 위해 플로이드 알고리즘을 이용한다. 셋째, 다차원 표정공간을 가시화하기 위해서 다차원 스케일링을 사용하며, 2차원 평면에 투영시킨다. 인접표정을 정의하기 위한 최소 인접거리는 피어슨의 상관계수를 이용한다. 3차원 아바타의 얼굴 표정 제어는 사용자 인터페이스를 사용하여 2차원 공간을 항해하면서 실시간으로 제어한다.

효과적인 로봇 행동 생성을 위한 선형의 정서-표정 공간 내 감정 경계의 결정 -비선형의 제스처 동기화를 위한 정서, 표정 공간의 영역 결정 (The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation)

  • 조수훈;이희승;박정우;김민규;정영진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.540-546
    • /
    • 2008
  • 미래에는 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 사람간의 교류에서 메세지의 93%가 행동 표현에 있으며, 바디 랭귀지는 감정의 양을 표현하므로 행동 표현은 중요한 감정 표현 수단이다. 최근의 로봇들은 얼굴, 제스처, LED, 소리 등의 복합적 방법을 이용하여 사람과 교류하고 있지만 포즈는 위치와 방위, 얼굴이나 제스처는 속도, 말이나 색 풍은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어렵다. 한편 작은 세기의 감정에서, 얼굴은 쉽게 표현이 가능하지만 제스처는 표현이 힘들다. 또한 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 본 논문에서는 정서 공간에서 감정의 경계를 어떻게 정의할 것이며, 복합적 표현 방법을 시스템적으로 어떻게 동기화할 수 있을지를 제안한다.

  • PDF

뉴미디어 아트에 나타난 비언어적 표현 -표정과 소리의 사례연구를 중심으로 (Nonverbal Expressions in New Media Art -Case Studies about Facial Expressions and Sound)

  • 유미;안경희
    • 한국콘텐츠학회논문지
    • /
    • 제19권10호
    • /
    • pp.146-156
    • /
    • 2019
  • 뉴미디어 아트는 장소와 시간적 제약에서 벗어나 테크놀로지의 혜택을 예술로 승화하고 관람자와 새로운 소통 방식을 제시한다. 본 논문은 초기의 뉴미디어 아트에서 나타난 비언어적 의사소통 방식의 경향을 분석하고자 표정과 소리에 관한 사례들을 연구했다. 결과적으로 뉴미디어 아트에 나타난 디지털 패러다임은 비선형성 사고를 갖게 하여 몰입과 지각적 분절감을 느끼게 하였음을 발견하였다. 뉴미디어 아트에서 표정은 '시각적 왜곡화, 확장화, 가상화'를 통해 얼굴 표현의 공간성과 시간성을 극복했고 디지털 환경 속에서 얼굴 구성 요소의 결합과 분리는 새로운 방식의 소통을 가능하게 하였다. 뉴미디어 아트에서 소리는 청각 감각에 머물지 않고 다른 감각과 협응하여 다감각화와 공감각화를 추구하며 공간의 확장성과 감각과 수용자의 상호작용성의 특성을 드러내며 발전하고 있었다.

Hybrid-Feature Extraction for the Facial Emotion Recognition

  • Byun, Kwang-Sub;Park, Chang-Hyun;Sim, Kwee-Bo;Jeong, In-Cheol;Ham, Ho-Sang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1281-1285
    • /
    • 2004
  • There are numerous emotions in the human world. Human expresses and recognizes their emotion using various channels. The example is an eye, nose and mouse. Particularly, in the emotion recognition from facial expression they can perform the very flexible and robust emotion recognition because of utilization of various channels. Hybrid-feature extraction algorithm is based on this human process. It uses the geometrical feature extraction and the color distributed histogram. And then, through the independently parallel learning of the neural-network, input emotion is classified. Also, for the natural classification of the emotion, advancing two-dimensional emotion space is introduced and used in this paper. Advancing twodimensional emotion space performs a flexible and smooth classification of emotion.

  • PDF

아바타 통신에서의 얼굴 표정의 생성 방법 (A Generation Methodology of Facial Expressions for Avatar Communications)

  • 김진용;유재휘
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.55-64
    • /
    • 2005
  • 사이버 공간 내에서 텍스트나 영상 이외에 보조적인 통신 수단으로써, 아바타 통신을 이용할 수 있다. 실시간 아바타 영상 통신을 위하여, 전체 영상이나 압축 영상을 전송하는 대신에 아바타의 애니메이션 파라미터(팔의 동작 및 제스처를 위한 각도 또는 얼굴 표정을 위한 파라미터 등)만을 전송하는 지적 통신방식을 이용하기도 한다. 본 논문에서는 팔, 다리 등의 파라메타 등의 몸의 동적 움직임을 보조할 수 있는 수단으로써, 송신자의 감정을 표현할 수 있는 아바타의 얼굴 표정 생성에 대하여 제안한다. 얼굴 표정은 AU(Action Unit)에 의하여 표현할 수 있으며, 여기에서는 모양과 구조가 다른 아바타 모델에서 표정을 생성하기 위한 AU를 찾아내는 방법을 제안한다. 그리고, 감정 표현의 극대화를 위하여 얼굴 표현의 효율을 위하여, 눈썹, 눈, 코, 입에 대한 코믹 스타일을 가지는 아바타 모델을 제안한다. 또한, 얼굴 표정 합성을 위한 파라메타들도 제시하도록 한다.

  • PDF

얼굴의 다양한 포즈 및 표정의 변환에 따른 얼굴 인식률 향상에 관한 연구 (A Study on Improvement of Face Recognition Rate with Transformation of Various Facial Poses and Expressions)

  • 최재영;황보 택근;김낙빈
    • 인터넷정보학회논문지
    • /
    • 제5권6호
    • /
    • pp.79-91
    • /
    • 2004
  • 다양한 얼굴 포즈 검출 및 인식은 매우 어려운 문제로서, 이는 특징 공간상의 다양한 포즈의 분포가 정면 영상에 비해 매우 흩어져있고 복잡하기 때문이다. 이에 본 논문에서는 기존의 얼굴 인식 방법들이 제한 사항으로 두었던 입력 영상의 다양한 포즈 및 표정에 강인한 얼굴 인식 시스템을 제안하였다. 제안한 방법은 먼저, TLS 모델을 사용하여 얼굴 영역을 검출한 뒤, 얼굴의 구성요소를 통하여 얼굴 포즈를 추정한다. 추정된 얼굴 포즈는 3차원 X-Y-Z축으로 분해되는데, 두 번째 과정에서는 추정된 벡터를 통하여 만들어진 가변 템플릿과 3D CAN/DIDE모델을 이용하여 얼굴을 정합한다 마지막으로 정합된 얼굴은 분석된 포즈와 표정에 의하여 얼굴 인식에 적합한 정면의 정규화 된 얼굴로 변환된다. 실험을 통하여 얼굴 검출 모델의 사용과 포즈 추정 방법의 타당성을 보였으며, 포즈 및 표정 정규화를 통하여 인식률이 향상됨을 확인하였다.

  • PDF

피로 검출을 위한 능동적 얼굴 추적 (Active Facial Tracking for Fatigue Detection)

  • 김태우;강용석
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권3호
    • /
    • pp.53-60
    • /
    • 2009
  • 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 운전자의 피로 상태를 검출하기 위한 얼굴 표정 인식을 위해 얼굴 특징을 추적하고자 하였다. 그러나 대다수의 얼굴 특징 추적 방법은 다양한 조명 조건과 얼굴 움직임, 회전등으로 얼굴의 특징점이 검출하지 못하는 경우가 발생한다. 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 제안된 방법은 우선, 능동적 적외선 감지기를 사용하여 다양한 조명 조건하에서 동공을 검출하고, 검출된 동공은 얼굴 움직임을 예측하는데 사용되어진다. 얼굴 움직임에 따라 특징이 국부적으로 부드럽게 변화한다고 할 때, 칼만 필터로 얼굴 특징을 추적할 수 있다. 제한된 동공 위치와 칼만 필터를 동시에 사용함으로 각각의 특징 지점을 정확하게 예상할 수 있었고, Gabor 공간에서 예측 지점에 인접한 지점을 특징으로 추적할 수 있다. 패턴은 검출된 특징에서 공간적 연관성에서 추출한 특징들로 구성된다. 실험을 통하여 다양한 조명과 얼굴 방향, 표정 하에서 제안된 능동적 방법의 얼굴 추적의 실효성을 입증하였다.

  • PDF

비선형 매니폴드 학습을 이용한 얼굴 이미지 합성 (Face Image Synthesis using Nonlinear Manifold Learning)

  • 조은옥;김대진;방승양
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권2호
    • /
    • pp.182-188
    • /
    • 2004
  • 얼굴 구성 요소 각각에 대한 파라미터로부터 특정한 포즈나 표정을 갖는 얼굴 이미지를 합성하는 방법을 제안한다 이러한 파라미터화는 얼굴 이미지의 표현과 저장, 전송을 효과적으로 수행할 수 있도록 한다. 그러나 얼굴 이미지의 변화는 고차원의 이미지 공간에서 복잡한 비선형 매니폴드를 구성하기 때문에 파라미터화 하는 것이 쉽지 않다. 이러한 문제점을 해결하기 위해, 얼굴 이미지에 대한 표현방법으로 LLE (Locally Linear Embedding) 알고리즘을 사용한다. LLE 알고리즘은 얼굴 이미지들 사이의 관계를 유지하면서 저차원의 특징 공간으로 투사된 매니폴드를 더욱 부드럽고 연속적으로 만들어준다. 그 다음, 특징공간에서 특정한 포즈나 표정 파라미터에 해당하는 포인트를 추정하기 위해 snake 모델을 적용한다. 마지막으로, 추정된 특징 값의 주변에 있는 여러 장의 얼굴 이미지들의 가중치 평균을 구해 합성된 결과이미지를 만든다 실험결과를 통해 제안된 방법을 이용하면 겹침 현상이 적고 포즈나 표정에 대한 파라미터의 변화와 일치하는 이미지를 합성한다는 것을 보인다.

피로 검출을 위한 능동적 얼굴 추적 (Active Facial Tracking for Fatigue Detection)

  • 박호식;정연숙;손동주;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.603-607
    • /
    • 2004
  • 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 운전자의 피로 상태를 검출하기 위한 얼굴 표정 인식을 위해 얼굴 특징을 추적하고자 하였다. 그러나 대다수의 얼굴 특징 추적 방법은 다양한 조명 조건과 얼굴 움직임, 회전등으로 얼굴의 특징점이 검출하지 못하는 경우가 발생한다. 그러므로 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 제안된 방법은 우선, 능동적 적외선 감지기를 사용하여 다양한 조명 조건 하에서 동공을 검출하고, 검출된 동공은 얼굴 움직임을 예측하는데 사용되어진다. 얼굴 움직임에 따라 특징이 국부적으로 부드럽게 변화한다고 할 때, 칼만 필터로 얼굴 특징을 추적할 수 있다. 제한된 동공 위치와 칼만 필터를 동시에 사용함으로 각각의 특징 지점을 정확하게 예상 할 수 있었고, Gabor 공간에서 예측 지점에 인접한 지점을 특징으로 추적할 수 있다. 패턴은 검출된 특징에서 공간적 연관성에서 추출한 특징들로 구성된다. 실험을 통하여 다양한 조명과 얼굴 방향, 표정 하에서 제안된 능동적 방법의 얼굴 추적의 실효성을 입증하였다.

  • PDF

비전 방식을 이용한 감정인식 로봇 개발 (Development of an Emotion Recognition Robot using a Vision Method)

  • 신영근;박상성;김정년;서광규;장동식
    • 산업공학
    • /
    • 제19권3호
    • /
    • pp.174-180
    • /
    • 2006
  • This paper deals with the robot system of recognizing human's expression from a detected human's face and then showing human's emotion. A face detection method is as follows. First, change RGB color space to CIElab color space. Second, extract skin candidate territory. Third, detect a face through facial geometrical interrelation by face filter. Then, the position of eyes, a nose and a mouth which are used as the preliminary data of expression, he uses eyebrows, eyes and a mouth. In this paper, the change of eyebrows and are sent to a robot through serial communication. Then the robot operates a motor that is installed and shows human's expression. Experimental results on 10 Persons show 78.15% accuracy.