• 제목/요약/키워드: 표정변화

검색결과 251건 처리시간 0.036초

동영상자극에 의한 정서유발시의 표정변화와 생리반응 (Physiological Responses Induced by Pleasant and Unpleasant Film Stimuli)

  • 이상일;카미야사토코;아네카와 카주유키;오오무라 료스케;니시무라 타카유키;김연규;와타누키 시게키
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 춘계학술대회
    • /
    • pp.163-166
    • /
    • 2009
  • 본 연구는 동영상자극에 의한 정서유발시의 표정변화와 생리반응을 밝혀내는 것을 목적으로 실행되었다. 18명의 실험참가자에게 각각 2종류씩의positive, negative 그리고neutral의 총5가지의 동영상자극을 약5분간 제시하였다. 표정변화는 비디오카메라로 기록하였고, 생리반응으로 뇌파(64ch), 심전도, 임피던스카디오그램, 안면근전위등을 측정했다. 표정의 분석결과, positive조건은 neutral조건에 비해 눈구석간의 거리가 감소하였고, 입 꼬리간의 거리는 증가하였다. 반면, negative조건은 neutral조건에 비해 오른쪽 눈구석과 눈 꼬리간의 거리가 증가하였다. 뇌파의 alpha/beta ratio변화량에 있어 positive조건은 neutral조건에 비해 우전두엽을 중심으로 감소하였고, negative조건은 좌전두엽에서 감소하였다. 심박수 및 PEP/LVET는 negative조건에서만 감소하였다. 또한, 근전위의 변화는 positive조건이 neutral조건보다 좌우볼 및 입부위에서 증가한 반면, negative조건은 좌우눈썹부위에서 증가하였다. 이에 본 연구를 통해, 정서유발시의 표정변화와 생리반응의 특성을 알 수 있었다.

  • PDF

연속적인 얼굴 표정 변화 인식 방법에 관한 연구 (A Study of Recognizing Degree of Continuous Facial Expression Change)

  • 박호식;배철수;나상동
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 춘계학술발표논문집 (상)
    • /
    • pp.737-740
    • /
    • 2002
  • 본 논문에서는 영상에서 연속적인 얼굴 표정 변화 인식 방법에 대하여 제안하였다. 제안된 방법은 가중 결합으로 정합 된 분류 그래프를 이용한 얼굴 특징점 추적과 특징 궤도와 표정 변화 모델의 비교에 의한 얼굴표정 인식의 두 가지 부분으로 구성된다. 표정 변화 모델은 얼굴 특징 동작과 표정의 변화사이의 연관 관계를 표현한 B-spline 곡선을 이용하여 구성된다. 유형뿐만 아니라 표정의 변화 단계까지 인식 할 수 있다. 더욱이 획득된 표정 정보는 다음 프레임의 추적의 지침으로 피드백 됨에 따라 추적의 검색 시간을 감소시킴으로서 교점 확산 구간을 최소화 할 수 있다.

  • PDF

얼굴자극의 검사단계 표정변화와 검사 지연시간, 자극배경이 얼굴재인에 미치는 효과 (The Effect of Emotional Expression Change, Delay, and Background at Retrieval on Face Recognition)

  • 박영신
    • 한국심리학회지 : 문화 및 사회문제
    • /
    • 제20권4호
    • /
    • pp.347-364
    • /
    • 2014
  • 본 연구는 얼굴자극의 검사단계 표정변화와 검사 지연시간, 그리고 배경변화가 얼굴재인에 미치는 효과를 검증하기 위해 수행되었다. 실험 1에서는 학습단계에서 부정 표정 얼굴을 학습하고 검사단계에서 동일한 얼굴의 부정 표정과 중성 표정얼굴에 대한 재인 검사가 실시되었다. 실험 2에서는 학습단계에서 부정 표정 얼굴을 학습하고 검사단계에서 부정 표정과 긍정 표정얼굴에 대한 재인 검사가 실시되었다. 실험 3에서는 학습단계에서 중성 표정 얼굴을 학습하고, 검사단계에서 부정 표정과 중성 표정 얼굴에 대한 재인 검사가 실시되었다. 세 실험 모두 참가자들은 즉시 검사와 지연 검사 조건에 할당되었고, 재인검사에서 목표 얼굴자극들은 배경이 일치 조건으로 또한 불일치 조건으로 제시되었다. 실험 1과 실험2 모두에서 부적 표정에 대한 재인율이 높았다. 실험 3에서 중성 표정에 대한 재인율이 높았다. 즉, 세 개실험 모두에서 표정 일치 효과가 나타났다. 학습단계에서 제시된 얼굴 표정의 정서와는 상관없이 검사단계에서 표정이 학습단계와 일치할 때 얼굴 재인율은 증가하였다. 또한 표정 변화에 따른 효과는 배경 변화에 따라 상이하게 나타났다. 본 연구 결과로 얼굴은 표정이 달라지면 기억하기 힘들며, 배경의 변화와 시간 지연에 따라 영향을 받는 다는 점을 확인하였다.

  • PDF

3차원동작측정에 의한 얼굴 표정의 분석 (Analysis of facial expressions using three-dimensional motion capture)

  • 박재희;이경태;김봉옥;조강희
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1996년도 추계학술대회논문집
    • /
    • pp.59-65
    • /
    • 1996
  • 인간의 얼굴 표정은 인간의 감성이 가장 잘 나타나는 부분이다 . 따라서 전통적으로 인간의 표정을 감 성과 연관 지어 연구하려는 많은 노력이 있어 왔다. 최근에는 얼굴 온도 변화를 측정하는 방법, 근전도(EMG; Electromyography)로 얼굴 근육의 움직임을 측정하는 방법, 이미지나 동작분석에 의한 얼굴 표정의 연구가 가능 하게 되었다. 본 연구에서는 인간의 얼굴 표정 변화를 3차원 동작분석 장비를 이용하여 측정하였다. 얼굴 표정 의 측정을 위해 두가지의 실험을 계획하였는데, 첫번 째 실험에서는 피실험자들로 하여금 웃는 표정, 놀라는 표정, 화난 표정, 그리고 무표정 등을 짓게 한 후 이를 측정하였으며, 두번째 실험에스는 코미디 영화와 공포 영화를 피 실험자들에게 보여 주어 피실험자들의 표정 변화를 측정하였다. 5명의 성인 남자가 실험에 참여하였는데, 감성을 일으킬 수 있는 적절한 자극 제시를 못한 점 등에서 처음에 기도했던 6개의 기본 표정(웃음, 슬픔, 혐오, 공포, 화남, 놀람)에 대한 모든 실험과 분석이 수행되지 못했다. 나머지 부분을 포함한 정교한 실험 준비가 추후 연구 에서 요구된다. 이러한 연구는 앞으로 감성공학, 소비자 반응 측정, 컴퓨터 애니메이션(animation), 정보 표시 장치(display) 수단으로서 사용될 수 있을 것이다.

  • PDF

내적 정서 상태 차원에 근거한 캐릭터 표정생성 프로그램 구현 (Character's facial expression realization program with emotional state dimensions)

  • 고혜영;이재식;김재호
    • 한국정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.438-444
    • /
    • 2008
  • 본 논문에서는 애니메이션 캐릭터의 표정 연출의 효율성을 높이기 위해 정서 상태의 변화에 따라 다양하고 주어진 상황에 부합하는 표정을 쉽게 구현할 수 있는 표정생성 프로그램을 제안하고자 한다. 이를 위해 우선, Russell의 내적 정서 상태의 차원 모형을 근거로 쾌-불쾌, 각성-비각성의 내적 정서 상태 정보를 포함한 9가지 표정을 정의하였다. 그리고 각각의 표정에 대해 본 연구에서 제안한 표정생성 프로그램을 이용하여 두 차원의 중앙에 위치하는 무표정 자극을 8가지의 가능한 표정 변화 방향으로 이동시킴으로써 정서 차원에서의 미묘한 위치 변화에 따라서도 다양한 표정 생성이 구현될 수 있음을 확인하였다. 향후 이러한 프로그램은 복잡한 정서를 가진 표정을 쉽고 다양하게 구현할 수 있는 표정 자동생성 시스템 설계의 기초적 프로그램으로 활용될 수 있을 것이다.

비선형 피부색 변화 모델을 이용한 실감적인 표정 합성 (Synthesis of Realistic Facial Expression using a Nonlinear Model for Skin Color Change)

  • 이정호;박현;문영식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (A)
    • /
    • pp.121-123
    • /
    • 2006
  • 얼굴의 표정은 얼굴의 구성요소 같은 기하학적 정보와 조명이나 주름 같은 세부적인 정보들로 표현된다. 얼굴 표정은 기하학적 변형만으로는 실감적인 표정을 생성하기 힘들기 때문에 기하학적 변형과 더불어 텍스쳐 같은 세부적인 정보도 함께 변형해야만 실감적인 표현을 할 수 있다. 표정비율이미지 (Expression Ratio Image)같은 얼굴 텍스처의 세부적인 정보를 변형하기 위한 기존 방법들은 조명에 따른 피부색의 변화를 정확히 표현할 수 없는 단점이 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해 서로 다른 조명 조건에서도 실감적인 표정 텍스처 정보를 적용할 수 있는 비선형 피부색 모델 기반의 표정 합성 방법을 제안한다. 제안된 방법은 동적 외양 모델을 이용한 자동적인 얼굴 특징 추출과 와핑을 통한 표정 변형 단계, 비선형 피부색 변화 모델을 이용한 표정 생성 단계, Euclidean Distance Transform (EDT)에 의해 계산된 혼합 비율을 사용한 원본 얼굴 영상과 생성된 표정의 합성 등 총 3 단계로 구성된다. 실험결과는 제안된 방법이 다양한 조명조건에서도 자연스럽고 실감적인 표정을 표현한다는 것을 보인다.

  • PDF

수위 변화를 고려한 표면영상유속계의 영상왜곡 보정 기법 개발 (Development of correction method for distorted images of LSPIV considering water level change)

  • 김희정;김서준;윤병만;이준형
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2018년도 학술발표회
    • /
    • pp.137-137
    • /
    • 2018
  • 표면영상유속계는 매우 간편하고 신속하게 하천의 유속장을 측정하는 기법이지만 하천의 넓은 구역을 카메라로 촬영하기 때문에 영상왜곡이 필연적으로 발생한다. 이러한 왜곡을 보정하기위해 많이 사용되고 있는 2차원 투영좌표변환법을 이용하여 유속을 분석하였다. 하지만 2차원 투영좌표변환법의 경우 표정점이 수표면의 높이와 같은 위치에 존재하지 않으면 유속 분석 결과에 큰 오차를 유발시킨다. 홍수 시 하천의 수위가 급변할 경우 표정점을 수위 변화에 맞추어 이동시키면서 영상을 촬영한다는 것은 현실적으로 불가능하다. 이러한 문제점을 극복하기위해 하천의 수위 변화에 대응하는 영상왜곡 보정 기법 개발이 필요하다. 이에 본 연구에서는 기존의 2차원 투영좌표변환법을 개선하기 위해 제방근처의 표정점 4개와 카메라의 좌표와 카메라와 수표면까지의 연직거리를 이용한 영상왜곡 보정식을 개발하였다. 그리고 표정점과 수표면의 높이를 다양하게 변화시키면서 개발한 보정식을 적용하였다. 표정점이 수위에 맞게 설정된 경우를 기준으로 수위보다 높게 설정된 표정점에 대하여 보정식을 적용한 경우의 유속은 표정점이 수위보다 높게 설정된 경우의 유속과 비교한 결과 오차가 크게 개선되었음을 확인하였다. 따라서 하천에 CCTV를 고정적으로 설치하여 유량을 산정할 경우 본 연구에서 제시한 표정점 보정식을 활용한다면 수위가 급변하는 상황에서도 정확한 표면유속을 산정할 수 있을 것으로 기대한다.

  • PDF

영역 분할과 판단 요소를 이용한 표정 인식 알고리즘 (A facial expressions recognition algorithm using image area segmentation and face element)

  • 이계정;정지용;황보현;최명렬
    • 디지털융복합연구
    • /
    • 제12권12호
    • /
    • pp.243-248
    • /
    • 2014
  • 본 논문에서는 사람 얼굴의 표정을 인식하기 위하여 판단 요소를 선정하고 판단 요소의 변화 상태를 파악하여 표정을 인식하는 방법을 제안한다. 판단 요소를 선정하기 위하여 이미지 영역 분할 방법을 사용하며, 판단 요소의 변화율을 이용하여 표정을 판단한다. 표정을 판단하기 위하여 90명의 표정을 데이터베이스화하여 비교하였고, 4개의 표정(웃음, 화남, 짜증, 슬픔)을 인식하는 방법을 제안한다. 제안한 방법은 시뮬레이션을 실시하여 판단 요소 검출 성공률과 표정 인식률을 통해 검증한다.

FCM 클러스터링을 이용한 표정공간의 단계적 가시화 (Phased Visualization of Facial Expressions Space using FCM Clustering)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제8권2호
    • /
    • pp.18-26
    • /
    • 2008
  • 본 논문은 사용자로 하여금 표정공간으로부터 일련의 표정들을 선택하게 함으로써 3차원 아바타의 표정을 제어할 수 있는 표정공간의 단계적 가시화 기법을 기술한다. 본 기법에 의한 시스템은 무표정 상태를 포함하여 11개의 서로 다른 모션들로 구성된 2400여개의 표정 프레임으로 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해함으로서 수행되어진다. 그러나 표정공간에서는 과격한 표정 변화에서부터 세밀한 표정 변화까지 다양한 표정 제어를 수행할 수 있어야하기 때문에 단계적 가시화 기법이 필요하다. 표정공간을 단계적으로 가시화하기 위해서는 퍼지 클러스터링을 이용한다. 초기 단계에서는 11개의 클러스터 센터를 가지도록 클러스터링하고, 단계가 증가될 때 마다 클러스터 센터의 수를 두 배씩 증가시켜 표정들을 클러스터링한다. 이때 클러스터 센터와 표정공간에 분포된 표정들의 위치는 서로 다른 경우가 많기 때문에, 클러스터 센터에서 가장 가까운 표정상태를 찾아 클러스터 센터로 간주한다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 단계적 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

다선형 모델을 이용한 얼굴 및 표정 인식 (A Case Study on Face and Expression Recognition using AAMs and Multilinear Analysis)

  • 박용찬;이성오;박귀태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 제39회 하계학술대회
    • /
    • pp.1901-1902
    • /
    • 2008
  • 얼굴 인식은 얼굴의 특징적인 패턴을 이용하지만, 이러한 패턴은 표정, 포즈, 조명의 변화에 민감하여 인식에 어려움이 있다. 본 논문은 표정 변화에 강인한 인식 모델을 개발하기 위해 Cohn-Kanade 표정 데이터베이스와 AAM을 이용하여 다양한 데이터를 추출하였고, 추출된 데이터를 다선형 분석을 이용하여 분석하였다. 이를 적용한 인식 실험에서 PCA보다 표정에 좀 더 강인한 인식 성능을 나타내었다.

  • PDF