• 제목/요약/키워드: 얼굴감정 표현

검색결과 92건 처리시간 0.021초

애니메이션 움직임에 따른 동작의 표현방법에 관한 연구 (A Study on expression method of Animation Movement forms)

  • 이미정;김치용
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.679-683
    • /
    • 2004
  • 흔히 애니메이션은 캐릭터의 표정이 얼굴에만 나타난다고 생각한다. 하지만 캐릭터의 몸도 얼굴만큼이나 풍부하게 감정을 표현할 수 있다. 이에 따라 본 논문에는 캐릭터 움직임에 따른 동작이 어떻게 변화되고, 생동감 있게 움직일 것인가에 대해 알아보고자 한다. 애니메이션의 기본 동작원리에는 스쿼시, 스트레치, 동작의 속도와 타이밍, 관성, 선행동작, 포물선 따라 움직이기, 인비트위닝 등 많은 것이 있다. 이들 기본동작들은 모두 애니메이션 성공에 크게 영향을 끼친다. 애니메이션에서 캐릭터의 연기는 보는 사람들로 하여금 필요한 동작을 통하여 어떤 표현을 전달할 수 있도록 올바른 타이밍을 가져야한다. 본 논문은 애니메이션 동작을 표현하기 위해 각각의 이미지들의 표현방법에서 감성위주의 느낌들을 어떻게 보여줘야 할 것인가에 대해 다양한 표현들로 나타내었다.

  • PDF

로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어 (Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity)

  • 김민규;이희승;박정우;조수훈;정명진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.547-552
    • /
    • 2008
  • 앞으로 로봇은 더욱 사람과 가까워 질 것이고, 따라서 사람과 로봇간의 상호작용도 활발해질 것이다. 이 때 직관적인 소통수단이 필수적이기 때문에, 로봇이 표정을 통해 감정을 표현할 수 있도록 하는 연구가 활발히 진행되어왔다. 기존에는 얼굴 표정을 주로 이용하였는데, 사람처럼 감정의 강도를 표현하기 위해서는 얼굴 외의 다른 방법도 필요하다. 로봇이 감정의 강도를 표현하기 위해서는 팔의 제스처, 움직임, 소리, 색깔 등을 이용할 수 있다. 본 논문에서는 LED 를 이용할 수 있도록 색과 깜빡임에 대해 연구하였다. 색깔과 감정의 관계에 대해서는 기존에 연구가 많이 되어 있지만, 실제로 로봇에 구현하기에는 정량적 자료가 부족하여 어려움이 있다. 본 논문에서는 6 가지 기본 감정(화남, 슬픔, 혐오, 놀람, 기쁨, 공포)을 효과적으로 나타낼 수 있는 색과 깜빡임 주기를 결정하고, 아바타를 이용하여 감정의 강도를 설문조사 하였다. 결과적으로, 슬픔, 혐오, 화남의 경우 색깔과 깜빡임을 통해 감정의 강도를 높일 수 있었다. 공포, 기쁨, 놀람의 경우 색깔과 깜빡임이 감정 인식에 큰 영향을 미치지 못했는데, 이는 그 감정에 해당하는 색깔이나 깜빡임을 수정해서 개선할 수 있을 것이다.

  • PDF

애니메이션을 위한 통계적 모델에 기반을 둔 3D 얼굴모델링 (3D Face Modeling based on Statistical Model for Animation)

  • 오두식;김재민;조성원;정선태
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2008년도 춘계학술대회 학술발표회 논문집
    • /
    • pp.435-438
    • /
    • 2008
  • 본 논문에서는 애니메이션을 위해서 얼굴의 특징표현(Action Units)의 조합하는 방법으로 얼굴 모델링을 하기 위한 3D대응점(3D dense correspondence)을 찾는 방법을 제시한다. AUs는 표정, 감정, 발음을 나타내는 얼굴의 특징표현으로 통계적 방법인 PCA (Principle Component Analysis)를 이용하여 만들 수 있다. 이를 위해서는 우선 3D 모델상의 대응점을 찾는 것이 필수이다. 2D에서 얼굴의 주요 특징 점은 다양한 알고리즘을 이용하여 찾을 수 있지만 그것만으로 3D상의 얼굴 모델을 표현하기에는 적합하지 않다. 본 논문에서는 3D 얼굴 모델의 대응점을 찾기 위해 원기둥 좌표계 (Cylinderical Coordinates System)을 이용하여 3D 모델을 2D로 투사(Projection)시켜서 만든 2D 이미지간의 워핑(Warping) 을 통한 대응점을 찾아 역으로 3D 모델간의 대응점을 찾는다. 이것은 3D 모델 자체를 변환하는 것보다 적은 연산량으로 계산할 수 있고 본래 형상의 변형이 없다는 장점을 가지고 있다.

  • PDF

사용자의 성향 기반의 얼굴 표정을 통한 감정 인식률 향상을 위한 연구 (A study on the enhancement of emotion recognition through facial expression detection in user's tendency)

  • 이종식;신동희
    • 감성과학
    • /
    • 제17권1호
    • /
    • pp.53-62
    • /
    • 2014
  • 인간의 감정을 인식하는 기술은 많은 응용분야가 있음에도 불구하고 감정 인식의 어려움으로 인해 쉽게 해결되지 않는 문제로 남아 있다. 인간의 감정 은 크게 영상과 음성을 이용하여 인식이 가능하다. 감정 인식 기술은 영상을 기반으로 하는 방법과 음성을 이용하는 방법 그리고 두 가지를 모두 이용하는 방법으로 많은 연구가 진행 중에 있다. 이 중에 특히 인간의 감정을 가장 보편적으로 표현되는 방식이 얼굴 영상을 이용한 감정 인식 기법에 대한 연구가 활발히 진행 중이다. 그러나 지금까지 사용자의 환경과 이용자 적응에 따라 많은 차이와 오류를 접하게 된다. 본 논문에서는 감정인식률을 향상시키기 위해서는 이용자의 내면적 성향을 이해하고 분석하여 이에 따라 적절한 감정인식의 정확도에 도움을 주어서 감정인식률을 향상 시키는 메카니즘을 제안하였으며 본 연구는 이러한 이용자의 내면적 성향을 분석하여 감정 인식 시스템에 적용함으로 얼굴 표정에 따른 감정인식에 대한 오류를 줄이고 향상 시킬 수 있다. 특히 얼굴표정 미약한 이용자와 감정표현에 인색한 이용자에게 좀 더 향상된 감정인식률을 제공 할 수 있는 방법을 제안하였다.

비언어적 감정표현을 위한 애니메이션 이모티콘의 제작방향 제시 (Design method of Animation Emoticons for Non-Verbal Expression of Emotion)

  • 안성혜;윤세진
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.200-204
    • /
    • 2006
  • 이모티콘은 현재 CMC 커뮤니케이션 상에서 감정표현을 나타내는 의사소통의 보조수단으로 사용되고 있다. 이모티콘은 텍스트 이모티콘에서 이미지 이모티콘, 애니메이션 이모티콘에 이르기까지 다양한 형태로 발전되어 왔다. 그러나 감정표현의 세분화된 분류가 미흡하여 기본감정만을 나타낼 수 있을 뿐 그 밖에 감정표현의 다양성을 가지고 있지 못하다. 따라서 다양한 감정표현이 가능한 이모티콘들을 편리하고, 간단하게 사용할 수 있도록 하는 모듈화 된 애니메이션 이모티콘 개발을 위해서는 감정들을 세분화하여 분류해줄 필요가 있다. 본 연구는 메신저상의 애니메이션 이모티콘을 중심으로 얼굴표정, 손동작, 상황설정에 따른 감정표현들을 분류하여 분석해보고, 애니메이션 이모티콘의 제작방향을 제시하고자 한다.

  • PDF

인터랙티브 캐릭터의 감정표현 기술 사례분석 (A Case Study on Emotional Expression Technology of Interactive Character)

  • 안성혜;송수미;성민영;백선욱
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.197-203
    • /
    • 2009
  • 디지털 기반의 커뮤니케이션 환경에서 점차 사용자가 상호작용이 가능한 커뮤니케이션을 원하게 되고, 사용자 중심의 감정표현 도구가 필요하게 되면서 다양하게 개인화된 감정표현이 가능한 인터랙티브 캐릭터를 개발할 필요성이 대두되고 있다. 본 연구는 개인화된 감정표현이 가능한 인터랙티브 캐릭터를 개발하고, 이를 활용하여 감성콘텐츠를 제작하기 위한 감정표현 기술개발의 방향성을 제시하고자 하는 목적을 가진다. 이를 위해 얼굴표정을 중심으로 감정을 표현하는 기술이 어떻게 구현되고 있으며, 감정표현 도구로서 인터랙티브 캐릭터의 개발 방향은 무엇인지를 사례분석을 통해 살펴보고자 한다.

  • PDF

아바타 통신에서의 얼굴 표정의 생성 방법 (A Generation Methodology of Facial Expressions for Avatar Communications)

  • 김진용;유재휘
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.55-64
    • /
    • 2005
  • 사이버 공간 내에서 텍스트나 영상 이외에 보조적인 통신 수단으로써, 아바타 통신을 이용할 수 있다. 실시간 아바타 영상 통신을 위하여, 전체 영상이나 압축 영상을 전송하는 대신에 아바타의 애니메이션 파라미터(팔의 동작 및 제스처를 위한 각도 또는 얼굴 표정을 위한 파라미터 등)만을 전송하는 지적 통신방식을 이용하기도 한다. 본 논문에서는 팔, 다리 등의 파라메타 등의 몸의 동적 움직임을 보조할 수 있는 수단으로써, 송신자의 감정을 표현할 수 있는 아바타의 얼굴 표정 생성에 대하여 제안한다. 얼굴 표정은 AU(Action Unit)에 의하여 표현할 수 있으며, 여기에서는 모양과 구조가 다른 아바타 모델에서 표정을 생성하기 위한 AU를 찾아내는 방법을 제안한다. 그리고, 감정 표현의 극대화를 위하여 얼굴 표현의 효율을 위하여, 눈썹, 눈, 코, 입에 대한 코믹 스타일을 가지는 아바타 모델을 제안한다. 또한, 얼굴 표정 합성을 위한 파라메타들도 제시하도록 한다.

  • PDF

표정변화에 따른 얼굴 표정요소의 특징점 추적 (Tracking of Facial Feature Points related to Facial Expressions)

  • 최명근;정현숙;신영숙;이일병
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (2)
    • /
    • pp.425-427
    • /
    • 2000
  • 얼굴 표정은 사람의 감정을 표현함과 동시에 그것을 이해할 수 있는 중요한 수단이다. 최근 이러한 얼굴 표정의 자동인식과 추적을 위한 연구가 많이 진행되고 있다. 본 연구에서는 대략적인 얼굴영역을 설정하여 얼굴의 표정을 나타내는 표정요소들을 찾아낸 후, 각 요소의 특징점을 추출하고 추적하는 방법을 제시한다. 제안하는 시스템의 개요는 입력영상의 첫 프레임에서 얼굴영역 및 특징점을 찾고, 연속되는 프레임에서 반복적으로 이를 추적한다. 특징점 추출과 추적에는 템플릿 매칭과 Canny 경계선 검출기, Gabor 웨이블릿 변환을 사용하였다.

  • PDF

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF