• 제목/요약/키워드: Facial animation

검색결과 142건 처리시간 0.022초

애니메이션 캐릭터 설정 요소 분석 (A Study on character create of Animation)

  • 임운주
    • 디지털융복합연구
    • /
    • 제10권11호
    • /
    • pp.659-664
    • /
    • 2012
  • 본 연구는 애니메이션 캐릭터 기호가 점점 다양하게 진행됨에 따라 관객과의 효과적인 커뮤니케이션에 대한 애니메이션 캐릭터는 영화의 주인공이 되어 전체의 분위기를 이끌어 간다. 캐릭터는 작품 속에서 자신의 행동과 사고 방식을 표현함으로써 관객에게 어필한다. 캐릭터가 어떤 유전적인 요인과 환경적인 요인에 대한 영향을 받는가에 대한 것은 내러티브와 전체적인 세계관과 밀접한 관계가 있다. 새로운 세계에서 어떤 신체적 특성, 어휘, 말투, 버릇, 액션, 성격을 가지고 있느냐에 따라서 캐릭터는 더욱 확실하고 쉽게 관객에게 전달된다. 그러므로 이 연구는 새로운 세계관 속에서 사물을 판단하고 행동하는 캐릭터의 외모와 성격을 잘 나타내는데 필요한 요인은 무엇인지에 대하여 분석하고자 한다. 분석 결과, 캐릭터의 설정 방법은 첫째, 애니메이션 캐릭터의 행동과 사고방식을 규정 요인은 세계관에 있다. 그것을 표현하는 외면적 성격요소로는 용모, 스타일, 행위, 표정, 말투, 취미, 직업, 지위가 있으며 내면적 요소는 기질, 사상, 교양을 나타낸다. 둘째, 애니메이션 캐릭터의 일반적인 성향들, 문화적 배경, 핵심 특성과 경험 등을 주어진 조건, 즉 세계관에 의하여 형성된다. 그 기질은 외향/내향, 직관/감각, 사고/감정, 판단/지각으로 나타난다. 셋째, 애니메이션 캐릭터의 매력은 친근함(familiarity), 독창성(originality), 유머(fan), 다성적 감각, 유연성으로 나타난다. 넷째, 새로운 세계관과 캐릭터의 조화이다. 새로운 세계관에 맞게 설정된 캐릭터는 애니메이션의 재미와 완성도를 더해 주지만 그렇지 못한 캐릭터는 내러티브의 흐름을 방해하는 요소가 되기도 한다는 결과를 볼 수 있다. 애니메이션 캐릭터의 설정은 독특한 세계관을 관객에게 다가가기 쉬운 친근함(familiarity)과 다른 작품과의 차별화 되는 독창성(originality), 웃음을 선사하는 유머(fan)와 서로 다른 시간에 서로 다른 방식으로 상호작용 다성적 감각을 보다 유연하게 관객에게 전달되기 쉬운 설정이 가장 바람직하다고 볼 수 있었다.

한글 문자 입력에 따른 얼굴 에니메이션 (Facial Animation Generation by Korean Text Input)

  • 김태은;박유신
    • 한국전자통신학회논문지
    • /
    • 제4권2호
    • /
    • pp.116-122
    • /
    • 2009
  • 본 논문에서는 얼굴 애니메이션을 좀 더 실질적으로 표현하기 위하여 한글 생성의 원리와 입 모양 형태의 유사성을 기반으로 기본 음소를 선정하고 이를 이용하는 새로운 알고리듬을 제안한다. 카메라를 통해 얻어진 특징 점 이용이 아닌, 모션 캡쳐 (Motion Capture) 장비를 사용하여 실제 입모양의 움직임 데이터를 취득하여 취득된 데이터를 지수 증,감 형태로 나타내어 발성에 대한 음소를 표현하고 연속된 음절을 표현하기 위하여 지배 함수(Dominance Function)와 혼합 함수(Blending Function)를 적용하여 동시 조음에 대한 표현을 해결하였다. 또한 음절 간의 결합 시간을 입 주변의 마커(Marker) 거리 값의 변위를 이용하여 그 기울기 값에 따라 시간 지연을 함으로 현실감 있는 사용자 입력 문자에 대한 입 모양 궤적 데이터를 생성하는 실험 결과를 보여준다.

  • PDF

A 3D Audio-Visual Animated Agent for Expressive Conversational Question Answering

  • Martin, J.C.;Jacquemin, C.;Pointal, L.;Katz, B.
    • 한국정보컨버전스학회:학술대회논문집
    • /
    • 한국정보컨버전스학회 2008년도 International conference on information convergence
    • /
    • pp.53-56
    • /
    • 2008
  • This paper reports on the ACQA(Animated agent for Conversational Question Answering) project conducted at LIMSI. The aim is to design an expressive animated conversational agent(ACA) for conducting research along two main lines: 1/ perceptual experiments(eg perception of expressivity and 3D movements in both audio and visual channels): 2/ design of human-computer interfaces requiring head models at different resolutions and the integration of the talking head in virtual scenes. The target application of this expressive ACA is a real-time question and answer speech based system developed at LIMSI(RITEL). The architecture of the system is based on distributed modules exchanging messages through a network protocol. The main components of the system are: RITEL a question and answer system searching raw text, which is able to produce a text(the answer) and attitudinal information; this attitudinal information is then processed for delivering expressive tags; the text is converted into phoneme, viseme, and prosodic descriptions. Audio speech is generated by the LIMSI selection-concatenation text-to-speech engine. Visual speech is using MPEG4 keypoint-based animation, and is rendered in real-time by Virtual Choreographer (VirChor), a GPU-based 3D engine. Finally, visual and audio speech is played in a 3D audio and visual scene. The project also puts a lot of effort for realistic visual and audio 3D rendering. A new model of phoneme-dependant human radiation patterns is included in the speech synthesis system, so that the ACA can move in the virtual scene with realistic 3D visual and audio rendering.

  • PDF

<동물농장>에 나타난 캐릭터의 상징성 연구 (Studies of Character's Symbolism in )

  • 최돈일
    • 만화애니메이션 연구
    • /
    • 통권38호
    • /
    • pp.115-132
    • /
    • 2015
  • 애니메이션은 작가의 의식을 표현하는 도구로서 공간과 공간을 통해 시간으로 전환하는 매체이다. 애니메이션의 구성요소에서 이미지는 가장 본질적 요소이며, 이미지 중 캐릭터는 가장 핵심적 기능을 가진 이미지요소이다. 왜냐하면 캐릭터는 다양한 동작과 표정을 통해 이야기를 전달하는 형상체이기 때문이다. 이러한 맥락에서 볼 때 <동물농장>은 조지오웰의 원작을 바탕으로 계급화 된 불평등의 인간사회와 여기에서 벌어지는 인간의 이기심과 부조리를 풍자적인 캐릭터를 중심으로 그려낸 대표적인 풍자애니메이션이다. 따라서 이번연구에서는 이 작품에서 설정된 인물과 동물들 그리고 공간이 지니고 있는 의미와 상징을 통해 무엇을 풍자했는지를 연구해 보고자하였다. 연구결과 작품에서 등장하는 캐릭터들은 단순한 인물이나 장소가 아니라 각각의 의미를 내포하고 있는 은유적 상징체임을 보여준다. 다시 말해 농장은 인간세상을 상징하는 공간으로써 인간인 존은 러시아 절대왕정의 민중을 억압하는 독재자로, 돼지인 올드 메이저는 혁명의 당위성을 설파하는 원로 선각자로, 메이저를 따르던 돼지 스노볼은 혁명을 성공시키고 만민이 평등한 참 사회주의를 건설하려는 순수한 지도자로, 또 다른 돼지인 나폴레옹은 개인적인 야욕을 위해 스노볼을 제거하고 동족인 동물들을 억압하고 착취하는 인간보다 더한 탐욕적인 독재자로 묘사하였다. 즉 인간과 다양한 동물들을 지배와 피지배의 계급관계로 설정하여 갈등을 양산하고 혁명을 통해 이상사회를 지향하지만 이는 또 다시 혁명을 예고하는 인간역사의 반복적 모순을 상징적이면서도 강렬하게 전달하고 있었다.

감성적 인터랙션 디자인 요소로서의 표정 요소에 관한 연구 (Study on Facial Expression Factors as Emotional Interaction Design Factors)

  • 허성철
    • 감성과학
    • /
    • 제17권4호
    • /
    • pp.61-70
    • /
    • 2014
  • 로봇과 인간의 상호작용에서 언어에 의한 정보 전달은 상호작용의 한계가 있으므로, 더욱 원활하고 효율적인 의사소통과 나아가 로봇의 감정 표현까지 구현하기 위해서는 비언어적 커뮤니케이션이 필요하다. 본 연구에서는 쇼핑을 지원하는 로봇을 전제로 하여 쇼핑 행태에 따른 7가지 비언어적 정보를 도출하였다. 도출된 비언어적 정보의 요소로서 표정을 선정하고, 2D 분석을 통하여 얼굴 구성요소를 코드화 하였다. 얼굴 구성요소의 코드를 조합한 3D 애니메이션을 이용하여 비언어적 정보의 표현에 대한 유의성을 분석하였다. 분석 결과, 제안된 비언어적 정보의 표현 방법은 높은 수준의 유의성을 보여 비언어적 정보 연구의 기초자료로서 활용 가능성이 확인되었다. 다만, '당황'의 경우 코드화된 얼굴 구성 요소의 모양 적용에 한계가 있으며 보다 체계적 연구가 요구된다.

실시간 얼굴 특징 점 추출을 위한 색 정보 기반의 영역분할 및 영역 대칭 기법 (Real-Time Face Extraction using Color Information based Region Segment and Symmetry Technique)

  • 최승혁;김재경;박준;최윤철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (2)
    • /
    • pp.721-723
    • /
    • 2004
  • 최근 가상환경에서 아바타의 활용이 빠르게 증가하면서 아바타 애니메이션에 대한 연구가 활발히 진행되고 있다. 특히 아바타의 사람과 같은 자연스러운 얼굴 애니메이션(Facial Animation)은 사용자에게 아바타가 살아 있는 듯한 느낌(Life-likeness)과 사실감(Believability)을 심어주어 보다 친숙한 인터페이스로 활용될 수 있다. 이러한 얼굴 애니메이션 생성을 위해 얼굴의 특징 점을 추출하는 기법이 끊임없이 이루어져 왔다. 그러나 지금까지의 연구는 실시간으로 사람 얼굴로부터 모션을 생성하고 이를 바로 3D 얼굴 모델에 적용 및 모션 라이브러리를 구축하기 위한 최적화된 알고리즘 개발에 대한 연구가 미흡하였다. 본 논문은 실제 사랑 얼굴 모델로부터 실시간으로 특징 점 인식을 통한 애니메이션 적용 및 라이브러리 생성 기법에 대친 제안한다. 제안 기법에서는 빠르고 정확한 특징 점 추출을 위하여 색 정보를 가공하여 얼굴 영역을 추출해내고 이를 영역 분할하여 필요한 특징 점을 추출하였으며, 자연스러운 모션 생성을 위하여 에러 발생 시 대칭점을 이용한 복구 알고리즘을 개발하였다. 본 논문에서는 이와 같은 색 정보 기반의 영역분할 및 영역 대칭 기법을 제시하여 실시간으로 끊김이 없고 자연스러운 얼굴 모션 라이브러리를 생성 및 적용하였다.

  • PDF

Action Units(AU)를 사용한 애니메이션 캐릭터 표정 분석 (A Study on Expression Analysis of Animation Character Using Action Units(AU))

  • 신현민;원선희;김계영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2008년도 제39차 동계학술발표논문집 16권2호
    • /
    • pp.163-167
    • /
    • 2009
  • 본 논문에서는 크게 2단계에 걸쳐 다양한 형태의 얼굴을 가진 2차원 애니메이션 상의 캐릭터 얼굴구성요소를 추출하고 표정을 분석한다. 첫 번째 단계에서는, 기존의 얼굴인식 및 표정인식 분야에서 이용되었던 동적메쉬모델을 간소화하여 캐릭터 얼굴에 적용하기 위한 최적의 표준 메쉬모델을 제작하고, 이 모델을 사용하여 얼굴구성요소의 위치 및 형태정보를 추출한다. 두 번째 단계에서는, 앞 단계에서 추출된 3가지 얼굴구성요소(눈썹, 눈, 입)를 사용하여 FACS(Facial Action Coding System)에 정의된 AU(Action Units) 44개 중 12개의 AU를 사용하여 캐릭터의 5까지 기본적인 얼굴 표정에 대해 분석 및 정의한다. 본 논문에서 정의한 AU로 기본적인 5가지 얼굴표정에 대해 표정분석 정확도를 측정하였고, 서로 다른 캐릭터에 실험함으로써 제안된 AU정의의 타당성을 제시한다.

  • PDF

얼굴 애니메이션을 위한 직관적인 유사 고유 얼굴 모델 (Intuitive Quasi-Eigenfaces for Facial Animation)

  • 김익재;고형석
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제12권2호
    • /
    • pp.1-7
    • /
    • 2006
  • 블렌드 쉐입 기반 얼굴 애니메이션을 위해 기저 모델(Expression basis)을 생성하는 방법을 크게 두 가지로 구분하면, 애니메이터가 직접 모델링을 하여 생성하는 방법과 통계적 방법에 기초하여 모델링하는 방법이 있다. 그 중 애니메이터에 의한 수동 모델링 방법으로 생성된 기저 모델은 직관적으로 표정을 인식할 수 있다는 장점으로 인해 전통적인 키프레임 제어가 가능하다. 하지만, 표정 공간(Expression Space)의 일부분만을 커버하기 때문에 모션데이터로부터의 재복원 과정에서 많은 오차를 가지게 된다. 반면, 통계적 방법을 기반으로 한 기저모델 생성 방법은 거의 모든 표정공간을 커버하는 고유 얼굴 모델(Eigen Faces)을 생성하므로 재복원 과정에서 최소의 오차를 가지지만, 시각적으로 직관적이지 않은 표정 모델을 만들어 낸다. 따라서 본 논문에서는 수동으로 생성한 기저모델을 유사 고유 얼굴 모델(Quasi-Eigen Faces)로 변형하는 방법을 제시하고자 한다. 결과로 생성되는 기저 모델은 시각적으로 직관적인 얼굴 표정을 유지하면서도 통계적 방법에 의한 얼굴표정 공간의 커버 영역과 유사하도록 확장할 수 있다.

  • PDF

MPEG-4TTS 현황 및 전망

  • 한민수
    • 전자공학회지
    • /
    • 제24권9호
    • /
    • pp.91-98
    • /
    • 1997
  • Text-to-Speech(WS) technology has been attracting a lot of interest among speech engineers because of its own benefits. Namely, the possible application areas of talking computers, emergency alarming systems in speech, speech output devices for speech-impaired, and so on. Hence, many researchers have made significant progresses in the speech synthesis techniques in the sense of their own languages and as a result, the quality of current speech synthesizers are believed to be acceptable to normal users. These are partly why the MPEG group had decided to include the WS technology as one of its MPEG-4 functionalities. ETRI has made major contributions to the current MPEG-4 775 appearing in various MPEG-4 documents with relatively minor contributions from AT&T and NW. Main MPEG-4 functionalities presently available are; 1) use of original prosody for synthesized speech output, 2) trick mode functions for general users without breaking synthesized speech prosody, 3) interoperability with Facial Animation(FA) tools, and 4) dubbing a moving/anlmated picture with lip-shape pattern informations.

  • PDF

3차원동작측정에 의한 얼굴 표정의 분석 (Analysis of facial expressions using three-dimensional motion capture)

  • 박재희;이경태;김봉옥;조강희
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1996년도 추계학술대회논문집
    • /
    • pp.59-65
    • /
    • 1996
  • 인간의 얼굴 표정은 인간의 감성이 가장 잘 나타나는 부분이다 . 따라서 전통적으로 인간의 표정을 감 성과 연관 지어 연구하려는 많은 노력이 있어 왔다. 최근에는 얼굴 온도 변화를 측정하는 방법, 근전도(EMG; Electromyography)로 얼굴 근육의 움직임을 측정하는 방법, 이미지나 동작분석에 의한 얼굴 표정의 연구가 가능 하게 되었다. 본 연구에서는 인간의 얼굴 표정 변화를 3차원 동작분석 장비를 이용하여 측정하였다. 얼굴 표정 의 측정을 위해 두가지의 실험을 계획하였는데, 첫번 째 실험에서는 피실험자들로 하여금 웃는 표정, 놀라는 표정, 화난 표정, 그리고 무표정 등을 짓게 한 후 이를 측정하였으며, 두번째 실험에스는 코미디 영화와 공포 영화를 피 실험자들에게 보여 주어 피실험자들의 표정 변화를 측정하였다. 5명의 성인 남자가 실험에 참여하였는데, 감성을 일으킬 수 있는 적절한 자극 제시를 못한 점 등에서 처음에 기도했던 6개의 기본 표정(웃음, 슬픔, 혐오, 공포, 화남, 놀람)에 대한 모든 실험과 분석이 수행되지 못했다. 나머지 부분을 포함한 정교한 실험 준비가 추후 연구 에서 요구된다. 이러한 연구는 앞으로 감성공학, 소비자 반응 측정, 컴퓨터 애니메이션(animation), 정보 표시 장치(display) 수단으로서 사용될 수 있을 것이다.

  • PDF