• 제목/요약/키워드: Speech Animation

검색결과 42건 처리시간 0.023초

스케치 인터페이스를 이용한 데이터 기반 얼굴 애니메이션 (Data-driven Facial Animation Using Sketch Interface)

  • 주은정;안소민;이제희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제13권3호
    • /
    • pp.11-18
    • /
    • 2007
  • 자연스러운 얼굴 애니메이션 생성은 캐릭터 애니메이션 분야에서 중요한 문제이다. 지금까지 얼굴 애니메이션은 3차원 모델링 프로그램을 이용한 전문 애니메이터들의 수작업을 통해 생성되거나, 필요한 움직임 데이터를 직접 동작 캡쳐함으로써 만들어 왔다. 그러나 이러한 방식은 일반 사용자가 쉽게 접근 할 수 없으며 많은 시간과 비용을 요구한다는 단점이 있다. 본 연구에서는 실제에 가깝고 자연스러운 얼굴애니메이션을 만들기 위해, 누구나 쉽게 사용할 수 있는 직관적인 방식의 스케치 인터페이스를 이용하고자 한다. 이를 통해 키-프레임을 생성하는 시스템을 구축하고, 얼굴 캡쳐를 통하여 얻은 데이터로부터 추출한 얼굴 표정간의 전이 정보를 이용하여 키-프레임을 보간하는 방식을 제안한다. 본 시스템은 전문 애니메이터가 아닌 일반 사용자도 쉽고 빠르게 다양한 감점을 표출하며, 동시에 말하는 얼굴 애니메이션을 만들 수 있도록 한다.

  • PDF

MPEG-4TTS 현황 및 전망

  • 한민수
    • 전자공학회지
    • /
    • 제24권9호
    • /
    • pp.91-98
    • /
    • 1997
  • Text-to-Speech(WS) technology has been attracting a lot of interest among speech engineers because of its own benefits. Namely, the possible application areas of talking computers, emergency alarming systems in speech, speech output devices for speech-impaired, and so on. Hence, many researchers have made significant progresses in the speech synthesis techniques in the sense of their own languages and as a result, the quality of current speech synthesizers are believed to be acceptable to normal users. These are partly why the MPEG group had decided to include the WS technology as one of its MPEG-4 functionalities. ETRI has made major contributions to the current MPEG-4 775 appearing in various MPEG-4 documents with relatively minor contributions from AT&T and NW. Main MPEG-4 functionalities presently available are; 1) use of original prosody for synthesized speech output, 2) trick mode functions for general users without breaking synthesized speech prosody, 3) interoperability with Facial Animation(FA) tools, and 4) dubbing a moving/anlmated picture with lip-shape pattern informations.

  • PDF

다중 제어 레벨을 갖는 입모양 중심의 표정 생성 (Speech Animation with Multilevel Control)

  • 문보희;이선우;원광연
    • 인지과학
    • /
    • 제6권2호
    • /
    • pp.47-79
    • /
    • 1995
  • 오래 전부터 컴퓨터 그래픽을 이용한 얼굴의 표정 생성은 여러 분야에서 응용되어 왔고,요즘에는 가상현실감 분야나 원격 회의 분야 등에서 가상 에이전트의 표정을 생성하는데 사용되고 있다.그러나 네트워크를 통해 다중 참여자가 상호 작용을 하는 상황에서 표정을 생성하는 경우에는 상호작용을 위해 전송되어야 할 정보의 양으로 인해,실시간에 원하는 표정을 생성하기 어려운 경우가 생긴다.본 연구에서는 이러한 문지를 해결하기 위해 표정 생성에 Level-of-Detail을 적용하였다.Level-of-Detail은 그래픽스 분야에서 복잡한 물체의 외형을 좀 더 효율적으로 나타내기 위해 오랜 전부터 연구되어져 온 기법이지만 아직까지 표정 생성에 적용된 예는 없다.본 연구에서는 상황을 고려하여 적절하게 상세도를 변경하여 표정을 생성하도록 Level-of-Detail기법을 적용하는 방법에 대해 연구하였다.구현된 시스템은 텍스트,음성,Gui, 사용자의 머리의 움직임 등과 같은 다양한 입력에 대해 입모양과 동기화 되는 표정을 생성한다.

  • PDF

HEEAS: 감정표현 애니메이션 알고리즘과 구현에 관한 연구 (HEEAS: On the Implementation and an Animation Algorithm of an Emotional Expression)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제6권3호
    • /
    • pp.125-134
    • /
    • 2006
  • 본 논문은 음성이 인간에게 전달되어 나타나는 여러 가지 감정 표현 중에서 단지 4가지 감정 즉 두려움, 싫증, 놀람 그리고 중성에 대한 감정 표현이 얼굴과 몸동작에 동시에 나타내는 애니메이션 시스템인 HEEAS(Human Emotional Expression Animation System)를 구현하는데 그 주된 목적이 있다. 이를 위해서 본 논문에서는 감정 표현이 풍부한 한국인 20대 청년을 모델로 설정하였다. 또한 입력되어진 음성 신호를 통해서 추출된 감정표현에 대한 데이터를 얼굴코드와 몸동작코드를 부여하고 이를 데이터 베이스화 하여 실제 애니메이션 구현을 하기 위한 처리의 시간을 최소화하였다. 즉, 입력되어진 음성 신호를 이용해서 원하는 결과인 얼굴, 몸동작에 대한 자료를 이진 검색을 이용해서 데이터베이스에서 찾으므로 검색 시간을 최소화하였다. 실제 감정 표현에 대한문제들을 실험을 통해서 얻은 결과가 99.9%의 정확도임을 알 수가 있었다.

  • PDF

입술 애니메이션을 위한 한글 발음의 동시조음 모델 (Coarticulation Model of Hangul Visual speedh for Lip Animation)

  • 공광식;김창헌
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권9호
    • /
    • pp.1031-1041
    • /
    • 1999
  • 기존의 한글에 대한 입술 애니메이션 방법은 음소의 입모양을 몇 개의 입모양으로 정의하고 이들을 보간하여 입술을 애니메이션하였다. 하지만 발음하는 동안의 실제 입술 움직임은 선형함수나 단순한 비선형함수가 아니기 때문에 보간방법에 의해 중간 움직임을 생성하는 방법으로는 음소의 입술 움직임을 효과적으로 생성할 수 없다. 또 이 방법은 동시조음도 고려하지 않아 음소들간에 변화하는 입술 움직임도 표현할 수 없었다. 본 논문에서는 동시조음을 고려하여 한글을 자연스럽게 발음하는 입술 애니메이션 방법을 제안한다. 비디오 카메라로 발음하는 동안의 음소의 움직임들을 측정하고 입술 움직임 제어 파라미터들을 추출한다. 각각의 제어 파라미터들은 L fqvist의 스피치 생성 제스처 이론(speech production gesture theory)을 이용하여 실제 음소의 입술 움직임에 근사한 움직임인 지배함수(dominance function)들로 정의되고 입술 움직임을 애니메이션할 때 사용된다. 또, 각 지배함수들은 혼합함수(blending function)와 반음절에 의한 한글 합성 규칙을 사용하여 결합하고 동시조음이 적용된 한글을 발음하게 된다. 따라서 스피치 생성 제스처 이론을 이용하여 입술 움직임 모델을 구현한 방법은 기존의 보간에 의해 중간 움직임을 생성한 방법보다 실제 움직임에 근사한 움직임을 생성하고 동시조음도 고려한 움직임을 보여준다.Abstract The existing lip animation method of Hangul classifies the shape of lips with a few shapes and implements the lip animation with interpolating them. However it doesn't represent natural lip animation because the function of the real motion of lips, during articulation, isn't linear or simple non-linear function. It doesn't also represent the motion of lips varying among phonemes because it doesn't consider coarticulation. In this paper we present a new coarticulation model for the natural lip animation of Hangul. Using two video cameras, we film the speaker's lips and extract the lip control parameters. Each lip control parameter is defined as dominance function by using L fqvist's speech production gesture theory. This dominance function approximates to the real lip animation of a phoneme during articulation of one and is used when lip animation is implemented. Each dominance function combines into blending function by using Hangul composition rule based on demi-syllable. Then the lip animation of our coarticulation model represents natural motion of lips. Therefore our coarticulation model approximates to real lip motion rather than the existing model and represents the natural lip motion considered coarticulation.

웹툰에 나타난 특징적 말칸 연출에 대한 분석 (The Analysis for the Distinctive Directing of Speech Balloons in Webtoon)

  • 정규하;윤기헌
    • 만화애니메이션 연구
    • /
    • 통권36호
    • /
    • pp.393-416
    • /
    • 2014
  • 만화의 구성요소는 칸, 칸새, 말칸(말풍선)이다. 말칸은 청각적 요소가 완전히 배제된 회화나 청각적 요소를 적극적으로 내포하고 있는 영화, 애니메이션에서는 나타나지 않는 만화만의 특징적인 요소이다. 그러함에도 불구하고 만화의 연구대상에서 말칸은 소외되어 왔던 것이 사실이다. 몇 안되는 선행연구들에서는 말칸의 형태적 특징과 기능에 대해 분명하게 짚고 있다. 웹툰이 일반화된 현재의 시점에도 이러한 말칸의 특징과 기능들이 그대로 계승되어 사용되어지고 있다. 다만 웹의 환경적인 요소가 만화 연출 전반에 걸쳐 변화를 유도한 부분이 있기 때문에 말칸에도 그 영향이 미치고 있다는 것을 알 수 있다. 웹툰에 나타나는 말칸의 특징으로 분류할 만한 관점은 두 가지로 첫째는 말칸의 배치 문제이다. 웹 공간의 무한확장성은 만화의 칸새를 넓게 활용하는데 용이한 환경을 제공해주고 있다. 그에 따라 말칸도 영향을 받아 그 특징을 이용해서 배치하는 경향이 일정부분 나타나고 있다. 이를 분류해 보면 일반 배치형, 외곽 배치형, 상하 배치형, 스크롤 활용형으로 그 특징을 분류할 수 있다. 이러한 경향은 세로스크롤을 활용해 읽어 들어가는 가독방식에 의해 결정되는 것이다. 둘째는 형태적인 문제로 웹툰의 제작 기법이 디지털화되면서 나타나는 다양한 표현방법에 따라 그만큼 말칸 자체의 형태적 표현의 폭이 넓어진 특징이 있다. 그 외 제작형태에 따라 '칸 외 배치형', '칸 내 배치형'이 존재한다. 이러한 경향은 원고 제작에 있어서 출판형태의 원고를 제작한 뒤 여러 매체에 맞는 연출로 편집하기 때문에 나타나는 현상이다. 편집 시에 매체의 특성을 활용하느냐 원본의 이미지를 그대로 고수하느냐의 판단에 따라 달리 표현되는 것이다. 만화는 본질적인 속성을 유지하면서 각 매체의 특성에 따라 변화되어 적용되는 부분들이 생겨나고 있다. 또한 앞으로도 생겨날 매체의 특성에 따라 그 모습을 변화해 갈 것이다. 기존의 선행연구에 새로이 나타나는 현상에 대해 분석하고 분류하여 기록하는 일은 가치 있는 일이 될 것이고 후행연구의 초석이 될 것이다.

기능론적 관점에서 본 애니메이션의 신체언어 연구 - 뮬란, 미녀와 야수, 알라딘, 신밧드를 중심으로- (The Study on Body Language in Animation as Functional Aspects -Focusing on Mulan, Beauty and the beast, Aladdin, Sinbad-)

  • 정미강;이미영;김성희;김재호
    • 디자인학연구
    • /
    • 제20권1호
    • /
    • pp.55-64
    • /
    • 2007
  • 비언어적 의사소통 수단은 언어적 의사소통을 보조하고 대체한다는 점에서 매우 중요하다. 다양한 비언어적 의사소통 수단 중 신체언어는 몸을 통한 의사소통 전반을 말한다. 애니메이션의 경우, 시나리오 전달에 있어서 캐릭터가 가장 중요한 역할을 하므로 이와 같은 신체언어 연출은 매우 중요한 요소 중 하나이다. 애니메이션의 의사소통 구조는 일반적인 의사소통 구조와는 달리 이중적인 의사소통 구조를 가지는데, 첫째는 화자 캐릭터와 청자 캐릭터 사이의 의사소통이고, 둘째는 영상과 관객 간의 의사소통으로 이는 첫 번째 의사소통 구조까지 모두 포함한다. 본 연구에서는 이러한 이중적 구조에 기반하여 애니메이션의 의사소통 구조를 담화내적, 담화외적 구조로 나누고, 기능적 분류법을 이용하여 캐릭터의 신체언어를 적응, 상징, 설명, 조정, 감정표현 행위로 분류하였다. 특히 본 연구의 분석 애니메이션에서 큰 비중을 차지한 설명행위는 화용론적 분류인 발화 행위론으로 세분화하였다. 그리고 분류된 각각의 신체언어를 분석하여 애니메이션에서 표현되는 신체언어의 특징을 규명하고, 효과적인 시나리오 전달과 관객의 감정이입을 도울 수 있는 효율적인 신체언어를 제안하고자 하였다.

  • PDF

3D 캐릭터에서의 자동 립싱크 MAYA 플러그인 개발 (Development of Automatic Lip-sync MAYA Plug-in for 3D Characters)

  • 이상우;신성욱;정성택
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권3호
    • /
    • pp.127-134
    • /
    • 2018
  • 본 논문에서는 한국어를 기반으로 음성 데이터와 텍스트 정보에서 한국어 음소를 추출하고 분할된 음소들을 사용하여 정확하고 자연스러운 3D 립싱크 애니메이션을 제작하기 위한 오토 립싱크 Maya 플러그인을 개발하였다. 여기서 개발된 시스템에서는 음소 분할은 Microsoft Speech API 엔진 SAPI에서 제공하는 49개의 음소를 참조하여 한글에 사용되는 음소들을 모음 8개, 자음 13개로 분류하였다. 또한 모음과 자음의 발음들은 다양한 입모양을 가지지만 일부 동일한 입모양에 대하여 같은 Viseme을 적용할 수 있도록 구현하였다. 이를 바탕으로 파이썬(Python) 기반의 오토 립싱크 Maya 플러그인을 개발하여 립싱크 애니메이션이 한 번에 자동으로 구현할 수 있게 하였다.

한국 독립애니메이션의 미학적 특성과 사회적 소통방식 연구 - '인디애니페스트' 수상작 중심으로 - (A Study on Aesthetic Characteristics and social communication of Korean Independent Animation)

  • 서수정
    • 만화애니메이션 연구
    • /
    • 통권47호
    • /
    • pp.125-148
    • /
    • 2017
  • 본 논문은 한국 유일의 독립애니메이션 영화제인 '인디애니페스트' 수상작을 대상으로 한국 독립애니메이션 이미지를 탐색하여, 예술성과 사회성이 긴밀하게 조응하는 한국 독립애니메이션의 미학적 특성들을 분석하고 미학적 특성을 통해 구축되는 사회적 소통방식을 구체적으로 탐색하였다. '인디애니페스트' 수상작들을 통해 한국 독립애니메이션이 보여주는 있는 말 걸기 방식은 세 가지다. 첫 째는 느낌과 충동, 욕망을 조형적으로 재현하여 수화나 음향처럼 직접적이고 감각적인 이미지로 말을 거는 방식이고 두 번째는 이미지로 다르게 말하기 방식 즉 일상의 익숙한 이미지를 새로운 방식으로 변주하거나 재배치하여 우리 안의 내밀한 리듬이나 정서, 찰나적 성찰이나 사유를 들려주는 방식이며 세 번째 방식에서는 현실과 비현실이 모호하게 중첩된 새로운 층위의 현실세계를 통해 '변방에서 새어나오는 소음으로밖에 지각되지 않았던 목소리' 들을 현실의 담론으로 들리게 만든다. 애니메이션은 본원적으로 이미지로 '의미를 발화하고 소통하는' 매체로서, 언어나 서사를 통해 시행되어 왔던 '의미를 발화하고 소통하는' 방식과 다른 차원 즉 기존의 사회적 목소리와 다른 새로운 방식의 말 걸기 양식을 실행하고 구축해 왔다. 하지만 그럼에도 독립애니메이션을 비롯해서 '애니메이션을 이미지를 통한 사회적, 정치적 말하기라는 관점에서 접근한 연구'는 국내는 물론 국외에서도 쉽게 찾아보기 어렵다. 따라서 애니메이션을 인류 최초의 사유방식이자 재현화법으로서의 성격을 계승하고 있는 매체로 접근하여 이미지를, 이야기를 생산하고 의미를 발화시키는 주체 즉 일종의 소통 언어로 탐색하고자 하는 본 논문은 애니메이션학의 균형 있는 발전을 위해 필요한 연구이다. 또한 본 연구는 한국 독립애니메이션을 학문적 관점에서 재조명하고 보다 폭넓은 시각에서 정당한 가치를 발굴하고 평가받도록 하는 데에도 기여할 수 있을 것이라 생각된다.

한국어 음운체계를 고려한 화자적응 실시간 단모음인식에 관한 연구 (Speaker Adapted Real-time Dialogue Speech Recognition Considering Korean Vocal Sound System)

  • 황선민;윤한경;송복희
    • 한국정보전자통신기술학회논문지
    • /
    • 제6권4호
    • /
    • pp.201-207
    • /
    • 2013
  • 음성인식에 관한 연구는 꾸준히 발전되어 다양한 분야에서 제품에 적용되고 있으며, 특히 스마트폰과 차량의 내비게이션 시스템과 같은 정보기기에서의 적용은 매우 활발히 이루어지고 있는 것이 현실임에도 불구하고 음성인식 연구에서 한국어의 음운 특성을 고려한 연구는 미흡한 것도 현실이다. 디지털 콘텐츠에서 일반적으로 립 싱크의 제작은 애니메이터의 수작업을 반드시 필요로 하며, 이는 시간의 투입을 요하는 지루한 작업이다. 립 싱크를 자동 생성하는 응용 소프트웨어를 사용하기도 하나 반드시 수작업으로 수정과 보정 단계가 요구될 뿐만 아니라 영어 기반으로 제작된 립 싱크 자동생성 소프트웨어를 적용하므로 한국어 음운체계가 달라 자연스러운 립 싱크를 얻기 위하여 많은 시간과 노력이 요구된다. 따라서 본 연구에서는 한국어 음운체계를 고려한 가상 오브젝트들의 립 싱크를 자동 생성하기 위한 화자 독립 기반 한국어 단모음 실시간 인식 알고리즘을 개발을 목표로 하며, 그 인식 결과는 립 싱크의 애니메이션 키로 활용하고자 한다.