• 제목/요약/키워드: 3D Computer Animation

검색결과 235건 처리시간 0.028초

동작 및 효정 동시 포착을 위한 데이터 기반 표정 복원에 관한 연구 (Data-driven Facial Expression Reconstruction for Simultaneous Motion Capture of Body and Face)

  • 박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권3호
    • /
    • pp.9-16
    • /
    • 2012
  • 본 논문은 광학식 동작 포착 장비를 사용해 얼굴과 동작을 동시에 포착할 경우 발생하는 불완전한 표정 데이터의 복원에 관한 연구를 다룬다. 일반적으로 동작 포착과 표정 포착은 필요 해상도에서 차이가 나며, 이로 인해 동작과 표정을 동시에 포착하기 힘들었다. 본 연구에서는 표정과 동작의 동시 포착을 위해, 기존의 작은 마커를 촘촘히 얼굴에 부착하는 표정 포착 방식에서 탈피하여 적은 수의 마커만을 이용하여 표정을 포착하고, 이로부터 세밀한 얼굴 표정을 복원하는 방법을 제안한다. 본 방법의 핵심 아이디어는 얼굴 표정의 움직임을 미리 데이터베이스화하여, 적은 수의 마커로 표현된 얼굴 표정을 복원하는 것이다. 이를 위해 주성분분석을 사용하였으며, 제안된 기술을 실제 동적인 장면에 활용하여 표정의 복원이 잘 됨을 검증하였다.

Ambient Occlusion을 이용한 Global Illumination 대체기법 연구 (A Study on Replacing Method Global Illumination Using Ambient Occlusion)

  • 박재욱;김윤정
    • 만화애니메이션 연구
    • /
    • 통권36호
    • /
    • pp.493-510
    • /
    • 2014
  • 게임 콘솔에서부터 TV, 그리고 헐리우드 영화에 이르기까지 3D 렌더링 테크놀러지는 많은 분야에 쓰이고 있다. 컴퓨터로 이미지를 렌더링하는 방법은 90년대 후반까지는 Phong Shading을 위주로 하는 Rasterization 방식의 렌더링이 주를 이루었으며 이 방식은 최근에까지 영화나 극장용 애니메이션의 렌더링에 주력으로 쓰여 왔다. 21세기에 들어서는 레이 트레이싱(Ray Tracing)과 그 발전형인 글로벌 일루미네이션(Global Illumination)이 사실감과 퀄러티로 대두되면서 건축 렌더링부터 시장을 점유해갔으나, 글로벌 일루미네이션은 극장용 애니메이션이나 영화에 주력으로 사용되기에는 렌더링 시간이 비현실적으로 느린 경우가 많았다. 따라서 본 논문은 각 렌더링 방식의 개념적, 수학적 이해를 살펴본 후 앰비언트 어클루전(Ambient Occlusion)의 함수를 Rasterization방식에서 사용하는 Illumination Loop 식에 접목시켜서 글로벌 일루미네이션처럼 다양한 색의 조명을 반영하면서도 Rasterization처럼 빨리 렌더링 할 수 있는 알고리즘 수식과 이 수식을 사용한 RenderMan Shader 사용 예를 제시하였다. 이는 글로벌 일루미네이션이 나타낼 수 있는 사실적인 표현, 그리고 Rasterization방식의 빠른 속도, 이 두 가지 렌더링 방식의 장점만을 조합하여 짧은 렌더 타임을 유지하면서도 쉽게 좋은 퀄러티를 얻을 수 있는 새로운 개념으로써 이러한 방법은 이후 애니메이션이나 영화 VFX 제작에 있어서 제작비의 절감과 함께 좀 더 완성도 있는 결과물을 만들어 내는 역할을 할 수 있는 계기가 되길 바란다.

3D 지도와 결합된 실시간 증강현실 건물 안내 시스템의 설계 및 구현 (Design and Implementation of Real-time Augmented Reality Building Information System Combined with 3D Map)

  • 김상준;배윤민;최유주
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권4호
    • /
    • pp.39-54
    • /
    • 2018
  • 최근 스마트폰을 이용한 증강현실 기반 건물 안내 어플리케이션들은 사용자의 위치와 목표 건물의 위치 간의 거리에 상관없이 동일한 고정 형태로 정보를 보여주고 있고, 특히 다수의 목표 건물들이 근접하여 위치하고 있을 때 제공 정보들이 중첩하여 디스플레이 됨에 따라 정보 전달력이 떨어지는 제한점이 있다. 또한, 기존 증강현실 기반 어플리케이션에서 사용자의 현재 위치를 직관적으로 파악하는 데는 어려움이 있다. 본 논문에서는 이러한 제한점을 해결하고자 사용자와 건물의 위치에 따라 정보객체의 위치와 크기가 적응적으로 제공되고, 사용자의 위치가 실시간으로 표 시되는 3D 지도를 제 공함으로써 사용자들이 직관적으로 자신의 위치와 건물의 위치를 파악할 수 있도록 하는 안내 시스템을 설계 구현하였다. 본 논문에서 제시한 증강현실 기반 건물 안내 시스템은 서울시 중구에 위치한 덕수궁내의 건물 안내에 초점을 맞추어 제작되었다.

3차원 얼굴 모델링과 예측 시스템 (A Three-Dimensional Facial Modeling and Prediction System)

  • 구본관;정철희;조선영;이명원
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제17권1호
    • /
    • pp.9-16
    • /
    • 2011
  • 본논문에서는 3차원 3D 얼굴 스캔 데이터와 사진 이미지를 이용하여 3D 얼굴 모델을 생성하고 향후의 얼굴을 예측하는 시스템 개발에 대해 기술한다. 본 시스템은 3차원 텍스처매핑, 얼굴 정의 파라미터 입력 도구, 3차원 예측 알고리즘으로 구성 되어 있다. 3차원 텍스처매핑 기능에서는 3D 스캐너로 획득한 얼굴 모델과 사진 이미지를 이용하여 특정 연령에서의 새로운 얼굴모델을 생성한다. 텍스처매핑은 3D 스캐너로부터 획득한 메쉬 데이터에 정면과 좌우 측면의 세 방향의 사진 이미지를 이용하여 매핑하였다. 얼굴 정의 파라미터 입력도구는 3차원 텍스처매핑에 필요한 사용자 인터페이스 도구로서, 얼굴 모델의 정확한 재질값을 얼굴 사진으로부터 얻기 워하여 사진과 3D 얼굴 모델의 특징점을 일치시키는데 사용된다. 본 연구에서는 한 얼굴의 향후 연령대에서의 얼굴 모델을 구하기 위하여 100여개의 얼굴 스캔 데이터베이스를 이용한 통계적 분석에 의해 재질값을 예측 계산하여 해상도 높은 재질값을 가지는 모든 연령대의 3D 얼굴모델을 구성하였다.

모바일 SMS용 캐릭터 애니메이션을 위한 감정 기반 제스처 스타일화 (Emotion-based Gesture Stylization For Animated SMS)

  • 변혜원;이정숙
    • 한국멀티미디어학회논문지
    • /
    • 제13권5호
    • /
    • pp.802-816
    • /
    • 2010
  • 새로운 텍스트 입력으로부터 제스처를 생성하는 것은 컴퓨터 게임, 가상현실 등의 응용분야에서 종종 요구되는 중요한 문제이다. 최근에는 유명 아나운서와 같은 특정인의 제스처를 모방하는 제스처 스타일화에 관한 관심이 증가하고 있다. 그러나 기쁨이나 슬픔과 같은 감정을 이용하여 제스처를 스타일화하려는 시도는 많지 않다. 또한 이전의 연구는 대부분 실시간 알고리즘에 초점을 맞추고 있지 않다. 본 논문에서는 SMS 문장을 캐릭터 얼굴 표정과 제스처 애니메이션으로 자동 변환하고 감정 요소를 이용하여 제스처를 스타일화하는 시스템을 제안한다. 이 시스템의 가장 큰 특징은 제스처에 희로애락의 감정을 결합하는 실시간 알고리즘을 제시하는데 있다. 모바일 단말기를 플랫폼으로 하기 때문에 서버와 단말기에 작업을 적절하게 분배하고 초당 20프레임 이상의 실시간 수행을 보장한다. 먼저, 디즈니 영상에서 감정을 표현하는 단어와 이에 해당하는 제스처를 추출하고 통계적으로 모델링 한 후, 감정과 제스처의 결합을 위하여 Laban의 움직임 이론을 도입한다. 제안된 시스템의 타당성과 기존 서비스와의 대체 적정도를 알아보기 위해서 사용자 반응을 조사 분석한다.

사이버캐릭터의 위상론 (The Aspectual Theory of the Cybercharacter)

  • 이선교
    • 디자인학연구
    • /
    • 제12권4호
    • /
    • pp.182-190
    • /
    • 1999
  • 정보, 디지털, 사이버, 인터넷, 가상세계 등 컴퓨터와 관련된 용어의 범람, 전세계를 실 시간화 시켰다는 말이 진부하게 여겨질 정도의 시간 개념의 변화와 그에 따른 패러다임도 빠르게 변모되고 있다. 본 연구는 빠르게 확산되어 가는 인터넷과 함께 공중파 방송등에서 활동중인 사이버캐릭터(cybercharcter)에 대해 논한 것이다. 사이버캐릭터는 2D애니메이션에서 발전한 3D애니메이션을 포함한 전자매체와 컴퓨터를 이용하여 제작되고 전파 상에서 존재하는 것으로 알고 있다. 사이버캐릭터의 발생은 목적에 따라 여러가지 생성 루트가 있지만 3D그래픽과 컴퓨터에 의해 만들어졌다는 것과 가상공간에서 활동한다는 공통점을 가지고 있다. 이러한 사이버캐릭터의 가장 큰 특징은 인터페이스기능의 확장과 생태학적 성장이다. 사이버스패이스에서 컴퓨터를 사용하는 사용자에게 가장 중요한 것은 사용자와 컴퓨터가 만나는 지점, 즉 인터페이스이다. 사이버캐릭터는 새로운 휴먼인터페이스를 제공하는 매개자로써 가상현실에 대한 관심이 높아지면서 상슨작용을 일으키고 있다. 또한 사이버캐릭터는 생태적 성장특성을 지닌다. 계속적인 이미지의 주입과 네트워크의 발전에 따른 또 다른 부가가치를 만들 수 있기 때문이다. 이러한 사이버캐릭터는 앞으로계속 발전하는 사이버공간에서 중요한 역할을 할 수 있다. 사이버캐릭터의 성공에는 중요한 역할을 할 수 있다. 사이버캐릭터의 성공에는 축척된 기술력, 지금의 지원과 문화적 배경에서 오는 독특한 컨셉 등의 3대 요소가 필요하다. 이러한 3박자가 갖추어질 때 사이버캐릭터가 가상현실의 구심점으로서 하나의 이슈를 갖게 되는 주체가 될 수 있다는 것이다. 또한 앞으로 계속될 인터넷에서 정보의 지배에서 사회, 문화적 정체성에 관한 "한국적 지식 정보 사회"의 실체와 연결되기 때문이다.

  • PDF

Support Vector Machine Based Phoneme Segmentation for Lip Synch Application

  • Lee, Kun-Young;Ko, Han-Seok
    • 음성과학
    • /
    • 제11권2호
    • /
    • pp.193-210
    • /
    • 2004
  • In this paper, we develop a real time lip-synch system that activates 2-D avatar's lip motion in synch with an incoming speech utterance. To realize the 'real time' operation of the system, we contain the processing time by invoking merge and split procedures performing coarse-to-fine phoneme classification. At each stage of phoneme classification, we apply the support vector machine (SVM) to reduce the computational load while retraining the desired accuracy. The coarse-to-fine phoneme classification is accomplished via two stages of feature extraction: first, each speech frame is acoustically analyzed for 3 classes of lip opening using Mel Frequency Cepstral Coefficients (MFCC) as a feature; secondly, each frame is further refined in classification for detailed lip shape using formant information. We implemented the system with 2-D lip animation that shows the effectiveness of the proposed two-stage procedure in accomplishing a real-time lip-synch task. It was observed that the method of using phoneme merging and SVM achieved about twice faster speed in recognition than the method employing the Hidden Markov Model (HMM). A typical latency time per a single frame observed for our method was in the order of 18.22 milliseconds while an HMM method applied under identical conditions resulted about 30.67 milliseconds.

  • PDF

선택적 주의 기법 기반의 영상의 기대효과 자동생성 (Perception based video anticipation generation)

  • 윤종철;이인권
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제13권3호
    • /
    • pp.1-6
    • /
    • 2007
  • 기대효과란 행동이 시작하기 전에 반대반향으로 일어나는 행동을 위한 준비단계로 주로 이차원 애니메이션에서 행동을 강조하기 위해 사용되어 왔다. 본 논문은 영상을 매개로 하여 인식 기반의 기대효과를 자동 생성함으로써 시청자의 주의를 임의의 정보에 집중시키는 방법을 제안한다. 이미지 기반의 집중점을 찾는 문제와 영상속의 움직임을 찾는 방법을 바탕으로 집중성 강화 알고리즘을 역으로 풀어 기대효과를 생성하는 방법을 제시한다. 주요점에 정보를 반대로 약화시키는 기대효과를 통해 주요점을 더욱 역동적으로 강조 할 수 있다. 본 논문의 알고리즘을 통해 광고 등의 전보전달을 위한 영상 또는 역동적 표현이 필요한 영상의 보정이 가능해진다.

  • PDF

골프 동영상으로부터 추출된 스윙 정보를 활용한 3D 모델과 골프 동영상의 동기화 재생 (A Synchronized Playback Method of 3D Model and Video by Extracting Golf Swing Information from Golf Video)

  • 오황석
    • 한국컴퓨터게임학회논문지
    • /
    • 제31권4호
    • /
    • pp.61-70
    • /
    • 2018
  • 본 논문은 골프 스윙 자세 학습자를 위하여 골프 스윙의 참조 모델인 3D 모델과 학습자의 골프 스윙을 촬영한 동영상을 대상으로 스윙 동작 시 각각의 위치 및 시간에서 각 동작을 정밀하게 비교 분석하기 위해 3D 모델의 골프 스윙 동작과 학습자의 스윙 동작을 동기화 시키는 방법을 제안하고 구현한 결과를 제시한다. 3D 모델과 학습자의 스윙 동영상을 동기화시켜 재생하기 위해서 먼저 학습자의 골프 스윙 동영상을 촬영하고, 촬영한 동영상으로부터 어드레스 자세부터 피니쉬 자세까지 골프 클럽의 위치에 따라 상대적 시간 정보를 추출한다. 고품질 모션 캡쳐 장비를 통해 초당 120프레임으로 캡처된 골프 전문가의 움직임 정보를 3D 모델에 리깅한 3D 참조 모델에 학습자 스윙 동영상으로부터 추출한 골프 클럽의 위치별 시간 정보를 적용하여 3D 참조 모델과 학습자의 스윙 동영상을 동기화시켜 재생함으로 학습자는 골프 스윙의 각 위치에서 참조 모델과 자신의 자세를 정밀하게 비교함으로 자세를 교정하거나 학습할 수 있다. 동기화된 재생을 통하여 기존의 수동적으로 위치를 조정하며 참조 모델과 학습자의 스윙을 비교 분석하는 시스템의 기능을 편리하게 사용할 수 있도록 개선할 수 있으며, 골프 자세의 각 위치를 검출하는 영상 처리 기술을 적용한 부분을 제외하고, 동기화시키기 위해 동영상에서 자동적으로 각 위치의 시간 정보를 추출하여 동기화시켜 재생하는 방법은 일반적인 생활 스포츠 분야로 확대하여 활용할 수 있을 것으로 기대한다.

증강현실을 활용한 상황인지기반의 편재형 자동차 정비 서비스 (Ubiquitous Car Maintenance Services Using Augmented Reality and Context Awareness)

  • 이규원;서동우;이재열
    • 한국CDE학회논문집
    • /
    • 제12권3호
    • /
    • pp.171-181
    • /
    • 2007
  • Ubiquitous computing is a vision of our future computing lifestyle in which computer systems seamlessly integrate into our everyday lives, providing services and information in anywhere and anytime fashion. Augmented reality (AR) can naturally complement ubiquitous computing by providing an intuitive and collaborative visualization and simulation interface to a three-dimensional information space embedded within physical reality. This paper presents a service framework and its applications for providing context-aware u-car maintenance services using augmented reality, which can support a rich set of ubiquitous services and collaboration. It realizes bi-augmentation between physical and virtual spaces using augmented reality. It also offers a context processing module to acquire, interpret and disseminate context information. In particular, the context processing module considers user's preferences and security profile for providing private and customer-oriented services. The prototype system has been implemented to support 3D animation, TTS (Text-to-Speech), augmented manual, annotation, and pre- and post-augmentation services in ubiquitous car service environments.