• Title/Summary/Keyword: 모션 캡쳐

Search Result 177, Processing Time 0.037 seconds

모바일 임베디드 멀티미디어 시스템에서 효율적인 모션 캡쳐 기반 컴퓨터 애니메이션 제작 패러다임

  • Han, Youn-Mo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10d
    • /
    • pp.661-665
    • /
    • 2006
  • 모션 캡쳐 기반 컴퓨터 애니메이션 제작 기술은 컴퓨터 애니메이션 제작에 매우 광범위하게 사용되고 있다. 모션 캡쳐 기반 컴퓨터 애니메이션 제작 기술은 센서를 사용해서 대상체의 운동을 측정하여 운동 렌더링 파라미터를 추출한 후, 이 운동 파라미터를 컴퓨터에 옮겨서 그래픽 툴을 사용하여 애니메이션화 한다. 이러한 일련의 작업이 현재의 데스크 톱 컴퓨터에서는 문제없이 수행될 수 있지만, 모바일 임베디드 시스템에 그대로 적용되기에는 다소 무리가 있다. 왜냐하면, 모바일 임베디드 시스템의 경우, CPU의 계산 능력과 메모리의 크기가 매우 작기 때문에 이에 특화된 방법이 필요하게 된다. 이러한 취지에서 본 논문은 모바일 임베디드 시스템에서 메모리 사용 효율을 높이기 위해서, 추출된 운동 렌더링 파라미터의 데이터량을 줄여서 메모리에 저장하는 방안을 모색한다. 일반적으로 사용되는 영상 압축 기술은 복원 과정이 복잡해서 모바일 임베디드 시스템의 적은 계산력에 무리를 줄 수 있으므로, 가능한 복원 과정도 계산량이 적은 방안을 강구할 필요가 있다. 이와 같은 목적으로 본 논문에서는 추출된 운동 렌더링 파라미터의 프레임 별 변화를 시간 정합 함수로 모델링 하여, 정합 함수의 파라미터를 메모리에 저장하고, 정합 함수의 함수값 계산을 통해 운동 파라미터를 복원해 내는 쉽고 효율적인 방법을 제안한다. 그리고 본 정합 데이터 압축 방식을 사용하여 상용화된 모바일 임베디드 멀티미디어 시스템에서 효율적인 모션 캡쳐 기반 컴퓨터 애니메이션 제작을 시현한다.

  • PDF

Retargetting Fine Facial Motion Data to New Faces (고밀도 얼굴 모션 캡쳐 데이터를 새로운 얼굴로 리타겟팅하는 기법)

  • Na, Kyung-Keon;Jung, Moon-R.
    • Journal of the Korea Computer Graphics Society
    • /
    • v.9 no.3
    • /
    • pp.7-13
    • /
    • 2003
  • 본 논문은 사람의 실제 얼굴에서 캡쳐된 얼굴 모션 데이터를 새로운 얼굴에 재적용하는 리타켓팅 기법을 제안한다. 본 기법은 형태가 매우 상이한 얼굴 모델에도 적용이 가능하며 특히 주름같은 세밀한 모션의 리타켓팅에 적합하다. 본 기법은 다중해상도 메쉬 즉 노말메쉬(normal mesh)를 사용함으로써 소스와 타켓의 계층적으로 대응관계를 결정하고 계층적으로 리타켓팅한다. 노말 메쉬는 주어진 메쉬를 베이스 메쉬 (base mesh)와 일련의 노말 오프셋 (normal offsets)을 이용하여 근사시킨 계층적 메쉬이다. 본 리타켓팅 기법은 우선 베이스 모션을 소스 모델에서 타겟 모델로 리타켓팅한 후 그 모션 위에 노말 오프셋의 모션을 계층적으로 더해준다. 이 기법은 형태가 매우 세밀한 모션에 대하여 안정적이면서도 정교한 리타켓팅 결과를 생성한다.

  • PDF

Incremental Image-Based Motion Rendering Technique for Implementation of Realistic Computer Animation (사실적인 컴퓨터 애니메이션 구현을 위한 증분형 영상 기반 운동 렌더링 기법)

  • Han, Young-Mo
    • The KIPS Transactions:PartB
    • /
    • v.15B no.2
    • /
    • pp.103-112
    • /
    • 2008
  • Image-based motion capture technology is often used in making realistic computer animation. In this paper we try to implement image-based motion rendering by fixing a camera to a PC. Existing image-based rendering algorithms have disadvantages of high computational burden or low accuracy. The former disadvantage causes too long making-time of an animation. The latter disadvantage degrades reality in making realistic animation. To compensate for those disadvantages of the existing approaches, this paper presents an image-based motion rendering algorithm with low computational load and high estimation accuracy. In the proposed approach, an incremental motion rendering algorithm with low computational load is analyzed in the respect of optimal control theory and revised so that its estimation accuracy is enhanced. If we apply this proposed approach to optic motion capture systems, we can obtain additional advantages that motion capture can be performed without any markers, and with low cost in the respect of equipments and spaces.

Advanced Tracking Calculation by Stereo Vision Algorithm (스테레오 비전 알고리즘을 이용한 향상된 트래킹 연산)

  • Lee, Ki-Jeong;Cho, Hyung-Jin;Song, Min-Gyu;Lee, Byung-Gook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.209-212
    • /
    • 2005
  • 모션 캡쳐 기술은 영화나 게임 혹은 애니메이션과 같은 다양한 분야에서 새롭게 시도되고 있다. 기존의 모션 캡쳐 방식은 마커라는 불편한 인식장치로 인하여 움직임에 적지 않은 제약을 받을 뿐만 아니라 엄청난 고가 장비를 필요로 한다. 갈수록 좀 더 편리한 모션 캡쳐 기술이 요구됨에 따라 실시간으로 물체의 위치를 트래킹(위치추적)하고, 스테레오 비전을 이용하여 3 차원 재 구축을 수행해 입체적인 가상모델을 생성하여 보았다. 본 논문에서는 효율적인 트래킹 연산에 의한 움직임 제약을 최소화한 개선된 알고리즘을 설계, 구현하였고, 저렴한 웹 캠을 이용하여 스테레오 비전방식(Stereo Vision Based)을 접목시켜 기존의 고가 장비들과 유사한 환경을 이 시스템으로도 가능하다는 것을 확인하였다.

  • PDF

Graph-based High-level Motion Segmentation using Normalized Cuts (Normalized Cuts을 이용한 그래프 기반의 하이레벨 모션 분할)

  • Yun, Sung-Ju;Park, An-Jin;Jung, Kee-Chul
    • Journal of KIISE:Software and Applications
    • /
    • v.35 no.11
    • /
    • pp.671-680
    • /
    • 2008
  • Motion capture devices have been utilized in producing several contents, such as movies and video games. However, since motion capture devices are expensive and inconvenient to use, motions segmented from captured data was recycled and synthesized to utilize it in another contents, but the motions were generally segmented by contents producers in manual. Therefore, automatic motion segmentation is recently getting a lot of attentions. Previous approaches are divided into on-line and off-line, where ow line approaches segment motions based on similarities between neighboring frames and off-line approaches segment motions by capturing the global characteristics in feature space. In this paper, we propose a graph-based high-level motion segmentation method. Since high-level motions consist of repeated frames within temporal distances, we consider similarities between neighboring frames as well as all similarities among all frames within the temporal distance. This is achieved by constructing a graph, where each vertex represents a frame and the edges between the frames are weighted by their similarity. Then, normalized cuts algorithm is used to partition the constructed graph into several sub-graphs by globally finding minimum cuts. In the experiments, the results using the proposed method showed better performance than PCA-based method in on-line and GMM-based method in off-line, as the proposed method globally segment motions from the graph constructed based similarities between neighboring frames as well as similarities among all frames within temporal distances.

Motion Generation of Human Body using Real-time Marker-Free Motion Capture (실시간 마커프리 모션캡쳐를 이용한 인체 동작 생성)

  • 이란희;김성은;박창준;이인호
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.05b
    • /
    • pp.559-562
    • /
    • 2003
  • 본 논문에서는 실시간 마커프리 모션캡쳐 시스템으로 캡쳐된 동작자의 Root와 End-effector 위치 데이터를 이용하여 가상 캐릭터의 동작을 생성하는 방법에 0해 기술한다. 동작자의 신체중심이 되는 Root와 머리, 손, 발과 같은 End-effector의 위치 데이터는 동작자의 전방 좌, 우에 위치한 동기화된 2대의 컬러 CCD 카메라를 이용하여 3차원 위치를 캡쳐한다. 영상으로부터 추출되지 않은 중간관절의 위치를 생성하기 위해 Root와 End-effector의 3차원 위치값들을 IK( Inverse Kinematics) 알고리듬에 적용하고, 생성된 위치값들에 다양한 신체의 제약조건을 고려하여 정밀하게 계산한다. 이러한 과정을 거치므로 서 20개 관절의 위치값을 생성할 수 있으며, 생성된 관절의 위치값을 가상 캐릭터에 적용하므로 서 캐릭터의 움직임을 실시간으로 생성할 수 있다.

  • PDF

The Revision of Motion Capture Data using Multiple Layers (다중 레이어를 이용한 모션캡쳐 수정에 관한 연구)

  • Kim, Ki-Hong;Choi, Chul-Young;Chae, Eel-Jin
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.7
    • /
    • pp.903-912
    • /
    • 2009
  • There are still many difficulties in developing techniques for modifying or transforming the flickering of motion capture data or in modifying motion capture data in such a way that suits the animation timing sheet. There is a problem in the existing method of modifying motion capture data. It requires almost same time as in the key frame animation work by a very skilled animator or even more time in modifying. It is believed that this kind of problem can be a basis for a more effective problem-solving method through creating the key animation data node and direct blend layer and replacement layer nodes. This study presents a new method which enables to modify animation data in a nonlinear way without modifying the existing animation data by creating an animation layer node for a direct connection to the animation node. 'Maya' API will be utilized in order to realize this method and the research range will be limited to 'Maya' 3D software which is generally used in motion picture and animation films. According to the results of this study, the new method is much more intuitive than the nonlinear one and does not require the preceding working of making animation clips. In addition, it has enabled to modify flickering and to extract key frames, and due to the compatibility with other programs, it has been possible to modify motion capture data by creating a direct layer node. Finally, in this study, the existing method of modifying animation will be examined, compared and analyzed.

  • PDF

Documentation of Intangible Cultural Heritage Using Motion Capture Technology Focusing on the documentation of Seungmu, Salpuri and Taepyeongmu (부록 3. 모션캡쳐를 이용한 무형문화재의 기록작성 - 국가지정 중요무형문화재 승무·살풀이·태평무를 중심으로 -)

  • Park, Weonmo;Go, Jungil;Kim, Yongsuk
    • Korean Journal of Heritage: History & Science
    • /
    • v.39
    • /
    • pp.351-378
    • /
    • 2006
  • With the development of media, the methods for the documentation of intangible cultural heritage have been also developed and diversified. As well as the previous analogue ways of documentation, the have been recently applying new multi-media technologies focusing on digital pictures, sound sources, movies, etc. Among the new technologies, the documentation of intangible cultural heritage using the method of 'Motion Capture' has proved itself prominent especially in the fields that require three-dimensional documentation such as dances and performances. Motion Capture refers to the documentation technology which records the signals of the time varing positions derived from the sensors equipped on the surface of an object. It converts the signals from the sensors into digital data which can be plotted as points on the virtual coordinates of the computer and records the movement of the points during a certain period of time, as the object moves. It produces scientific data for the preservation of intangible cultural heritage, by displaying digital data which represents the virtual motion of a holder of an intangible cultural heritage. National Research Institute of Cultural Properties (NRICP) has been working on for the development of new documentation method for the Important Intangible Cultural Heritage designated by Korean government. This is to be done using 'motion capture' equipments which are also widely used for the computer graphics in movie or game industries. This project is designed to apply the motion capture technology for 3 years- from 2005 to 2007 - for 11 performances from 7 traditional dances of which body gestures have considerable values among the Important Intangible Cultural Heritage performances. This is to be supported by lottery funds. In 2005, the first year of the project, accumulated were data of single dances, such as Seungmu (monk's dance), Salpuri(a solo dance for spiritual cleansing dance), Taepyeongmu (dance of peace), which are relatively easy in terms of performing skills. In 2006, group dances, such as Jinju Geommu (Jinju sword dance), Seungjeonmu (dance for victory), Cheoyongmu (dance of Lord Cheoyong), etc., will be documented. In the last year of the project, 2007, education programme for comparative studies, analysis and transmission of intangible cultural heritage and three-dimensional contents for public service will be devised, based on the accumulated data, as well as the documentation of Hakyeonhwadae Habseolmu (crane dance combined with the lotus blossom dance). By describing the processes and results of motion capture documentation of Salpuri dance (Lee Mae-bang), Taepyeongmu (Kang seon-young) and Seungmu (Lee Mae-bang, Lee Ae-ju and Jung Jae-man) conducted in 2005, this report introduces a new approach for the documentation of intangible cultural heritage. During the first year of the project, two questions have been raised. First, how can we capture motions of a holder (dancer) without cutoffs during quite a long performance? After many times of tests, the motion capture system proved itself stable with continuous results. Second, how can we reproduce the accurate motion without the re-targeting process? The project re-created the most accurate motion of the dancer's gestures, applying the new technology to drew out the shape of the dancers's body digital data before the motion capture process for the first time in Korea. The accurate three-dimensional body models for four holders obtained by the body scanning enhanced the accuracy of the motion capture of the dance.

Real-time Marker-free Motion Capture System to Create a 3D Virtual Human Model (3차원 가상 인체 생성을 위한 실시간 마커프리 모션캡쳐 시스템)

  • 김성은;이란희;박창준;이인호
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05d
    • /
    • pp.1093-1098
    • /
    • 2002
  • 본 연구실에서 개발한 MIMIC(Motion Interface & Motion Information Capture system)은 동작자의 동작을 획득하고, 동작의 의미를 이해할 수 있도록 설계된 시스템이다. 비전 센서로부터 입력된 영상을 분석하여 동작자의 머리와 두 손, 두 발의 정보를 찾는다. 그리고, 이 정보를 기반으로 팔꿈치나 무릎 등의 중간 관절을 추정한 후 20개의 관절을 가지는 3차원 인체 모델을 구성한다. 이 인체 모델은 동작자의 동작을 실시간으로 흉내낸다. 그러므로, 기존의 마커프리 모션캡쳐 시스템과 달리 완벽한 인체를 구성하기 위한 중간 관절까지 생성함으로써 동작자의 동작을 더욱 자연스럽게 구현할 수 있다.

  • PDF

The Design of Realtime Character Animation System (실시간 캐릭터 애니메이션 시스템의 설계)

  • 이지형;김상원;박찬종
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.189-192
    • /
    • 1999
  • 최근 많은 영화나 컴퓨터 애니메이션에는 인간형 3차원 캐릭터의 애니메이션이 등장하고 있다. 이러한 인체 애니메이션에는 인체의 움직임, 손가락이나 얼굴표정이 포함된다. 대부분의 경우에 자연스러운 인체의 움직임을 추적하기 위해 모션캡쳐를 이용하고 있지만, 이 경우 손가락이나 얼굴표정은 제외되므로 이에 대한 추가 작업이 필요하게 된다. 본 논문에서는 모션캡쳐 장비, 사이버글러브와 Face Tracker를 통합한 시스템을 소개하며, 이 시스템을 이용하여 실시간으로 캐릭터 애니메이션이 가능하게 한다.

  • PDF