• 제목/요약/키워드: 모션 캡쳐

검색결과 177건 처리시간 0.024초

모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data)

  • 김성호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1478-1484
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 3차원 아바타의 실시간적 얼굴 표정을 제어하는 기법을 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 실시간적으로 제어한다. 이를 도와주기 위해 표정공간을 PCA투영 기법을 이용하여 2차원 공간으로 가시화했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 했는데, 본 논문은 그 결과를 평가한다.

  • PDF

인간 동작 데이타로 애니메이션되는 아바타의 학습 (Training Avatars Animated with Human Motion Data)

  • 이강훈;이제희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권4호
    • /
    • pp.231-241
    • /
    • 2006
  • 제어 가능하고 상황에 따라 반응하는 아바타의 제작은 컴퓨터 게임 및 가상현실 분야에서 중요한 연구 주제이다. 최근에는 아바타 애니메이션과 제어의 사실성을 높이기 위해 대규모 동작 캡처 데이타가 활용되고 있다. 방대한 양의 동작 데이타는 넓은 범위의 자연스러운 인간 동작을 수용할 수 있다는 장점을 갖는다. 하지만 동작 데이타가 많아지면 적절한 동작을 찾는데 필요한 계산량이 크게 증가하여 대화형 아바타 제어에 있어 병목으로 작용한다. 이 논문에서 우리는 레이블링(labeling)이 되어있지 않은 모션 데이타로부터 아바타의 행동을 학습시키는 새로운 방법을 제안한다. 이 방법을 사용하면 최소의 실시간 비용으로 아바타를 애니메이션하고 제어하는 것이 가능하다. 본 논문에서 제시하는 알고리즘은 Q-러닝이라는 기계 학습 기법에 기초하여 아바타가 동적인 환경과의 상호작용에 따른 시행착오를 통해 주어진 상황에 어떻게 반응할지 학습하도록 한다. 이 접근 방식의 유효성은 아바타가 서로 간에, 그리고 사용자에 대해 상호작용하는 예를 보임으로써 증명한다.

6축 관성센서를 이용한 센서가속도 추정용 칼만필터 (Kalman Filter for Estimation of Sensor Acceleration Using Six-axis Inertial Sensor)

  • 이정근
    • 대한기계학회논문집A
    • /
    • 제39권2호
    • /
    • pp.179-185
    • /
    • 2015
  • 가속도계의 신호는 운동체의 가속도와 다르며, 운동체의 자세가 변화하는 경우 가속도계 단독으로 센서가속도를 계측할 수 없다. 본 논문에서는 3 축 가속도계와 3 축 자이로스코프로 구성된 6 축관성센서 신호를 바탕으로 운동체의 자세가 지속적으로 변화하는 가운데 가속도를 정확히 추정할 수 있는 칼만필터를 제안한다. 제안하는 알고리즘은 센서의 자세뿐 아니라 센서가속도가 상태벡터의 일부로 설정되어 있는 새로운 구조의 칼만필터로써, 센서 가속도를 명시적으로 정확히 구할 수 있다. 제안된 필터는 다양한 조건하에서 광학모션캡쳐시스템을 이용하여 그 정확성이 검증되었는데, 최신 Xsens MTw 센서와 동등수준의 성능이었다. 제안된 알고리즘은 6 축 관성센서를 바탕으로 운동체의 가속도 추정이 필요한 다양한 모션센서 응용분야에 적용될 수 있다.

4개 관절 기반 인체모션 분석을 위한 특징 추출 및 자세 분류 (Feature Extraction and Classification of Posture for Four-Joint based Human Motion Data Analysis)

  • 고경리;반성범
    • 전자공학회논문지
    • /
    • 제52권6호
    • /
    • pp.117-125
    • /
    • 2015
  • 앉아있는 시간이 긴 현대인들에게 바른 자세를 유지하도록 하는 것은 중요하다. 자세 교정을 위한 치료는 많은 시간과 비용이 소요되며, 전문의의 지속적인 관찰이 필요하다. 그러므로 사용자 스스로 자신의 자세를 판단하고 교정하기 위한 시스템이 필요하다. 본 논문에서는 사용자의 자세 데이터를 취득하여 취득된 자세가 정상자세인지 비정상자세인지 판단한다. 사용자의 자세 데이터 취득을 위해 관성 센서를 이용한 4개 관절 기반 모션캡쳐 시스템을 제안한다. 이 시스템을 통해 대상자의 자세 데이터를 취득하고, 취득한 데이터를 기반으로 특징을 추출하여 DB를 구축한다. 구축한 DB를 K-means 클러스터링 알고리즘을 이용하여 자세 학습을 수행한 후, 정상자세와 비정상자세를 분류한다. 관절의 회전각도, 위치정보, 분석정보를 이용하여 자세분류를 수행한 결과, 정상자세 판단 성공률은 99.79%로 나타났다. 이 결과로 미루어 4개 관절에 대한 특징을 이용하여 사용자의 자세를 판단 가능하며, 향후 척추질환 예방 시스템에 적용하여 사용자의 자세를 교정하는 데 도움을 줄 수 있을 것으로 판단된다.

뇌파측정기와 키넥트를 이용한 기능성 게임 개발 (Development of a Serious Game using EEG Monitor and Kinect)

  • 정상협;한승완;김효찬;김기남;송민선;이강희
    • 한국게임학회 논문지
    • /
    • 제15권4호
    • /
    • pp.189-198
    • /
    • 2015
  • 본 논문에서는 차세대 게임 인터페이스를 활용한 기능성 런닝게임을 제시한다. 게임은 2인용 대결방식으로 개발하였으며, 방식은 다음과 같이 나뉜다. 첫째, 뇌파측정기를 이용하여 사용자1의 감정 변화, 집중력의 강도, 안면의 움직임을 측정한다. 둘째, 모션 캡쳐 장치인 키넥트를 이용하여 사용자2의 달리기, 좌우 방향전환, 점프 등의 모션을 측정한다. 본 게임의 핵심은 사용자의 뇌파 그래프가 실시간으로 게임내의 맵의 형태로 표현되는 것이다. 사용자는 자신의 뇌파가 게임 내의 맵으로 시각화되는 것을 보며 뇌파를 스스로 조절하는 학습능력을 배울 수 있다. 따라서 사용자1은 이러한 기능성 게임을 플레이하면서 뇌의 활성화를 통한 집중력 향상을 꾀할 수 있고, 사용자2는 실제로 달리고 점프하는 동작을 통한 운동능력을 증진하는 효과를 얻을 수 있다.

캐릭터 애니메이션을 위한 기대 효과의 자동 생성 (Automatic Anticipation Effect Generation for Character Animation)

  • 김종혁;최정주
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.852-858
    • /
    • 2006
  • 전통적으로 3차원 애니메이션에서 캐릭터의 동작에 관한 연구는 주로 동작의 사실적인 표현에 중점을 두고 있다. 그러나 이러한 사실적인 애니메이션은 전통적인 2차원 애니메이션에 익숙한 관객들이 어색함을 느끼는 원인이 되기도 한다 이로 인해 전통적인 2차원 애니메이션의 기법을 3차원 애니메이션에 적용하는 비사실적 (non photorealistic) 애니메이션 기법이 연구되고 있다. 본 논문에서는 전통적인 2차원 애니메이션기법 중 하나인 기대 효과(anticipation effect)를 3차원 애니메이션의 캐릭터 동작에 적용하는 자동화된 방법을 제시한다. 전통적인 2차원 애니메이션 기법에 따르면 기대 효과는 애니메이션을 더 설득력 있고 풍부하게 만드는 역할을 한다고 알려져 있다. 기대 효과는 주요한 동작이 일어나기 이전에 반대 방향의 동작이 이루어지는 것으로 나타난다. 3차원 애니메이션에서 캐릭터의 동작은 각 관절의 회전과 캐릭터 중심의 이동으로 표현되기 때문에, 주요한 동작에 대하여 각 관절의 회전과 캐릭터 중심의 이동에서 반대 방향의 움직임을 찾아 주요한 동작 이전에 연결하는 것으로 기대 효과의 동작을 표현할 수 있다. 모션 캡쳐나 키 프레임 방법을 통해 미리 제작된 애니메이션 파일로부터 기대효과를 생생하기 위해 동작 데이터를 분석하여, 기대 효과의 추가가 필요한 주요 동작의 각 관절별 회전을 외삽하여 반대 방향의 회전 움직임을 생생하고 무게 중심의 이동을 예측하여 주요 동작과 반대 방향의 움직임을 갖는 기대 동작을 생성한다. 이후, 생성된 기대 동작과 원래의 동작을 기대 효과의 타이밍을 고려하여 합성하는 것으로 기대효과가 포함된 자연스러운 애니메이션 동작을 얻을 수 있다.

  • PDF

모션 캡쳐를 위한 AHRS의 성능 향상 (Performance Improvement of an AHRS for Motion Capture)

  • 김민경;김태연;유준
    • 제어로봇시스템학회논문지
    • /
    • 제21권12호
    • /
    • pp.1167-1172
    • /
    • 2015
  • This paper describes the implementation of wearable AHRS for an electromagnetic motion capture system that can trace and analyze human motion on the principal nine axes of inertial sensors. The module provides a three-dimensional (3D) attitude and heading angles combining MEMS gyroscopes, accelerometers, and magnetometers based on the extended Kalman filter, and transmits the motion data to the 3D simulation via Wi-Fi to realize the unrestrained movement in open spaces. In particular, the accelerometer in AHRS is supposed to measure only the acceleration of gravity, but when a sensor moves with an external linear acceleration, the estimated linear acceleration could compensate the accelerometer data in order to improve the precision of measuring gravity direction. In addition, when an AHRS is attached in an arbitrary position of the human body, the compensation of the axis of rotation could improve the accuracy of the motion capture system.

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

적외선 카메라와 웹 카메라를 이용한 마커 트래킹 시스템 (Maker Tracking System Using Infrared Camera and Web Camera)

  • 김병기;고영웅;송창근;장재혁
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권7호
    • /
    • pp.753-758
    • /
    • 2010
  • 본 연구에서는 적외선 카메라와 웹 카메라를 이용한 효율적인 마커 트래킹 시스템을 제안한다. 제안하는 방법은 적외선 카메라를 이용하는 시스템에서 발생되는 마커 스왑 문제를 해결할 수 있을 뿐 아니라 빠르게 마커를 트래킹 할 수 있다. 본 연구에서는 각 마커에 대해서 식별이 가능한 고유한 아이디를 지정할 수 있게 하기 위해 적외선 반사판의 색상 정보를 이용하였다. 적외선 카메라는 반사판을 인식하여 마커의 좌표를 찾아내고, 웹 카메라는 마커의 색상 정보를 이용하여 각 마커를 고유하게 식별할 수 있다. 본 연구의 실험 결과를 통하여 제안하는 방법이 마커 스왑을 효과적으로 방지할 수 있을 뿐 아니라, 마커 트래킹에 대해서 빠른 응답 속도를 보이는 것을 확인하였다.

아바타 작업레벨 행위 생성을 위한 행위 모델링 및 편집기 구현 (Modeling and Implementation of Avatar Motion Editor and for Creating of Task-level Behavior)

  • 김가영;김재경;오재균;임순범;최윤철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 추계학술발표논문집 (상)
    • /
    • pp.609-612
    • /
    • 2003
  • 최근 3D 가상환격에서 아바타를 활용한 분야가 많은 관심을 받고 있으며, 아바타를 이용함으로써 사람들의 흥미를 효과적으로 이끌어 낼 수 있다는 장점을 가진다. 현재 이러한 아바타의 행위를 생성하고 제어하기 위해 모션캡쳐 장비를 이용하거나 3D MAX와 같은 전문 그래픽 편집툴, 혹은 자체 개발된 특정 어플리케이션등을 사용하고 있다. 그러나 이와 같은 기존 환경은 비용이 많이 들거나 생성된 아바타 행위의 활용이 특정 어플리케이션 환경에 국한되어 재사용이 어려운 단점이 있다. 본 연구에서는 이러한 기존의 문제점을 해결하기 위해 다양한 도메인 환경에서 필요로 하는 작업레벨의 아바타 행위를 생성, 제어할 수 있는 3D 아바타 행위 편집기를 제안하고자 한다. 본 편집기를 통해서 사용자는 아바타 객체를 직접 조작하여 원하는 작업레벨 행위를 생성하고, 생성된 행위는 표준 아바타형식인 H-anim을 지원하는 XML 스크립트로 저장되어 모든 애플리케이션에서 제약 없이 사용할 수 있다. 또한 저장된 스크립트의 간단한 파라미터 조작만으로 새로운 행위를 생성할 수 있으므로 스크립트의 재사용이라는 측면에서 효과적이다.

  • PDF