• 제목/요약/키워드: 모션 캡쳐 기술

검색결과 67건 처리시간 0.021초

모션 데이터를 사용한 대화식 실시간 얼굴 애니메이션 (Interactive Realtime Facial Animation with Motion Data)

  • 김성호
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권4호
    • /
    • pp.569-578
    • /
    • 2003
  • 본 논문은 광학식 얼굴 모션 캡쳐 데이터를 재사용하여 원하는 얼굴 표정 애니메이션을 실시간에 생성하는 방법을 기술한다. 이 방법의 핵심요소는 얼굴 표정들 간의 거리를 정의하고 이를 이용하여 표정들을 적당한 공간에 분포시키는 방법과 이 공간을 사용하여 실시간 표정 애니메이션을 생성하기 위한 사용자 인터페이스 기법이다. 우리는 약 2400여개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하였다. 그리고 사용자가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되도록 하였다. 약 2400여개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 데이터와 데이터 사이의 거리를 계산해야할 필요가 있고, 각 데이터와 데이터 사이의 최단거리를 구하는데 있어서는 Floyd 알고리즘을 사용하며, 이를 이용하여 Manifold distance를 구한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정 프레임 데이터들의 Manifold distance를 이용하여 Multidimensional Scaling을 적용하고, 이로부터 2D 평면에 균일하게 분포하였다. 우리는 이와 같은 방법으로 기존의 얼굴 표정 프fp임 데이터들 사이의 거리를 원형 그대로 살리면서 의미 있게 직관적인 공간에 분포한다. 그러므로 본 논문에서 제시한 기법은 사용자가 항해하고자 하는 얼굴 표정 프레임 데이터들이 항상 주변에 존재할 수 있기 때문에, 얼굴 표정 애니메이션을 생성하기 위해서 직관적인 공간을 제한 없고 자유로운 항해를 할 수 있다는 큰 장점을 가지고 있다. 또한 사용자가 원하는 얼굴 표정 애니메이션을 사용하기 쉬운 사용자 인터페이스를 이용하여 실시간으로 생성하여 확인 하고 재생성할 수 있다는 것도 매우 효율적이다.

  • PDF

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

딥러닝 모델과 Kinect 카메라를 이용한 실시간 관절 애니메이션 제작 및 표출 시스템 구축에 관한 연구 (Real-Time Joint Animation Production and Expression System using Deep Learning Model and Kinect Camera)

  • 김상준;이유진;박구만
    • 방송공학회논문지
    • /
    • 제26권3호
    • /
    • pp.269-282
    • /
    • 2021
  • 증강현실과 가상현실 같은 3차원 콘텐츠 보급이 증가함에 따라 실시간 컴퓨터 애니메이션 기술의 중요성이 높아지고 있다. 하지만 컴퓨터 애니메이션 제작 과정은 대부분 수작업 혹은 마커를 부착하는 모션캡쳐 방식으로 이루어져 있다. 때문에 사실적인 영상을 얻기 위해서는 숙련된 전문가에게도 매우 오랜 시간이 필요하다. 이러한 문제점을 해결하기 위해 최근에는 딥러닝 모델과 센서를 기반으로 하는 애니메이션 제작 시스템과 알고리즘이 나오고 있다. 이에 본 논문에서는 딥러닝과 Kinect 카메라 기반 FBX 형식의 애니메이션 제작 시스템에서 자연스러운 인체 움직임을 구현하는 4가지 방법에 대해 연구했다. 각 방법은 환경적 특성과 정확도를 고려하여 선택된다. 첫 번째 방법은 Kinect 카메라를 사용한다. 두 번째 방법은 Kinect 카메라와 보정 알고리즘을 사용한다. 세 번째 방법은 딥러닝 모델을 사용한다. 네 번째 방법은 딥러닝 모델과 Kinect를 사용한다. 제안 방법을 오차와 처리 속도를 실험한 결과, 네 번째 딥러닝 모델과 Kinect를 동시에 사용하는 방법이 다른 방법에 비해 가장 좋은 결과를 보였다.

운동 과정 추적의 자동화를 위한 전이 규칙 모델의 구현 (Implementation of a Transition Rule Model for Automation of Tracking Exercise Progression)

  • 정다니엘;고일주
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권5호
    • /
    • pp.157-166
    • /
    • 2022
  • 운동은 건강한 삶의 영위에 필요하지만 코로나19와 같은 전염병 유행 상황에서 비대면 환경에서 진행되는 것이 권장된다. 그러나 기존의 비대면 방식의 운동 콘텐츠에서는 운동 동작의 인식은 가능하지만 이를 해석해서 피드백 정보를 제공해주는 과정이 자동화되지 않았기 때문에 피드백이 트레이너의 눈대중으로 이루어지는 한계가 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해서 운동 내용 및 이를 구성하는 동작을 추적하기 위해 공식화된 규칙을 만드는 방법을 제안한다. 이러한 규칙을 만들기 위해서는 전체적인 운동 내용의 진행 규칙을 먼저 만들고, 운동을 구성하는 동작의 추적 규칙을 만든다. 동작의 추적 규칙은 동작을 여러 단계로 나누고 단계를 나누는 키 프레임 자세를 정의하는 것에서 출발하여 키 프레임 자세로 대표되는 상태와 상태 간의 전이 규칙을 만듦으로써 생성될 수 있다. 이렇게 생성한 규칙은 모션 캡쳐 장비를 이용한 자세 및 동작 인식기술의 사용을 전제로 하며 이러한 기술 적용의 자동화를 위한 논리적인 전개에 사용된다. 본 논문에서 제안한 규칙을 사용하면 운동 과정에서 나타나는 동작을 인식하는 것뿐만 아니라 동작의 전 과정에 대한 해석의 자동화가 가능하여 인공지능 트레이닝 시스템 등 보다 진보된 콘텐츠 제작이 가능해진다. 이에 따라 운동 과정에 대한 피드백의 질을 높일 수 있다.

얼굴 표정공간의 계층적 가시화 (Hierarchical Visualization of the Space of Facial Expressions)

  • 김성호;정문렬
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권12호
    • /
    • pp.726-734
    • /
    • 2004
  • 본 논문은 애니메이터로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 얼굴 표정 애니메이션을 생성하는 기법을 기술한다 본 시스템에서는 약 2400여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 이를 위해서는 한 표정을 표시하는 상태표현으로 얼굴 특징 점들 간의 상호거리를 표시하는 거리 행렬을 사용한다. 또한 두 표정 간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 사용한다. 그리고 다차원 공간인 표정공간을 항해하기 위해서 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화한다. 그러나 표정의 수가 너무 많아 애니메이터가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 약 10개의 클러스터 센터(후보 키 프레임)를, 단계가 증가될 때마다 후보 키 프레임의 수를 두 배로 하여 클러스터링하고 2차원 평면에 표시한다. 애니메이터는 초기 단계의 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 항해경로를 생성한다. 특정 단계에서는 그전 단계의 항해경로를 따라 새로운 키 프레임들을 선택하여 항해경로를 갱신하고, 마지막 단계에서 항해경로를 갱신하면 애니메이션 설정이 끝난다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 애니메이터들로 하여금 본 시스템을 사용하여 얼굴 애니메이션을 생성하게 하였으며, 그 결과를 평가한다.

골프 동영상으로부터 추출된 스윙 정보를 활용한 3D 모델과 골프 동영상의 동기화 재생 (A Synchronized Playback Method of 3D Model and Video by Extracting Golf Swing Information from Golf Video)

  • 오황석
    • 한국컴퓨터게임학회논문지
    • /
    • 제31권4호
    • /
    • pp.61-70
    • /
    • 2018
  • 본 논문은 골프 스윙 자세 학습자를 위하여 골프 스윙의 참조 모델인 3D 모델과 학습자의 골프 스윙을 촬영한 동영상을 대상으로 스윙 동작 시 각각의 위치 및 시간에서 각 동작을 정밀하게 비교 분석하기 위해 3D 모델의 골프 스윙 동작과 학습자의 스윙 동작을 동기화 시키는 방법을 제안하고 구현한 결과를 제시한다. 3D 모델과 학습자의 스윙 동영상을 동기화시켜 재생하기 위해서 먼저 학습자의 골프 스윙 동영상을 촬영하고, 촬영한 동영상으로부터 어드레스 자세부터 피니쉬 자세까지 골프 클럽의 위치에 따라 상대적 시간 정보를 추출한다. 고품질 모션 캡쳐 장비를 통해 초당 120프레임으로 캡처된 골프 전문가의 움직임 정보를 3D 모델에 리깅한 3D 참조 모델에 학습자 스윙 동영상으로부터 추출한 골프 클럽의 위치별 시간 정보를 적용하여 3D 참조 모델과 학습자의 스윙 동영상을 동기화시켜 재생함으로 학습자는 골프 스윙의 각 위치에서 참조 모델과 자신의 자세를 정밀하게 비교함으로 자세를 교정하거나 학습할 수 있다. 동기화된 재생을 통하여 기존의 수동적으로 위치를 조정하며 참조 모델과 학습자의 스윙을 비교 분석하는 시스템의 기능을 편리하게 사용할 수 있도록 개선할 수 있으며, 골프 자세의 각 위치를 검출하는 영상 처리 기술을 적용한 부분을 제외하고, 동기화시키기 위해 동영상에서 자동적으로 각 위치의 시간 정보를 추출하여 동기화시켜 재생하는 방법은 일반적인 생활 스포츠 분야로 확대하여 활용할 수 있을 것으로 기대한다.

고객 맞춤형 서비스를 위한 관객 행동 기반 감정예측모형 (The Audience Behavior-based Emotion Prediction Model for Personalized Service)

  • 유은정;안현철;김재경
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.73-85
    • /
    • 2013
  • 정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객에게 소구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객이 처한 상태나 상황을 정확하게 인지하는 것이 중요하다. 특히, 고객에게 서비스가 전달되는 이른바 진실의 순간에 해당 고객의 감정 상태를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 얼굴과 행동을 이용하여 사람의 감정을 판단하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 얼굴 표정을 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있지만, 장비와 환경의 제약으로 실제 환경에서 다수의 관객을 대상으로 사용하기에는 다소 어려움이 있다. 이에 본 연구에서는 Plutchik의 감정 분류 체계를 기반으로 사람들의 행동을 통해 감정을 추론해내는 모형을 개발하는 것을 목표로 한다. 본 연구는 콘텐츠에 의해 유발된 사람들의 감정적인 변화를 사람들의 행동 변화를 통해 판단하고 예측하는 모형을 개발하고, 4가지 감정 별 행동 특징을 추출하여 각 감정에 따라 최적화된 예측 모형을 구축하는 것을 목표로 한다. 모형 구축을 위해 사람들에게 적절한 감정 자극영상을 제공하고 그 신체 반응을 수집하였으며, 사람들의 신체 영역을 나누었다. 특히, 모션캡쳐 분야에서 널리 쓰이는 차영상 기법을 적용하여 사람들의 제스쳐를 추출 및 보정하였다. 이후 전처리 과정을 통해 데이터의 타임프레임 셋을 20, 30, 40 프레임의 3가지로 설정하고, 데이터를 학습용, 테스트용, 검증용으로 구분하여 인공신경망 모형을 통해 학습시키고 성과를 평가하였다. 다수의 일반인들을 대상으로 수집된 데이터를 이용하여 제안 모형을 구축하고 평가한 결과, 프레임셋에 따라 예측 성과가 변화함을 알 수 있었다. 감정 별 최적 예측 성과를 보이는 프레임을 확인할 수 있었는데, 이는 감정에 따라 감정의 표출 시간이 다르기 때문인 것으로 판단된다. 이는 행동에 기반한 제안된 감정예측모형이 감정에 따라 효과적으로 감정을 예측할 수 있으며, 실제 서비스 환경에서 사용할 수 있는 효과적인 알고리즘이 될 수 있을 것으로 기대할 수 있다.