• 제목/요약/키워드: 모션캡쳐

검색결과 177건 처리시간 0.021초

음악의 비트 요소를 활용한 사용자 친화적 리듬댄스게임 연구 (Study on User-Friendly Rhythm Dance Game Utilizing Beat Element of Music)

  • 이태하;정승화;구본철
    • 한국게임학회 논문지
    • /
    • 제15권2호
    • /
    • pp.43-52
    • /
    • 2015
  • 본 연구는 음악과 유저의 움직임 간의 자유로운 인터랙션에 주목하는 리듬댄스 게임의 사용자 친화적 게임 플레이 방식을 제안한다. 기존의 리듬댄스 게임들은 사용자의 움직임과 개성적인 춤에 제한을 부여하게 되는데, 이 제한을 최소화하는 방식으로 본 연구는 댄스음악에서 가장 기본 토대를 이루는 비트값을 사용하는 게임 방식을 선택하였다. 음악의 비트를 느끼는 방식은 어깨, 무릎, 고개의 세부분으로 나누어 키넥트를 통해 추출된 각 신체 포지션 값으로 자동적으로 파악된다. 이를 통해 사용자는 게임의 정해진 규칙이 아닌 자신의 춤을 추는 개인적 방식으로 게임을 즐길 수 있게 된다.

모션 캡쳐 자료를 이용한 동작 분석용 캐릭터 애니메이션의 적용 방법에 관한 연구 (A Study on the Application of Character Animation for Motion Analysis Using Motion Capture Data)

  • 손원일;진영완;강상학
    • 한국운동역학회지
    • /
    • 제17권4호
    • /
    • pp.37-44
    • /
    • 2007
  • This study compared the Character Studio of 3ds Max and OpenGL to find an adequate modeling method of character animation to be used in motion analysis in the area of motor mechanics. The subject was one male golfer. We obtained the positional coordinates of marks needed by photographing the subject's golf swing motions. Because the method based on the Character Studio used meticulously designed character meshes, it enabled high.level animation but it took a long time in applying physique and demanded the repeated adjustment of each motion data. With the method based on OpenGL, a character completed once could be usable to almost every testee and desired program control was available, but because each character had to be created by making a computer program, it was hard to make characters delicately. Because the method using the Character Studio is actively studied not only in motor mechanics but also in many research areas, it is expected to be more usable in the near future. On the contrary, the method based on OpenGL is easily applicable and allows the convenient use of other mechanical data.

한글 문자 입력에 따른 얼굴 에니메이션 (Facial Animation Generation by Korean Text Input)

  • 김태은;박유신
    • 한국전자통신학회논문지
    • /
    • 제4권2호
    • /
    • pp.116-122
    • /
    • 2009
  • 본 논문에서는 얼굴 애니메이션을 좀 더 실질적으로 표현하기 위하여 한글 생성의 원리와 입 모양 형태의 유사성을 기반으로 기본 음소를 선정하고 이를 이용하는 새로운 알고리듬을 제안한다. 카메라를 통해 얻어진 특징 점 이용이 아닌, 모션 캡쳐 (Motion Capture) 장비를 사용하여 실제 입모양의 움직임 데이터를 취득하여 취득된 데이터를 지수 증,감 형태로 나타내어 발성에 대한 음소를 표현하고 연속된 음절을 표현하기 위하여 지배 함수(Dominance Function)와 혼합 함수(Blending Function)를 적용하여 동시 조음에 대한 표현을 해결하였다. 또한 음절 간의 결합 시간을 입 주변의 마커(Marker) 거리 값의 변위를 이용하여 그 기울기 값에 따라 시간 지연을 함으로 현실감 있는 사용자 입력 문자에 대한 입 모양 궤적 데이터를 생성하는 실험 결과를 보여준다.

  • PDF

가상공간 이동플랫폼을 위한 교차 공분산 3D 좌표 추정 방법 (Cross-covariance 3D Coordinate Estimation Method for Virtual Space Movement Platform)

  • 정하형;박진하;김민경;장민혁
    • 한국산업정보학회논문지
    • /
    • 제25권5호
    • /
    • pp.41-48
    • /
    • 2020
  • 최근 가상/증강/혼합현실 분야의 이동 플랫폼 시장 수요 커지면서 가상환경을 이용한 다중 체험이 가능한 콘텐츠를 통해 사용자에게 실제 현장과 같은 느낌을 부여하는 체험형 콘텐츠가 주목받고 있다. 본 논문에서는 교육훈련생의 모션 캡쳐를 위한 가상공간 이동플랫폼에서 사용자 위치 추정을 위한 트래커의 추적하는 방법으로, 2차원 영상 평면에 투영된 마커의 좌표를 통한 3차원 교차 공분산의 3D 좌표 추정 방법을 제시한다. 또한, 강체 추적실험을 통해 제안한 알고리즘의 유효성을 검증하여 낮은 해상도의 카메라를 통해서도 3D 좌표 추정이 가능함을 보인다.

제한된 모션 센서와 애니메이션 데이터를 이용한 캐릭터 동작 제어 (Character Motion Control by Using Limited Sensors and Animation Data)

  • 배태성;이은지;김하은;박민지;최명걸
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제25권3호
    • /
    • pp.85-92
    • /
    • 2019
  • 디지털 스토리텔링에 등장하는 3차원 가상 캐릭터에는 외형뿐만 아니라 자세나 동작에서도 캐릭터의 개성이 반영된 고유의 스타일이 부여된다. 그러나 사용자가 웨어러블 동작센서를 사용하여 직접 캐릭터의 신체 동작을 제어하는 경우 캐릭터 고유의 스타일이 무시될 수 있다. 본 연구에서는 가상 캐릭터를 위해 제작된 소량의 애니메이션 데이터만을 이용하는 검색 기반 캐릭터 동작 제어 기술을 사용하여 캐릭터 고유의 스타일을 유지하는 기술을 제시한다. 대량의 학습 데이터를 필요로하는 기계학습법을 피하는 대신 소량의 애니메이션 데이터로부터 사용자의 자세와 유사한 캐릭터 자세를 직접 검색하여 사용하는 기술을 제안한다. 제시된 방법을 검증하기 위해 전문가에 의해 제작된 가상현실 게임용 캐릭터 모델과 애니메이션 데이터를 사용하여 실험하였다. 평범한 사람의 모션캡쳐 데이터를 사용했을 때와의 결과를 비교하여 캐릭터 스타일이 보존됨을 증명하였다. 또한 동작센서의 개수를 달리한 실험을 통해 제시된 방법의 확장성을 증명하였다.

무인 점포 사용자 이상행동을 탐지하기 위한 지능형 모션 패턴 인식 알고리즘 (Intelligent Motion Pattern Recognition Algorithm for Abnormal Behavior Detections in Unmanned Stores)

  • 최영준;나지영;안준호
    • 인터넷정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.73-80
    • /
    • 2023
  • 최근 최저시급의 가파른 인상으로 인건비에 대한 부담이 늘어남과 함께 코로나19의 여파로 무인 상점의 점유율이 높아지고 있는 추세이다. 그로 인해 무인 점포를 타겟으로 하는 도난 범죄들도 같이 늘어나고 있어 이러한 도난 사고를 방지하기 위해 Just-Walk-Out 시스템을 도입하고 고비용의 LiDAR 센서, 가중치 센서 등을 사용하거나 수동으로 지속적인 CCTV 감시를 통해서 확인하고 있다. 하지만 이런 고가의 센서를 많이 사용할수록 점포 운영에 있어 비용 부담이 늘어나게 되고, CCTV 확인은 관리자가 24시간 내내 감시하기 어려워서 사용이 제한적이다. 본 연구에서는 이런 센서들이나 사람에 의지하는 부분을 해결할 수 있고 무인점포에서 사용할 수 있는 저비용으로 도난 등의 이상행동을 하는 고객을 탐지하여 클라우드 기반의 알림을 제공하는 인공지능 영상 처리 융합 알고리즘을 제안하고자 한다. 또한 본 연구에서는 mediapipe를 이용한 모션캡쳐, YOLO를 이용한 객체탐지 그리고 융합 알고리즘을 통해 무인 점포에서 수집한 행동 패턴 데이터를 바탕으로 각 알고리즘들에 대한 정확도를 확인하며 다양한 상황 실험을 통해 융합 알고리즘의 성능을 증명했다.

시각장애인 안전을 위한 영상 기반 저비용 보행 공간 인지 알고리즘 (Vision-based Low-cost Walking Spatial Recognition Algorithm for the Safety of Blind People)

  • 강성현;이세훈;안준호
    • 인터넷정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.81-89
    • /
    • 2023
  • 현대사회에서 시각장애인들은 도보, 승강기, 횡단보도 등 일반적인 환경에서 보행을 하는데 어려움이 있다. 시각장애인의 불편 해소를 위한 연구로 영상이나 음성을 이용한 연구가 있으며, 이런 연구는 고비용의 웨어러블 장치, 고성능 CCTV, 음성 센서 등을 사용하여 실생활에 적용하는 데는 한계가 있다. 본 논문에서 시각장애인이 보행 중에 안전한 이동을 위해서 스마트폰에 포함된 저비용의 영상 센서를 활용하여 주변 도보 공간을 인지하는 인공지능 융합 알고리즘을 제안한다. 제안된 알고리즘은 이동 중인 사람 탐지를 위해서 모션 캡처 알고리즘과 장애물 탐지를 위한 객체 탐지 알고리즘을 융합하여 개발하였다. 모션 캡처 알고리즘으로 mediapipe을 사용하여 이동 중에 있는 주변 보행자들을 모델링 및 탐지하였다. 객체 탐지 알고리즘을 사용했으며 도보 중에 발생하는 다양한 장애물을 모델링 하였다. 실험을 통하여 인공지능 융합 알고리즘을 검증했으며, 정확도 0.92, 정밀도 0.91, 재현율 0.99. F1 score 0.95로 결과를 얻어서 알고리즘의 성능을 확인하였다. 본 연구로 보행 중에 발생하는 볼라드, 공유 킥보드, 자동차 등의 주변 장애물 및 이동 중인 보행자 회피하여 시각장애인들의 통행에 도움을 줄 수 있다.

모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어 (Facial Expression Control of 3D Avatar using Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권5호
    • /
    • pp.383-390
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6)

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성 (Automatic Anticipation Generation for 3D Facial Animation)

  • 최정주;김동선;이인권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.39-48
    • /
    • 2005
  • 전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어 (Facial Expression Control of 3D Avatar by Hierarchical Visualization of Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.277-284
    • /
    • 2004
  • 본 논문은 사용자로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정 제어기법을 기술한다. 본 시스템에서는 2,40P0여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해하면서 수행한다. 그러나 표정의 수가 너무 많아 사용자가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 2,400여개의 표정들을 이용하여 약 11개의 클러스터센터를 가지도록 클러스터링한다. 클러스터 센터들은 2차원 평면에 표시되며 후보 키 프레임으로 사용된다 사용자는 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 초기 항해경로를 생성한다. 사용자가 줌 인(이산적인 단계를 가지고 있음)을 하면 상세한 단계를 보기를 원한다는 의미이므로 줌 인된 단계에 적합한 표정 클러스터들을 생성한다. 단계가 증가될 때 마다 클러스터의 수를 두 배로 하고, 클러스터의 수만큼 표정들을 클러스터링한다. 사용자는 현재 단계에서 그전 단계의 항해경로를 따라 새로운 키 프레임(클러스터 센터)들을 선택하여 항해경로를 갱신한다. 줌 인을 최대로 한 마지막 단계에서 항해경로를 갱신하면 표정 제어 설정이 끝난다. 사용자는 언제든지 줌 아웃을 통해 그 전단계로 돌아가서 항해경로를 수정할 수 있다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.