• 제목/요약/키워드: 3D Motion System

검색결과 796건 처리시간 0.029초

단안 영상 시퀸스에서 움직임 추정 기반의 3차원 깊이 정보 추출 알고리즘 (3D Depth Information Extraction Algorithm Based on Motion Estimation in Monocular Video Sequence)

  • 박준호;전대성;윤영우
    • 정보처리학회논문지B
    • /
    • 제8B권5호
    • /
    • pp.549-556
    • /
    • 2001
  • 2차원 영상으로 부터 3차원 영상으로 복원하는 일은 일반적으로 카메라의 초점에서 영상 프레임의 각 픽셀까지의 깊이 정보가 필요하고, 3차원 모델의 복원에 관한 일반적인 수작업은 많은 식나과 비용이 소모된다. 본 논문에서는 카메라의 움직임이 포함되어 있는 단안 영상 시퀸스로부터 3차원 영상 제작에 필요한 상대적인 깊이 정보를 실시간으로 추출하는 알고리즘을 제안하고, 하드웨어를 구현하기 위한여 알고리즘을 단순화하였다. 이 알고리즘은 카메라 이동에 의한 영상의 모든 점들의 움직임은 깊이 정보의 종속적이라는 사실에 기반을 두고 있다. 불록매칭 알고리즘에 기반을 둔 전역 움직임 탐색에 의한 움직임 벡터를 추출한 후, 카메라 회전과 확대/축소에 관한 카메라 움직임 보상을 실행하고 깉이 정보 추출 과정이 전개된다. 깊이 정보 추출 과정은 단안 영상에서 객체의 이동처리를 분석하여 움직임 벡터를 구하고 프레임내의 모든 픽셀에 대한 평균 깊이를 계산한 후, 평균 깊이에 대한 각 블록의 상대적 깊이를 산출하였다. 모의 실험 결과 전경과 배경에 속하는 영역의 깊이는 인간 시각 체계가 인식하는 상대적인 깊이와 일치한다는 것을 보였다.

  • PDF

Real-time 3D multi-pedestrian detection and tracking using 3D LiDAR point cloud for mobile robot

  • Ki-In Na;Byungjae Park
    • ETRI Journal
    • /
    • 제45권5호
    • /
    • pp.836-846
    • /
    • 2023
  • Mobile robots are used in modern life; however, object recognition is still insufficient to realize robot navigation in crowded environments. Mobile robots must rapidly and accurately recognize the movements and shapes of pedestrians to navigate safely in pedestrian-rich spaces. This study proposes real-time, accurate, three-dimensional (3D) multi-pedestrian detection and tracking using a 3D light detection and ranging (LiDAR) point cloud in crowded environments. The pedestrian detection quickly segments a sparse 3D point cloud into individual pedestrians using a lightweight convolutional autoencoder and connected-component algorithm. The multi-pedestrian tracking identifies the same pedestrians considering motion and appearance cues in continuing frames. In addition, it estimates pedestrians' dynamic movements with various patterns by adaptively mixing heterogeneous motion models. We evaluate the computational speed and accuracy of each module using the KITTI dataset. We demonstrate that our integrated system, which rapidly and accurately recognizes pedestrian movement and appearance using a sparse 3D LiDAR, is applicable for robot navigation in crowded spaces.

Realizing a Mixed Reality Space Guided by a Virtual Human;Creating a Virtual Human from Incomplete 3-D Motion Data

  • Abe, Shinsuke;Yamaguti, Iku;Tan, Joo Kooi;Ishikawa, Seiji
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.1625-1628
    • /
    • 2003
  • Recently the VR technique has evolved into a mixed reality (MR) technique, in which a user can observe a real world in front of him/her as well as virtual objects displayed. This has been realized by the employment of a see-through type HMD (S-HMD). We have been developing a mixed reality space employing the MR technique. The objective of our study is to realize a virtual human that acts as a man-machine interface in the real space. It is important in the study to create a virtual human acting naturally in front of a user. In order to give natural motions to the virtual human, we employ a developed motion capture technique. We have already created various 3-D human motion models by the motion capture technique. In this paper, we present a technique for creating a virtual human using a human model provided by a computer graphics software, 3D Studio Max(C). The main difficulty of this issue is that 3D Studio Max(C) claims 28 feature points for describing a human motion, but the used motion capture system assumes less number of feature points. Therefore a technique is proposed in the paper for producing motion data of 28 feature points from the motion data of less number of feature points or from incomplete motion data. Performance of the proposed technique was examined by observing visually the demonstration of some motions of a created virtual human and overall natural motions were realized.

  • PDF

컨포멀 소나에서의 표적고각 추적 및 융합을 이용한 표적기동분석 성능향상 연구 (A Study on Performance Improvement of Target Motion Analysis using Target Elevation Tracking and Fusion in Conformal Array Sonar)

  • 이해호;박규태;신기철;조성일
    • 한국군사과학기술학회지
    • /
    • 제22권3호
    • /
    • pp.320-331
    • /
    • 2019
  • In this paper, we propose a method of TMA(Target Motion Analysis) performance improvement using target elevation tracking and fusion in conformal array sonar. One of the most important characteristics of conformal array sonar is to detect a target elevation by a vertical beam. It is possible to get a target range to maximize advantages of the proposed TMA technology using this characteristic. And the proposed techniques include target tracking, target fusion, calculation of target range by multipath as well as TMA. A simulation study demonstrates the outstanding performance of proposed techniques.

3D Animation Data를 활용한 가상 Marionette 시뮬레이션 (Simulation of Virtual Marionette with 3D Animation Data)

  • 오의상;성정환
    • 한국콘텐츠학회논문지
    • /
    • 제9권12호
    • /
    • pp.1-9
    • /
    • 2009
  • 인형은 여러 가지 재료를 사용하여 사람의 모습을 축소하여 만든 모형으로써 인형극의 한 구성요소를 담당하며 지금까지 인간의 문화 활동의 일부분을 담당해왔다. 그러나 전문가들의 감소, 기술 전수의 어려움 등으로 인해 인형극의 수요와 공급 감소현상이 지속됨에 따라 인형극의 자동화를 목적으로 하는 Robotic Marionette에 대한 연구가 세계적으로 진행되고 있다. 즉, 실제 전통적 줄 인형을 제어하는 컨트롤러를 모터로 대체하기 위한 구조 설계와 줄 인형의 동작표현을 위한 효율적인 프로세스의 개발이 필요하다. 따라서 본 논문은 첫째, 모셥캡쳐와 3D 프로그램을 통해 나온 모션 데이터의 가공 및 생성방법과 둘째, 줄 인형의 동작표현에 효과적인 방안을 제시한다. 셋째, 3차원 모션 데이터를 활용, 시뮬레이션의 선행 방안을 제시함에 따라 실제 Robotic Marionette System을 구축할 때 발생하는 제작 오류와 비용을 최소화하는 방법을 제안하도록 한다.

3D 아바타의 자연스러운 수화 동작 표현 방법 (Soft Sign Language Expression Method of 3D Avatar)

  • 오영준;장효영;정진우;박광현;김대진;변증남
    • 정보처리학회논문지B
    • /
    • 제14B권2호
    • /
    • pp.107-118
    • /
    • 2007
  • 본 논문에서는 실제 수화자의 관점에서 기존 수화 아바타의 한계와 문제점을 지적한다. 이를 해결하기 위하여 손 모양, 손 방향, 손 운동을 비롯하여 입술 움직임, 얼굴 표정, 안색, 운동자 움직임, 몸동작 등을 통해 수화를 보다 자연스럽게 표현할 수 있는 수화 아바타를 개발하였다. 또한, 데이터베이스의 성능을 높이기 위해 손의 움직임과 함께 다른 신체 요소들의 움직임을 구조적으로 같이 기술할 수 있는 하이퍼 수화 문장을 제안한다. 개발된 시스템의 우수성을 보이기 위해 실제 청각 장애인을 대상으로 설문조사를 수행하여 시스템의 사용성을 평가하였다.

A Measurement System for 3D Hand-Drawn Gesture with a PHANToMTM Device

  • Ko, Seong-Young;Bang, Won-Chul;Kim, Sang-Youn
    • Journal of Information Processing Systems
    • /
    • 제6권3호
    • /
    • pp.347-358
    • /
    • 2010
  • This paper presents a measurement system for 3D hand-drawn gesture motion. Many pen-type input devices with Inertial Measurement Units (IMU) have been developed to estimate 3D hand-drawn gesture using the measured acceleration and/or the angular velocity of the device. The crucial procedure in developing these devices is to measure and to analyze their motion or trajectory. In order to verify the trajectory estimated by an IMU-based input device, it is necessary to compare the estimated trajectory to the real trajectory. For measuring the real trajectory of the pen-type device, a PHANToMTM haptic device is utilized because it allows us to measure the 3D motion of the object in real-time. Even though the PHANToMTM measures the position of the hand gesture well, poor initialization may produce a large amount of error. Therefore, this paper proposes a calibration method which can minimize measurement errors.

3차원 재구성과 추정된 옵티컬 플로우 기반 가려진 객체 움직임 추적방법 (Occluded Object Motion Tracking Method based on Combination of 3D Reconstruction and Optical Flow Estimation)

  • 박준형;박승민;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제21권5호
    • /
    • pp.537-542
    • /
    • 2011
  • 거울 신경 세포는 동물이 어떤 동작을 할 때와 그 동물이 다른 동물의 동일한 동작을 하는 것을 관찰 할 때, 똑같은 세포 발화를 하는 신경세포이다. 본 논문에서는 거울 신경 세포의 발화 원리를 이용하여 비슷한 방법으로 보이지 않는 부분에 대한 객체의 움직임을 추적하는 방법을 3차원 재구축 방법을 통해 제안한다. 거울 신경 세포 시스템과 같은 발화 원리를 통해 의도 인지 시스템을 구축하기 위해, 스테레오 카메라를 통해 획득한 두 개의 이미지 데이터를 통해 깊이 정보를 계산하여 3차원으로 재구축한다. 3차원 재구축을 통해 만들어진 이미지 데이터를 옵티컬 플로우를 사용하여 3차원 이미지에서 객체의 움직임 방향을 추정한다. Estimation 알고리즘인 칼만 필터를 사용하여 객체의 움직임 추정을 잡음에 강인하게 한다. 객체의 움직임 추정을 통하여 객체의 움직임에 따라 구축된 이미지 데이터를 히스토리화 하여 데이터를 저장한다. 객체의 일부분 혹은 전체가 다른 물체로 인해 가려져 스테레오 카메라 시야에서 사라졌을 때, 과거에 저장된 히스토리로 부터 데이터를 가져와 가려진 부분에 대한 객체의 원래의 모습을 복원한다. 이 복원을 통하여 움직임 추정을 한다.

실시간 손동작 인식을 위한 동작 평면 추정 (Motion Plane Estimation for Real-Time Hand Motion Recognition)

  • 정승대;장경호;정순기
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.347-358
    • /
    • 2009
  • 손동작을 인식하는 연구가 오랫동안 이뤄져 왔지만 대개의 시스템들이 값비싼 깊이 카메라를 사용하거나 여러 개의 카메라를 사용해 분석하는 등 그 비용이 크며 작동이 가능한 작업 공간이 지극히 제한적이었다. 본 논문에서는 가전제품을 원격 제어하기 위한 목적으로 두 개의 회전 모터를 사용해 작업 공간을 확대하고 저렴한 일반 카메라를 사용해서 효율적으로 손동작을 인식하기 위한 시스템을 제안한다. 이 시스템은 입력된 카메라의 자세 정보와 이미지상의 2차원적 손가락 위치 정보를 이용하여 3차원 궤적을 추정하고 이를 동작 평면으로 투영시켜 의미 있는 선형 동작 패턴으로 복원한다. 또한 본 논문에서는 개발된 시스템을 테스트하여 주어진 목적에 맞는 정확도를 가지는 작업 영역을 정의한다.

휴머노이드 로봇을 위한 비전기반 장애물 회피 시스템 개발 (Development of Vision based Autonomous Obstacle Avoidance System for a Humanoid Robot)

  • 강태구;김동원;박귀태
    • 전기학회논문지
    • /
    • 제60권1호
    • /
    • pp.161-166
    • /
    • 2011
  • This paper addresses the vision based autonomous walking control system. To handle the obstacles which exist beyond the field of view(FOV), we used the 3d panoramic depth image. Moreover, to decide the avoidance direction and walking motion of a humanoid robot for the obstacle avoidance by itself, we proposed the vision based path planning using 3d panoramic depth image. In the vision based path planning, the path and walking motion are decided under environment condition such as the size of obstacle and available avoidance space. The vision based path planning is applied to a humanoid robot, URIA. The results from these evaluations show that the proposed method can be effectively applied to decide the avoidance direction and the walking motion of a practical humanoid robot.