• 제목/요약/키워드: Pose Tracking

검색결과 157건 처리시간 0.023초

인간 행동 분석을 이용한 위험 상황 인식 시스템 구현 (A Dangerous Situation Recognition System Using Human Behavior Analysis)

  • 박준태;한규필;박양우
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.345-354
    • /
    • 2021
  • Recently, deep learning-based image recognition systems have been adopted to various surveillance environments, but most of them are still picture-type object recognition methods, which are insufficient for the long term temporal analysis and high-dimensional situation management. Therefore, we propose a method recognizing the specific dangerous situation generated by human in real-time, and utilizing deep learning-based object analysis techniques. The proposed method uses deep learning-based object detection and tracking algorithms in order to recognize the situations such as 'trespassing', 'loitering', and so on. In addition, human's joint pose data are extracted and analyzed for the emergent awareness function such as 'falling down' to notify not only in the security but also in the emergency environmental utilizations.

다중 카메라 시스템을 위한 전방위 Visual-LiDAR SLAM (Omni-directional Visual-LiDAR SLAM for Multi-Camera System)

  • 지샨 자비드;김곤우
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.353-358
    • /
    • 2022
  • Due to the limited field of view of the pinhole camera, there is a lack of stability and accuracy in camera pose estimation applications such as visual SLAM. Nowadays, multiple-camera setups and large field of cameras are used to solve such issues. However, a multiple-camera system increases the computation complexity of the algorithm. Therefore, in multiple camera-assisted visual simultaneous localization and mapping (vSLAM) the multi-view tracking algorithm is proposed that can be used to balance the budget of the features in tracking and local mapping. The proposed algorithm is based on PanoSLAM architecture with a panoramic camera model. To avoid the scale issue 3D LiDAR is fused with omnidirectional camera setup. The depth is directly estimated from 3D LiDAR and the remaining features are triangulated from pose information. To validate the method, we collected a dataset from the outdoor environment and performed extensive experiments. The accuracy was measured by the absolute trajectory error which shows comparable robustness in various environments.

Subjective Evaluation on Perceptual Tracking Errors from Modeling Errors in Model-Based Tracking

  • Rhee, Eun Joo;Park, Jungsik;Seo, Byung-Kuk;Park, Jong-Il
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제4권6호
    • /
    • pp.407-412
    • /
    • 2015
  • In model-based tracking, an accurate 3D model of a target object or scene is mostly assumed to be known or given in advance, but the accuracy of the model should be guaranteed for accurate pose estimation. In many application domains, on the other hand, end users are not highly distracted by tracking errors from certain levels of modeling errors. In this paper, we examine perceptual tracking errors, which are predominantly caused by modeling errors, on subjective evaluation and compare them to computational tracking errors. We also discuss the tolerance of modeling errors by analyzing their permissible ranges.

OpenPose기반 딥러닝을 이용한 운동동작분류 성능 비교 (Performance Comparison for Exercise Motion classification using Deep Learing-based OpenPose)

  • 손남례;정민아
    • 스마트미디어저널
    • /
    • 제12권7호
    • /
    • pp.59-67
    • /
    • 2023
  • 최근 인간의 자세와 행동을 추적하는 행동 분석 연구가 활발해지고 있다. 특히 2017년 CMU에서 개발한 오픈소스인 오픈포즈(OpenPose)는 사람의 외모와 행동을 추정하는 대표적인 방법이다. 오픈포즈는 사람의 키, 얼굴, 손 등의 신체부위를 실시간으로 감지하고 추정할 수 있어 스마트 헬스케어, 운 동 트레이닝, 보안시스템, 의료 등 다양한 분야에 적용될 수 있다. 본 논문에서는 헬스장에서 사용자들이 가장 많이 운동하는 Squat, Walk, Wave, Fall-down 4개 동작을 오픈포즈기반 딥러닝인 DNN과 CNN을 이용하여 운동 동작 분류 방법을 제안한다. 학습데이터는 녹화영상 및 실시간으로 카메라를 통해 사용자의 동작을 캡처해서 데이터 셋을 수집한다. 수집된 데이터 셋은 OpenPose을 이용하여 전처리과정을 진행하고, 전처리과정이 완료된 데이터 셋은 본 논문에서 제안한 DNN 및 CNN 모델 이용하여 운동 동작 분류를 학습한다. 제안한 모델에 대한 성능 오차는 MSE, RMSE, MAE를 사용한다. 성능 평가 결과, 제안한 DNN 모델 성능이 제안한 CNN 모델보다 우수한 것으로 나타났다.

가상스튜디오에서 실사 TV 카메라의 3-D 기준 좌표와 추적 영상을 이용한 카메라 파라메타 추출 방법 (Camera Parameter Extraction Method for Virtual Studio Applications by Tracking the Location of TV Camera)

  • 한기태;김회율
    • 방송공학회논문지
    • /
    • 제4권2호
    • /
    • pp.176-186
    • /
    • 1999
  • 가상스튜디오에서 보다 현실감 있는 영상을 제작하기 위해서는 전경화면의 객체와 컴퓨터그래픽으로 지원하는 가상 배경화면간의 동기화를 정확히 실현하는 것이 중요하다. 본 논문은 TV 카메라(실사 카메라)에 대한 추적 영상좌표를 이용하여 동기화에 필요한 카메라 파라메타의 추출방법을 제안한다. 추적 영상에 대한 역투시 방정식과 실사 카메라에 대한 기존좌표와 추정좌표간의 3-D 변환 식으로부터 카메라 파라메타 추출 식을 유도하고, 유도된 식을 이용하여 추출한 파라메타와 실사 카메라에 적용한 파라메타 간의 일치정도를 비교하여 제안한 방법에 대한 타당성을 보인다.

  • PDF

순차영상에서 투영변환과 KLT추적을 이용한 이동 카메라의 위치 및 방향 산출 (A Moving Camera Localization using Perspective Transform and Klt Tracking in Sequence Images)

  • 장효종;차정희;김계영
    • 정보처리학회논문지B
    • /
    • 제14B권3호
    • /
    • pp.163-170
    • /
    • 2007
  • 이동차량 혹은 이동로봇의 자율 주행에 있어서 주변 환경의 인식을 통하여 산출되는 자기위치확인은 가장 핵심적인 요소이다. 일반적으로 GPS나 INS를 통합하여 이동차량 혹은 이동로봇에 장착된 카메라의 위치와 방향을 얻을 수 있지만, 이 경우 정확한 자기위치인식을 위해서는 충분한 지상 기준점을 이용해야만 한다. 본 연구에서는 기존의 호모그래피 방법이 2차원 특징점의 상관관계를 이용하는 것과는 다르게 GPS와 INS 입력값을 이용하여 이전 시점 영상과 중첩된 3차원 모델로부터 얻어진 3차원 좌표를 투영 변환함으로써 예측한 위치와 현재 시점 영상으로부터 KLT 추적방법을 사용하여 산출된 대응 특징점의 위치 사이의 관계로부터 카메라의 위치와 방향을 산출하는 방법을 제안한다. 제안하는 방법의 성능을 평가하기 위해 무선으로 운행되는 간이실험장치 내에 CCD카메라, GPS, INS 등을 장착하였으며, 영상은 15Hz의 프레임율로 획득한 비디오시퀀스를 사용하여 실시간으로 카메라 위치와 방향을 산출하는 실험을 수행하였다.

지능형 헬멧시현시스템 설계 및 시험평가 (Design and Evaluation of Intelligent Helmet Display System)

  • 황상현
    • 한국항공우주학회지
    • /
    • 제45권5호
    • /
    • pp.417-428
    • /
    • 2017
  • 본 논문에서는 항공기 조종사 지능형 헬멧시현시스템(IHDS, Intelligent Helmet Display System)의 아키텍쳐 설계, 단위 구성품 설계, 핵심 소프트웨어 설계내용(헬멧 자세추적, 고도오차 보정 소프트웨어)을 기술하며, 단위시험 및 통합시험에 대한 결과를 기술한다. 세계적인 최신 헬멧시현시스템 개발 추세를 반영하여 3차원 전자지도 시현, FLIR(Forward Looking Infra-Red) 영상시현, 하이브리드형 헬멧자세추적, 바이저 반사형광학계, 야시카메라 영상시현 및 경량 복합소재 헬멧쉘 등의 사양을 설계에 적용하였다. 특히 3차원 전자지도 데이터의 고도오차 자동보정 기법, 고정밀 영상정합 기법, 다색(Multi-color) 조명광학계, 회절소자를 이용한 투과형 영상발광면, 헬멧자세 추정시간을 최소화하는 추적용 카메라, 장/탈착형 야시카메라, 머리 밀착용 에어포켓 등의 신개념의 설계를 제안하였다. 모든 시스템 구성품의 시제작을 완료한 후 단위시험과 시스템 통합시험을 수행하여 기능과 성능을 검증하였다.

빈피킹을 위한 스테레오 비전 기반의 제품 라벨의 3차원 자세 추정 (Stereo Vision-Based 3D Pose Estimation of Product Labels for Bin Picking)

  • 우다야 위제나야카;최성인;박순용
    • 제어로봇시스템학회논문지
    • /
    • 제22권1호
    • /
    • pp.8-16
    • /
    • 2016
  • In the field of computer vision and robotics, bin picking is an important application area in which object pose estimation is necessary. Different approaches, such as 2D feature tracking and 3D surface reconstruction, have been introduced to estimate the object pose accurately. We propose a new approach where we can use both 2D image features and 3D surface information to identify the target object and estimate its pose accurately. First, we introduce a label detection technique using Maximally Stable Extremal Regions (MSERs) where the label detection results are used to identify the target objects separately. Then, the 2D image features on the detected label areas are utilized to generate 3D surface information. Finally, we calculate the 3D position and the orientation of the target objects using the information of the 3D surface.

Combining an Edge-Based Method and a Direct Method for Robust 3D Object Tracking

  • Lomaliza, Jean-Pierre;Park, Hanhoon
    • 한국멀티미디어학회논문지
    • /
    • 제24권2호
    • /
    • pp.167-177
    • /
    • 2021
  • In the field of augmented reality, edge-based methods have been popularly used in tracking textureless 3D objects. However, edge-based methods are inherently vulnerable to cluttered backgrounds. Another way to track textureless or poorly-textured 3D objects is to directly align image intensity of 3D object between consecutive frames. Although the direct methods enable more reliable and stable tracking compared to using local features such as edges, they are more sensitive to occlusion and less accurate than the edge-based methods. Therefore, we propose a method that combines an edge-based method and a direct method to leverage the advantages from each approach. Experimental results show that the proposed method is much robust to both fast camera (or object) movements and occlusion while still working in real time at a frame rate of 18 Hz. The tracking success rate and tracking accuracy were improved by up to 84% and 1.4 pixels, respectively, compared to using the edge-based method or the direct method solely.

UKF와 연동된 입자필터를 이용한 실시간 단안시 카메라 추적 기법 (Real-time Monocular Camera Pose Estimation using a Particle Filiter Intergrated with UKF)

  • 이석한
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권5호
    • /
    • pp.315-324
    • /
    • 2023
  • 본 논문에서는 UKF(unscented Kalman filter)와 연동된 입자필터를 이용한 단안시 카메라의 실시간 자세추정 기법을 제안한다. 단안시 카메라 자세 추정 기법에는 주로 카메라 영상과 자이로스코프, 가속도센서 데이터 등을 연동하는 방법이 많이 이용되고 있으나 본 논문에서 제안하는 방법은 별도의 센서 없이 카메라 영상에서 취득되는 2차원 시각 정보만을 이용하는 것을 목표로 한다. 제안된 방법은 카메라 영상 이외의 부가적인 장비를 이용하지 않고 별도의 센싱 정보 없이 2차원 영상만으로 카메라 추적이 가능하며, 따라서 기존에 비해 하드웨어 구성이 단순해질수 있다는 장점을 갖고 있다. 제안된 방법은 UKF와 연동된 입자필터를 기반으로 한다. 입자필터의 각 입자마다 개별적으로 정의된 UKF로부터 카메라의 상태를 추정한 다음 입자필터의 전체 입자로부터 카메라 상태에 대한 통계데이터를 산출하고 이로부터 카메라의 실시간 자세정보를 계산한다. 기존의 방법과 달리 제안된 방법은 카메라의 급격한 흔들림이 발생하는 경우에도 카메라 추적이 가능함을 보여주며, 영상 내의 특징점 대다수가 가려지는 환경에서도 카메라 추적에 실패하지 않음을 실험을 통하여 확인하였다. 또한 입자의 개수가 35개인 경우 프레임 당 소요 시간이 약 25ms이며 이로부터 실시간 처리에 문제가 없음을 확인할 수 있었다.