• 제목/요약/키워드: pose estimation

검색결과 393건 처리시간 0.026초

인간-컴퓨터 상호 작용을 위한 인간 팔의 3차원 자세 추정 - 기계요소 모델링 기법을 컴퓨터 비전에 적용 (3D Pose Estimation of a Human Arm for Human-Computer Interaction - Application of Mechanical Modeling Techniques to Computer Vision)

  • 한영모
    • 전자공학회논문지SC
    • /
    • 제42권4호
    • /
    • pp.11-18
    • /
    • 2005
  • 인간은 의사 표현을 위해 음성언어 뿐 아니라 몸짓 언어(body languages)를 많이 사용한다 이 몸짓 언어 중 대표적인 것은, 물론 손과 팔의 사용이다. 따라서 인간 팔의 운동 해석은 인간과 기계의 상호 작용(human-computer interaction)에 있어 매우 중요하다고 할 수 있다. 이러한 견지에서 본 논문에서는 다음과 같은 방법으로 컴퓨터비전을 이용한 인간팔의 3차원 자세 추정 방법을 제안하다. 먼저 팔의 운동이 대부분 회전 관절(revolute-joint)에 의해 이루어진다는 점에 착안하여, 컴퓨터 비전 시스템을 활용한 회전 관절의 3차원 운동 해석 기법을 제안한다. 이를 위해 회전 관절의 기구학적 모델링 기법(kinematic modeling techniques)과 컴퓨터 비전의 경사 투영 모델(perspective projection model)을 결합한다. 다음으로, 회전 관절의 3차원 운동해석 기법을 컴퓨터 비전을 이용한 인간 팔의 3차원 자세 추정 문제에 웅용한다. 그 기본 발상은 회전 관절의 3차원 운동 복원 알고리즘을 인간 팔의 각 관절에 순서 데로 적용하는 것이다. 본 알고리즘은 특히 유비쿼터스 컴퓨팅(ubiquitous computing)과 가상현실(virtual reality)를 위한 인간-컴퓨터 상호작용(human-computer interaction)이라는 응용을 목표로, 고수준의 정확도를 갖는 폐쇄구조 형태(closed-form)의 해를 구하는데 주력한다.

UKF와 연동된 입자필터를 이용한 실시간 단안시 카메라 추적 기법 (Real-time Monocular Camera Pose Estimation using a Particle Filiter Intergrated with UKF)

  • 이석한
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권5호
    • /
    • pp.315-324
    • /
    • 2023
  • 본 논문에서는 UKF(unscented Kalman filter)와 연동된 입자필터를 이용한 단안시 카메라의 실시간 자세추정 기법을 제안한다. 단안시 카메라 자세 추정 기법에는 주로 카메라 영상과 자이로스코프, 가속도센서 데이터 등을 연동하는 방법이 많이 이용되고 있으나 본 논문에서 제안하는 방법은 별도의 센서 없이 카메라 영상에서 취득되는 2차원 시각 정보만을 이용하는 것을 목표로 한다. 제안된 방법은 카메라 영상 이외의 부가적인 장비를 이용하지 않고 별도의 센싱 정보 없이 2차원 영상만으로 카메라 추적이 가능하며, 따라서 기존에 비해 하드웨어 구성이 단순해질수 있다는 장점을 갖고 있다. 제안된 방법은 UKF와 연동된 입자필터를 기반으로 한다. 입자필터의 각 입자마다 개별적으로 정의된 UKF로부터 카메라의 상태를 추정한 다음 입자필터의 전체 입자로부터 카메라 상태에 대한 통계데이터를 산출하고 이로부터 카메라의 실시간 자세정보를 계산한다. 기존의 방법과 달리 제안된 방법은 카메라의 급격한 흔들림이 발생하는 경우에도 카메라 추적이 가능함을 보여주며, 영상 내의 특징점 대다수가 가려지는 환경에서도 카메라 추적에 실패하지 않음을 실험을 통하여 확인하였다. 또한 입자의 개수가 35개인 경우 프레임 당 소요 시간이 약 25ms이며 이로부터 실시간 처리에 문제가 없음을 확인할 수 있었다.

비마커 증강현실을 위한 색상 및 깊이 정보를 융합한 Mean-Shift 추적 기반 손 자세의 추정 (The Estimation of Hand Pose Based on Mean-Shift Tracking Using the Fusion of Color and Depth Information for Marker-less Augmented Reality)

  • 이선형;한헌수;한영준
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권7호
    • /
    • pp.155-166
    • /
    • 2012
  • 본 논문은 비마커 증강현실(Marker-less Augmented Reality)을 위한 색상 및 깊이 정보를 융합한 Mean-Shift 추적 알고리즘 기반 손 자세의 추정 기법을 제안한다. 기존 비마커 증강현실의 연구는 손을 검출하기 위해 단순한 실험 배경에서 피부색상 기반으로 손 영역을 검출한다. 그리고 손가락의 특징점을 검출하여 손의 자세를 추정하므로 카메라에서 검출할 수 있는 손 자세에 많은 제약이 따른다. 하지만, 본 논문은 3D 센서의 색상 및 깊이 정보를 융합한 Mean-Shift 추적 기법을 사용함으로써 복잡한 배경에서 손을 검출할 수 있으며 손 자세를 크게 제약하지 않고 손 영역의 중심점과 임의의 2점의 깊이 값만으로 정확한 손 자세를 추정한다. 제안하는 Mean Shift 추적 기법은 피부 색상정보만 사용하는 방법보다 약 50픽셀 이하의 거리 오차를 보였다. 그리고 증강실험에서 제안하는 손 자세 추정 방법은 복잡한 실험환경에서도 마커 기반 방법과 유사한 성능의 실험결과를 보였다.

증강현실 캐릭터 구현을 위한 AI기반 객체인식 연구 (AI-Based Object Recognition Research for Augmented Reality Character Implementation)

  • 이석환;이정금;심현
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1321-1330
    • /
    • 2023
  • 본 연구는 증강현실에서 적용할 캐릭터 생성에서 단일 이미지를 통해 여러 객체에 대한 3D 자세 추정 문제를 연구한다. 기존 top-down 방식에서는 이미지 내의 모든 객체를 먼저 감지하고, 그 후에 각각의 객체를 독립적으로 재구성한다. 문제는 이렇게 재구성된 객체들 사이의 중첩이나 깊이 순서가 불일치 하는 일관성 없는 결과가 발생할 수 있다. 본 연구의 목적은 이러한 문제점을 해결하고, 장면 내의 모든 객체에 대한 일관된 3D 재구성을 제공하는 단일 네트워크를 개발하는 것이다. SMPL 매개변수체를 기반으로 한 인체 모델을 top-down 프레임워크에 통합이 중요한 선택이 되었으며, 이를 통해 거리 필드 기반의 충돌 손실과 깊이 순서를 고려하는 손실 두 가지를 도입하였다. 첫 번째 손실은 재구성된 사람들 사이의 중첩을 방지하며, 두 번째 손실은 가림막 추론과 주석이 달린 인스턴스 분할을 일관되게 렌더링하기 위해 객체들의 깊이 순서를 조정한다. 이러한 방법은 네트워크에 이미지의 명시적인 3D 주석 없이도 깊이 정보를 제공하게 한다. 실험 결과, 기존의 Interpenetration loss 방법은 MuPoTS-3D가 114, PoseTrack이 654에 비해서 본 연구의 방법론인 Lp 손실로 네트워크를 훈련시킬 때 MuPoTS-3D가 34, PoseTrack이 202로 충돌수가 크게 감소하는 것으로 나타났다. 본 연구 방법은 표준 3D 자세벤치마크에서 기존 방법보다 더 나은 성능을 보여주었고, 제안된 손실들은 자연 이미지에서 더욱 일관된 재구성을 실현하게 하였다.

시내버스 승하차 의도분석 기반 사고방지 AI 시스템 연구 (A study on accident prevention AI system based on estimation of bus passengers' intentions)

  • 박성환;변선오;박정훈
    • 스마트미디어저널
    • /
    • 제12권11호
    • /
    • pp.57-66
    • /
    • 2023
  • 본 논문에서는 시내버스 내 CCTV 시스템을 활용, 비전AI 기반의 승하차 승객 의도를 예측하여 사고방지가 가능한 시스템에 대해 연구한 내용을 기술한다. 본 시스템은 YOLOv7 Pose 모델과 Object Tracking 기술을 활용하여 버스 내부의 승객을 감지하고 추적하며, LSTM 모델을 활용하여 승객의 승하차 여부를 예측한다. 시스템은 버스 내 CCTV 단말기 상에 설치 가능하여 운전 중 어느 때에나 승하차 여부 예측 결과를 시각적으로 확인할 수 있으며, 운전자에게 자동 알람을 주어 승하차 시 일어날 수 있는 사고를 예방할 수 있다. 테스트 결과, 승객의 승차 의도를 분석하는 채널 A와 하차 의도를 예측하는 채널 C에서 각각 0.81과 0.79의 정확도를 달성하였으며, 실시간성을 보장하기 위해 GPU 환경에서 초당 최소 5 프레임 이상의 분석이 가능하다는 것을 확인하였다. 본 알고리즘을 통해 시내버스 운행 중의 승객 승하차 과정을 모니터링하고, 그 안전과 편의성에 도움을 줄 것으로 생각된다. 추후 하드웨어가 발전하고, DB를 통해 데이터가 많이 수집된다면, 이 또한 다양한 안전 관련 지표로의 확장이 가능할 것이다. 더불어 본 알고리즘은 추후 자율주행 버스 상용화 시, 인간을 대신하여 승객 안전에 더욱 핵심적인 역할을 수행할 것이라 생각되며, 기타 지하철 및 승객이 내리고 탈 수 있는 모든 대중교통 환경에의 확장 또한 가능하여 대중교통의 안전화에 도움을 줄 것으로 생각한다.

3차원 직선을 이용한 카메라 모션 추정 (Motion Estimation Using 3-D Straight Lines)

  • 이진한;장국현;서일홍
    • 로봇학회논문지
    • /
    • 제11권4호
    • /
    • pp.300-309
    • /
    • 2016
  • This paper proposes a method for motion estimation of consecutive cameras using 3-D straight lines. The motion estimation algorithm uses two non-parallel 3-D line correspondences to quickly establish an initial guess for the relative pose of adjacent frames, which requires less correspondences than that of current approaches requiring three correspondences when using 3-D points or 3-D planes. The estimated motion is further refined by a nonlinear optimization technique with inlier correspondences for higher accuracy. Since there is no dominant line representation in 3-D space, we simulate two line representations, which can be thought as mainly adopted methods in the field, and verify one as the best choice from the simulation results. We also propose a simple but effective 3-D line fitting algorithm considering the fact that the variance arises in the projective directions thus can be reduced to 2-D fitting problem. We provide experimental results of the proposed motion estimation system comparing with state-of-the-art algorithms using an open benchmark dataset.

거리영상 기반 동작인식 기술동향 (Technology Trends of Range Image based Gesture Recognition)

  • 장주용;류문욱;박순찬
    • 전자통신동향분석
    • /
    • 제29권1호
    • /
    • pp.11-20
    • /
    • 2014
  • 동작인식(gesture recognition) 기술은 입력 영상으로부터 영상에 포함된 사람들의 동작을 인식하는 기술로써 영상감시(visual surveillance), 사람-컴퓨터 상호작용(human-computer interaction), 지능로봇(intelligence robot) 등 다양한 적용분야를 가진다. 특히 최근에는 저비용의 거리 센서(range sensor) 및 효율적인 3차원 자세 추정(3D pose estimation)기술의 등장으로 동작인식은 기존의 어려움들을 극복하고 다양한 산업분야에 적용이 가능할 정도로 발전을 거듭하고 있다. 본고에서는 그러한 거리영상(range image) 기반의 동작인식 기술에 대한 최신 연구동향을 살펴본다.

  • PDF

손동작 인식 기반 Virtual Fitting 개발 (Virtual Fitting Development Based on Hand Gesture Recognition)

  • 김승연;유민지;조하정;정승원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.596-598
    • /
    • 2019
  • 손동작 인식을 기반으로 한 Virtual fitting 시스템은 Kinect Sensor 를 사용하여 자연스러운 Fitting 을 구현할 수 있다. Kinect Sensor 를 이용한 Pose estimation, Gesture recognition, Virtual fitting 을 구현함으로써 가상으로 의복을 착용하는 소프트웨어를 소개한다.

스켈레톤 기반의 3D 포인트 클라우드 정합 방법 (Skeleton-based 3D Pointcloud Registration Method)

  • 박병서;김동욱;서영호
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.89-90
    • /
    • 2021
  • 본 논문에서는 3D(dimensional) 스켈레톤을 이용하여 멀티 뷰 RGB-D 카메라를 캘리브레이션 하는 새로운 기법을 제안하고자 한다. 멀티 뷰 카메라를 캘리브레이션 하기 위해서는 일관성 있는 특징점이 필요하다. 우리는 다시점 카메라를 캘리브레이션 하기 위한 특징점으로 사람의 스켈레톤을 사용한다. 사람의 스켈레톤은 최신의 자세 추정(pose estimation) 알고리즘들을 이용하여 쉽게 구할 수 있게 되었다. 우리는 자세 추정 알고리즘을 통해서 획득된 3D 스켈레톤의 관절 좌표를 특징점으로 사용하는 RGB-D 기반의 캘리브레이션 알고리즘을 제안한다.

  • PDF

1-Point Ransac Based Robust Visual Odometry

  • Nguyen, Van Cuong;Heo, Moon Beom;Jee, Gyu-In
    • Journal of Positioning, Navigation, and Timing
    • /
    • 제2권1호
    • /
    • pp.81-89
    • /
    • 2013
  • Many of the current visual odometry algorithms suffer from some extreme limitations such as requiring a high amount of computation time, complex algorithms, and not working in urban environments. In this paper, we present an approach that can solve all the above problems using a single camera. Using a planar motion assumption and Ackermann's principle of motion, we construct the vehicle's motion model as a circular planar motion (2DOF). Then, we adopt a 1-point method to improve the Ransac algorithm and the relative motion estimation. In the Ransac algorithm, we use a 1-point method to generate the hypothesis and then adopt the Levenberg-Marquardt method to minimize the geometric error function and verify inliers. In motion estimation, we combine the 1-point method with a simple least-square minimization solution to handle cases in which only a few feature points are present. The 1-point method is the key to speed up our visual odometry application to real-time systems. Finally, a Bundle Adjustment algorithm is adopted to refine the pose estimation. The results on real datasets in urban dynamic environments demonstrate the effectiveness of our proposed algorithm.