• 제목/요약/키워드: pose estimation

검색결과 388건 처리시간 0.028초

Keypoint Detection과 Annoy Tree를 사용한 2D Hand Pose Estimation (Fast Hand Pose Estimation with Keypoint Detection and Annoy Tree)

  • 이희재;강민혜
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제63차 동계학술대회논문집 29권1호
    • /
    • pp.277-278
    • /
    • 2021
  • 최근 손동작 인식에 대한 연구들이 활발하다. 하지만 대부분 Depth 정보를 포함한3D 정보를 필요로 한다. 이는 기존 연구들이 Depth 카메라 없이는 동작하지 않는다는 한계점이 있다는 것을 의미한다. 본 프로젝트는 Depth 카메라를 사용하지 않고 2D 이미지에서 Hand Keypoint Detection을 통해 손동작 인식을 하는 방법론을 제안한다. 학습 데이터 셋으로 Facebook에서 제공하는 InterHand2.6M 데이터셋[1]을 사용한다. 제안 방법은 크게 두 단계로 진행된다. 첫째로, Object Detection으로 Hand Detection을 수행한다. 데이터 셋이 어두운 배경에서 촬영되어 실 사용 환경에서 Detection 성능이 나오지 않는 점을 해결하기 위한 이미지 합성 Augmentation 기법을 제안한다. 둘째로, Keypoint Detection으로 21개의 Hand Keypoint들을 얻는다. 실험을 통해 유의미한 벡터들을 생성한 뒤 Annoy (Approximate nearest neighbors Oh Yeah) Tree를 생성한다. 생성된 Annoy Tree들로 후처리 작업을 거친 뒤 최종 Pose Estimation을 완료한다. Annoy Tree를 사용한 Pose Estimation에서는 NN(Neural Network)을 사용한 것보다 빠르며 동등한 성능을 냈다.

  • PDF

다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망 (Multi-Scale, Multi-Object and Real-Time Face Detection and Head Pose Estimation Using Deep Neural Networks)

  • 안병태;최동걸;권인소
    • 로봇학회논문지
    • /
    • 제12권3호
    • /
    • pp.313-321
    • /
    • 2017
  • One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than $4.5^{\circ}$ in real-time.

무인점포 이상행동 인식을 위한 유전 알고리즘 기반 자세 추정 모델 최적화 (Optimization of Pose Estimation Model based on Genetic Algorithms for Anomaly Detection in Unmanned Stores)

  • 이상협;박장식
    • 한국산업융합학회 논문집
    • /
    • 제26권1호
    • /
    • pp.113-119
    • /
    • 2023
  • In this paper, we propose an optimization of a pose estimation deep learning model for recognition of abnormal behavior in unmanned stores using radio frequencies. The radio frequency use millimeter wave in the 30 GHz to 300 GHz band. Due to the short wavelength and strong straightness, it is a frequency with less grayness and less interference due to radio absorption on the object. A millimeter wave radar is used to solve the problem of personal information infringement that may occur in conventional CCTV image-based pose estimation. Deep learning-based pose estimation models generally use convolution neural networks. The convolution neural network is a combination of convolution layers and pooling layers of different types, and there are many cases of convolution filter size, number, and convolution operations, and more cases of combining components. Therefore, it is difficult to find the structure and components of the optimal posture estimation model for input data. Compared with conventional millimeter wave-based posture estimation studies, it is possible to explore the structure and components of the optimal posture estimation model for input data using genetic algorithms, and the performance of optimizing the proposed posture estimation model is excellent. Data are collected for actual unmanned stores, and point cloud data and three-dimensional keypoint information of Kinect Azure are collected using millimeter wave radar for collapse and property damage occurring in unmanned stores. As a result of the experiment, it was confirmed that the error was moored compared to the conventional posture estimation model.

두 개의 공면점을 활용한 타원물체의 3차원 위치 및 자세 추정 (3-D Pose Estimation of an Elliptic Object Using Two Coplanar Points)

  • 김헌희;박광현;하윤수
    • 전자공학회논문지SC
    • /
    • 제49권4호
    • /
    • pp.23-35
    • /
    • 2012
  • 본 논문은 3차원 공간상에 존재하는 타원형 물체의 위치 및 자세 추정 기법을 다룬다. 영상에 투영된 타원특징을 해석하여 원래의 타원에 대한 3차원 자세정보를 구하는 것은 어려운 문제이다. 본 논문은 타원특징의 3차원 정보를 추출하기 위하여, 두개의 공면점을 도입한 위치 및 자세 추정 알고리즘을 제안한다. 제안된 방법은 모델과 영상좌표계에서 각각 정의되는 타원-공면점에 대한 대응쌍이 주어질 때 두 좌표계에 대한 동차변환행렬의 유일해를 결정한다. 타원-공면점은 폴라리티를 기반으로 원근변환에 불변하는 한 쌍의 삼각특징으로 변환되며, 삼각특징들로부터 평면 호모그래피가 추정된다. 카메라 좌표계에 대한 물체 좌표계의 3차원 위치 및 자세 파라미터들은 호모그래피 분해를 통해 계산된다. 제안된 방법은 3차원 자세 및 위치 추정 오차의 분석과 공면점의 위치에 따른 민감도의 분석을 통해 평가된다.

3차원 자세 추정을 위한 딥러닝 기반 이상치 검출 및 보정 기법 (Deep Learning-Based Outlier Detection and Correction for 3D Pose Estimation)

  • 주찬양;박지성;이동호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권10호
    • /
    • pp.419-426
    • /
    • 2022
  • 본 논문에서는 다양한 운동 모션에서 3차원 사람 자세 추정 모델의 정확도를 향상하는 방법을 제안한다. 기존의 사람 자세 추정 모델은 사람의 자세를 추정할 때 좌표 오차를 유발하는 흔들림, 반전, 교환, 오검출 등의 문제가 발생한다. 이러한 문제는 사람 자세 추정 모델의 정확한 자세 추정을 어렵게 한다. 이를 해결하기 위해 본 논문에서는 딥러닝 기반 이상치 검출 및 보정 방법을 제안한다. 딥러닝 기반의 이상치 검출 방법은 여러 모션에서 좌표의 이상치를 효과적으로 검출하고, 모션의 특징을 활용한 규칙 기반 보정 방법을 통해 이상치를 보정한다. 다양한 실험과 분석을 통하여 제안하는 방법이 골프 스윙 모션과 다양한 운동 모션에서도 사람의 자세를 정확히 추정할 수 있고, 3차원 좌표 데이터에서도 확장 가능함을 보인다.

인간자세 추정방법에 의한 2차원 웹툰 캐릭터 포즈 생성 (Pose Creation of Character in Two-Dimensional Cartoon through Human Pose Estimation)

  • 정희용;신춘성
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.718-727
    • /
    • 2022
  • 국내 웹툰 산업 매출액이 전년도 대비 약 65% 폭발적 성장을 하였고 향후 매출 규모가 1조원을 돌파할 것이라 예상을 하고 있다. 웹툰 제작 과정을 살펴보면 스토리와 콘티와 같이 창작을 필요로 하는 작업도 있지만, 스케치와 펜터치와 같은 단순 반복 작업도 있기 때문에 최근 주목받고 있는 딥러닝 기반 인간자세 추정방법을 사용하여 간소화 할 수 있다면, 웹툰 제작 과정을 효과적으로 개선할 수 있다. 따라서 본 연구는 인간자세 추정방법을 사용하여 인간의 동작을 스케치한 2차원 웹툰 캐릭터와 관절을 매칭 시켜서, 인간의 동작에 따라서 캐릭터의 동작을 생성시키는 방법을 제안한다. 이를 위해 생성한 2차원 캐릭터를 SVG 파일 형식인 벡터화된 그래픽 이미지로 생성시켜 인간자세의 관절을 나타내는 스켈레톤과 매칭을 시켰다. 실험결과를 통해 2차원 웹툰 캐릭터의 포즈가 웹 카메라의 사용자 자세와 동일한 동작을 생성시킬 수 있는 것을 확인할 수 있었다. 또한 저장한 정지 이미지에서 하나의 포즈를 선별하여 필요한 장면에 삽입할 수도 있고, 연속 동작에 대하여 비디오로 녹화하여 포즈 선별을 할 수 있다는 점도 확인하였다. 제안한 포즈 생성 방법은 기존의 포즈 투 포즈 방식 애니메이션 포즈 생성에 큰 기여를 할 수 있을 것으로 기대된다.

2D Human Pose Estimation based on Object Detection using RGB-D information

  • Park, Seohee;Ji, Myunggeun;Chun, Junchul
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권2호
    • /
    • pp.800-816
    • /
    • 2018
  • In recent years, video surveillance research has been able to recognize various behaviors of pedestrians and analyze the overall situation of objects by combining image analysis technology and deep learning method. Human Activity Recognition (HAR), which is important issue in video surveillance research, is a field to detect abnormal behavior of pedestrians in CCTV environment. In order to recognize human behavior, it is necessary to detect the human in the image and to estimate the pose from the detected human. In this paper, we propose a novel approach for 2D Human Pose Estimation based on object detection using RGB-D information. By adding depth information to the RGB information that has some limitation in detecting object due to lack of topological information, we can improve the detecting accuracy. Subsequently, the rescaled region of the detected object is applied to ConVol.utional Pose Machines (CPM) which is a sequential prediction structure based on ConVol.utional Neural Network. We utilize CPM to generate belief maps to predict the positions of keypoint representing human body parts and to estimate human pose by detecting 14 key body points. From the experimental results, we can prove that the proposed method detects target objects robustly in occlusion. It is also possible to perform 2D human pose estimation by providing an accurately detected region as an input of the CPM. As for the future work, we will estimate the 3D human pose by mapping the 2D coordinate information on the body part onto the 3D space. Consequently, we can provide useful human behavior information in the research of HAR.

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.

원근투영법 기반의 PTZ 카메라를 이용한 머리자세 추정 (Head Pose Estimation Based on Perspective Projection Using PTZ Camera)

  • 김진서;이경주;김계영
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권7호
    • /
    • pp.267-274
    • /
    • 2018
  • 본 논문에서는 PTZ 카메라를 이용한 머리자세추정 방법에 대하여 서술한다. 회전 또는 이동에 의하여 카메라의 외부인자가 변경되면, 추정된 얼굴자세도 변한다. 본 논문에는 PTZ 카메라의 회전과 위치 변화에 독립적으로 머리자세를 추정하는 새로운 방법을 제안한다. 제안하는 방법은 얼굴검출, 특징추출 그리고 자세추정으로 이루어진다. 얼굴검출은 MCT특징을 이용해 검출하고, 얼굴 특징추출은 회귀트리 방법을 이용해 추출하고, 머리자세 추정은 POSIT 알고리즘을 사용한다. 기존의 POSIT 알고리즘은 카메라의 회전을 고려하지 않지만, 카메라의 외부인자 변화에도 강건하게 머리자세를 추정하기 위하여 본 논문은 원근투영법에 기반하여 POSIT를 개선한다. 실험을 통하여 본 논문에서 제안하는 방법이 기존의 방법 보다 RMSE가 약 $0.6^{\circ}$ 개선되는 것을 확인했다.