• 제목/요약/키워드: pose estimation

검색결과 388건 처리시간 0.025초

3차원 발 자세 추정을 위한 새로운 형상 기술자 (Shape Descriptor for 3D Foot Pose Estimation)

  • 송호근;강기현;정다운;윤용인
    • 한국정보통신학회논문지
    • /
    • 제14권2호
    • /
    • pp.469-478
    • /
    • 2010
  • 본 논문은 3차원 발 자세를 추정하기 위한 효과적 형상 기술자를 제안하였다. 처리 시간을 단축시키기 위하여 특수 제작된 3차원 발 모형을 2차원 투영하여 발 형상 데이터베이스를 구축하고, 3차원 자세 요약정보를 메타 정보로 추가한 2.5차원 영상 데이터베이스를 구성하였다. 그리고 특징 공간 크기가 작고 다른 형상 기술자에 비하여 자세 추정 성능이 뛰어난 수정된 Centroid Contour Distance를 제안하였다. 제안된 기술자의 성능을 분석하기 위하여, 검색 정확도와 시공간 복잡도를 계산하고 기존의 방식들과 비교하였다. 실험 결과를 통하여 제안된 기술자는 특징 추출 시간과 자세 추정 정확도면에서 기존의 방식들보다 효과적인 것으로 나타났다.

얼굴의 자세추정을 이용한 얼굴인식 속도 향상 (Improvement of Face Recognition Speed Using Pose Estimation)

  • 최선형;조성원;정선태
    • 한국지능시스템학회논문지
    • /
    • 제20권5호
    • /
    • pp.677-682
    • /
    • 2010
  • 본 논문은 AdaBoost 알고리즘을 통한 얼굴 검출 기술에서 학습된 하-웨이블렛의 개별값을 비교하여 대략적인 자세를 추정하는 방법과 이를 이용한 얼굴인식 속도 향상에 대하여 기술한다. 학습된 약한 분류기는 얼굴 검출 과정 중 각각 계수값을 비교하여 각 자세의 특징에 강인한 하-웨이블렛을 선별한다. 하-웨이블렛 선별과정에는 각 항목의 유사도를 나타내는 마할라노비스 거리를 사용하였다. 선별된 하-웨이블렛을 사용하여 임의의 얼굴 이미지를 검출하였을 때 각각의 자세를 구별하는 결과를 전체 실험결과를 통해 평가한다.

아웃페인팅 기반 반려동물 자세 추정에 관한 예비 연구 (A Pilot Study on Outpainting-powered Pet Pose Estimation)

  • 이규빈;이영찬;유원상
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.69-75
    • /
    • 2023
  • 최근 동물 행동 분석 및 건강관리 분야를 중심으로 딥러닝 기반 동물 자세 추정 기법에 대한 관심이 높아지고 있다. 그러나 기존 동물 자세 추정 기법은 영상에서 신체 부위가 가려지거나 존재하지 않을 경우 좋은 성능을 보이지 않는다. 특히 꼬리나 귀가 가려진 경우, 반려견의 행동 및 감정 분석의 성능에도 심각한 영향을 미친다. 본 논문에서는 이러한 다루기 힘든 문제를 해결하기 위해, 이미지 아웃페인팅 네트워크를 자세 추정 네트워크에 연결하여 이미지 외부에 존재하는 반려견의 신체를 복원한 확장된 이미지를 생성하여 반려견의 자세를 추정하는 단순하면서도 새로운 접근방법을 제안하였고, 제안된 방법의 실현가능성을 검토하는 예비 연구를 수행하였다. 이미지 아웃페인팅 모델로는 CE-GAN과 트랜스포머 기반의 BAT-Fill을 사용하였고, 자세 추정 모델로는 SimpleBaseline을 사용하였다. 실험 결과, 크롭된 입력 이미지에서 반려견의 자세를 추정하였을 때보다, BAT-Fill을 사용하여 아웃페인팅된 확장 이미지에서 반려견의 자세를 추정하였을 때 자세 추정의 성능이 향상되었다.

Experimental Study of Spacecraft Pose Estimation Algorithm Using Vision-based Sensor

  • Hyun, Jeonghoon;Eun, Youngho;Park, Sang-Young
    • Journal of Astronomy and Space Sciences
    • /
    • 제35권4호
    • /
    • pp.263-277
    • /
    • 2018
  • This paper presents a vision-based relative pose estimation algorithm and its validation through both numerical and hardware experiments. The algorithm and the hardware system were simultaneously designed considering actual experimental conditions. Two estimation techniques were utilized to estimate relative pose; one was a nonlinear least square method for initial estimation, and the other was an extended Kalman Filter for subsequent on-line estimation. A measurement model of the vision sensor and equations of motion including nonlinear perturbations were utilized in the estimation process. Numerical simulations were performed and analyzed for both the autonomous docking and formation flying scenarios. A configuration of LED-based beacons was designed to avoid measurement singularity, and its structural information was implemented in the estimation algorithm. The proposed algorithm was verified again in the experimental environment by using the Autonomous Spacecraft Test Environment for Rendezvous In proXimity (ASTERIX) facility. Additionally, a laser distance meter was added to the estimation algorithm to improve the relative position estimation accuracy. Throughout this study, the performance required for autonomous docking could be presented by confirming the change in estimation accuracy with respect to the level of measurement error. In addition, hardware experiments confirmed the effectiveness of the suggested algorithm and its applicability to actual tasks in the real world.

다시점 객체 공분할을 이용한 2D-3D 물체 자세 추정 (2D-3D Pose Estimation using Multi-view Object Co-segmentation)

  • 김성흠;복윤수;권인소
    • 로봇학회논문지
    • /
    • 제12권1호
    • /
    • pp.33-41
    • /
    • 2017
  • We present a region-based approach for accurate pose estimation of small mechanical components. Our algorithm consists of two key phases: Multi-view object co-segmentation and pose estimation. In the first phase, we explain an automatic method to extract binary masks of a target object captured from multiple viewpoints. For initialization, we assume the target object is bounded by the convex volume of interest defined by a few user inputs. The co-segmented target object shares the same geometric representation in space, and has distinctive color models from those of the backgrounds. In the second phase, we retrieve a 3D model instance with correct upright orientation, and estimate a relative pose of the object observed from images. Our energy function, combining region and boundary terms for the proposed measures, maximizes the overlapping regions and boundaries between the multi-view co-segmentations and projected masks of the reference model. Based on high-quality co-segmentations consistent across all different viewpoints, our final results are accurate model indices and pose parameters of the extracted object. We demonstrate the effectiveness of the proposed method using various examples.

딥러닝 자세 추정 모델을 이용한 지하공동구 다중 작업자 낙상 검출 모델 비교 (Comparison of Deep Learning Based Pose Detection Models to Detect Fall of Workers in Underground Utility Tunnels)

  • 김정수
    • 한국재난정보학회 논문집
    • /
    • 제20권2호
    • /
    • pp.302-314
    • /
    • 2024
  • 연구목적: 본 연구는 지하공동구 내 다수 작업자의 낙상을 자동으로 판별하기 위한 Top-down 방식의 딥러닝 자세 추정 모델 기반 낙상 검출 모델을 제안하고, 제안 모델의 성능을 평가한다. 연구방법: Top-down 방식의 자세 추정모델 중 하나인 YOLOv8-pose로부터 추론된 결과와 낙상 판별 규칙을 결합한 모델을 제시하고, 지하공동구 내 2인 이하 작업자가 출현한 기립 및 낙상 이미지에 대해 모델 성능지표를 평가하였다. 또한 동일한 방법으로 Bottom-up 방식 자세추정모델(OpenPose)을 적용한 결과를 함께 분석하였다. 두 모델의 낙상 검출 결과는 각 딥러닝 모델의 작업자 인식 성능에 의존적이므로, 작업자 쓰러짐과 함께 작업자 존재 여부에 대한 성능지표도 함께 조사하였다. 연구결과: YOLOv8-pose와 OpenPose의 모델의 작업자 인식 성능은 F1-score 기준으로 각각 0.88, 0.71로 두 모델이 유사한 수준이었으나, 낙상 규칙을 적용함에 따라 0.71, 0.23로 저하되었다. 작업자의 신체 일부만 검출되거나 작업자간 구분을 실패하여, OpenPose 기반 낙상 추론 모델의 성능 저하를 야기한 것으로 분석된다. 결론: Top-down 방식의 딥러닝 자세 추정 모델을 사용하는 것이 신체 관절점 인식 및 개별 작업자 구분 측면에서 지하공동구 내 작업자 낙상 검출에 효과적이라 판단된다.

Camera pose estimation framework for array-structured images

  • Shin, Min-Jung;Park, Woojune;Kim, Jung Hee;Kim, Joonsoo;Yun, Kuk-Jin;Kang, Suk-Ju
    • ETRI Journal
    • /
    • 제44권1호
    • /
    • pp.10-23
    • /
    • 2022
  • Despite the significant progress in camera pose estimation and structure-from-motion reconstruction from unstructured images, methods that exploit a priori information on camera arrangements have been overlooked. Conventional state-of-the-art methods do not exploit the geometric structure to recover accurate camera poses from a set of patch images in an array for mosaic-based imaging that creates a wide field-of-view image by sewing together a collection of regular images. We propose a camera pose estimation framework that exploits the array-structured image settings in each incremental reconstruction step. It consists of the two-way registration, the 3D point outlier elimination and the bundle adjustment with a constraint term for consistent rotation vectors to reduce reprojection errors during optimization. We demonstrate that by using individual images' connected structures at different camera pose estimation steps, we can estimate camera poses more accurately from all structured mosaic-based image sets, including omnidirectional scenes.

360° 다시점 투영을 이용한 3D 볼류메트릭 시퀀스의 안정적인 3차원 자세 추정 (Stabilized 3D Pose Estimation of 3D Volumetric Sequence Using 360° Multi-view Projection)

  • 이솔;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.76-77
    • /
    • 2022
  • 본 논문에서는 다시점에서의 자세 추정 결과를 정합하여 3D 볼류메트릭 데이터 시퀀스의 3D 자세 추정 결과의 떨림을 줄이는 방법을 제안한다. 볼류메트릭 모델을 중심으로 원을 그리며 일정 각도 간격의 시점에서 본 모델을 평면에 투사한다. 투영하여 얻은 2D 영상에 대해 Openpose를 이용하여 2D 자세 추정을 진행한 뒤, 2D 관절 정보를 정합하여 3D 관절 위치를 국한한다. 각도 간격에 따라 다른 3D 관절의 떨림의 정도를 수치화하여 표로 나타내고, 안정적인 결과를 위한 최소 조건을 확인하였다.

  • PDF

An Algorithm for a pose estimation of a robot using Scale-Invariant feature Transform

  • 이재광;허욱열;김학일
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.517-519
    • /
    • 2004
  • This paper describes an approach to estimate a robot pose with an image. The algorithm of pose estimation with an image can be broken down into three stages : extracting scale-invariant features, matching these features and calculating affine invariant. In the first step, the robot mounted mono camera captures environment image. Then feature extraction is executed in a captured image. These extracted features are recorded in a database. In the matching stage, a Random Sample Consensus(RANSAC) method is employed to match these features. After matching these features, the robot pose is estimated with positions of features by calculating affine invariant. This algorithm is implemented and demonstrated by Matlab program.

  • PDF

지역 지도와 칼만 필터를 이용한 이동 로봇의 위치 추정 (Localization of Mobile Robot using Local Map and Kalman Filtering)

  • 임병현;김영민;황종선;고낙용
    • 한국전기전자재료학회:학술대회논문집
    • /
    • 한국전기전자재료학회 2003년도 하계학술대회 논문집 Vol.4 No.2
    • /
    • pp.1227-1230
    • /
    • 2003
  • In this paper, we propose a pose estimation method using local map acquired from 2d laser range finder information. The proposed method uses extended kalman filter. The state equation is a navigation system equation of Nomad Super Scout II. The measurement equation is a map-based measurement equation using a SICK PLS 101-112 sensor. We describe a map consisting of geometric features such as plane, edge and corner. For pose estimation we scan external environments by laser rage finer. And then these data are fed to kalman filter to estimate robot pose and position. The proposed method enables very fast simultaneous map building and pose estimation.

  • PDF