• 제목/요약/키워드: camera pose estimation

검색결과 122건 처리시간 0.027초

구조물의 6자유도 변위 측정을 위한 비주얼 서보잉 기반 양립형 구조 광 로봇 시스템 (Visual Servoing-Based Paired Structured Light Robot System for Estimation of 6-DOF Structural Displacement)

  • 전해민;방유석;김한근;명현
    • 제어로봇시스템학회논문지
    • /
    • 제17권10호
    • /
    • pp.989-994
    • /
    • 2011
  • This study aims to demonstrate the feasibility of a visual servoing-based paired structured light (SL) robot for estimating structural displacement under various external loads. The former paired SL robot, which was proposed in the previous study, was composed of two screens facing with each other, each with one or two lasers and a camera. It was found that the paired SL robot could estimate the translational and rotational displacement each in 3-DOF with high accuracy and low cost. However, the measurable range is fairly limited due to the limited screen size. In this paper, therefore, a visual servoing-based 2-DOF manipulator which controls the pose of lasers is introduced. By controlling the positions of the projected laser points to be on the screen, the proposed robot can estimate the displacement regardless of the screen size. We performed various simulations and experimental tests to verify the performance of the newly proposed robot. The results show that the proposed system overcomes the range limitation of the former system and it can be utilized to accurately estimate the structural displacement.

실시간 목 자세 모니터링을 위한 웨어러블 센서를 이용한 두개척추각 추정 (The Estimation of Craniovertebral Angle using Wearable Sensor for Monitoring of Neck Posture in Real-Time)

  • 이재현;지영준
    • 대한의용생체공학회:의공학회지
    • /
    • 제39권6호
    • /
    • pp.278-283
    • /
    • 2018
  • Nowdays, many people suffer from the neck pain due to forward head posture(FHP) and text neck(TN). To assess the severity of the FHP and TN the craniovertebral angle(CVA) is used in clinincs. However, it is difficult to monitor the neck posture using the CVA in daily life. We propose a new method using the cervical flexion angle(CFA) obtained from a wearable sensor to monitor neck posture in daily life. 15 participants were requested to pose FHP and TN. The CFA from the wearable sensor was compared with the CVA observed from a 3D motion camera system to analyze their correlation. The determination coefficients between CFA and CVA were 0.80 in TN and 0.57 in FHP, and 0.69 in TN and FHP. From the monitoring the neck posture while using laptop computer for 20 minutes, this wearable sensor can estimate the CVA with the mean squared error of 2.1 degree.

Design of Personalized Exercise Data Collection System based on Edge Computing

  • Jung, Hyon-Chel;Choi, Duk-Kyu;Park, Myeong-Chul
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권5호
    • /
    • pp.61-68
    • /
    • 2021
  • 본 논문에서는 운동 재활 서비스에 제공할 수 있는 엣지 컴퓨팅 기반의 운동 데이터 수집 디바이스를 제안한다. 기존 클라우드 컴퓨팅 방식에서는 사용자가 급증하는 경우 데이터 센터의 처리량이 증가하여 많은 지연 현상을 발생하는 문제점을 가진다. 본 논문에서는 엣지 컴퓨팅을 이용하여 사용자측에서 3차원 카메라를 통한 영상 정보를 기반으로 포즈 에스티메이션을 적용한 신체 관절의 키포인트 위치를 측정하고 추정하여 서버에 전송하는 디바이스를 설계하고 구현하였다. 본 연구의 결과를 통하여 클라우드 시스템에 부하없이 원활한 정보 수집 환경을 구축할 수 있으며 운동 재활을 원하는 다양한 사용자를 대상으로 IoT 및 엣지 컴퓨팅 기술을 통한 개인 맞춤형 재활운동 코칭 시스템에 활용될 수 있을 것이다.

비선형 줌-렌즈 왜곡 모델을 이용한 비디오 영상에서의 줌-렌즈 왜곡 보정 (Zoom Lens Distortion Correction Of Video Sequence Using Nonlinear Zoom Lens Distortion Model)

  • 김대현;신형철;오주현;남승진;손광훈
    • 방송공학회논문지
    • /
    • 제14권3호
    • /
    • pp.299-310
    • /
    • 2009
  • 본 논문은 줌-렌즈로 취득한 비디오 영상에 대해서 줌-렌즈의 왜곡을 자동으로 보상할 수 있는 새로운 방법을 제안하였다. 먼저, 초점거리의 증가에 따라 렌즈의 왜곡 계수가 비선형적으로 단조 감소하는 특징으로부터 초점거리와 렌즈 왜곡 계수로 표현되는 비선형 줌-렌즈 왜곡 모델을 정의하였다. 그리고 취득한 비디오 영상으로부터 몇 장의 샘플 영상을 선정하고, 이 샘플영상에 대한 초점거리와 렌즈 왜곡 계수는 기존의 방법들을 이용하여 측정하였다. 이렇게 측정한 초점거리와 렌즈 왜곡 계수들로 부터 줌-렌즈 왜곡 모델을 최적화 시켰다. 최적화된 줌-렌즈 왜곡 모델은 각 비디오 영상의 초점거리를 입력으로 하여 렌즈 왜곡계수를 자동으로 계산할 수 있다. 본 논문에서 제안한 방법은 다양한 실사 영상과 비디오 영상에 적용하여 그 성능을 검증하였으며, 화질의 열화 없이 영상의 왜곡을 보상할 수 있었다.

K-Means 클러스터링을 적용한 향상된 CS-RANSAC 알고리즘 (Improved CS-RANSAC Algorithm Using K-Means Clustering)

  • 고승현;윤의녕;;조근식
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권6호
    • /
    • pp.315-320
    • /
    • 2017
  • 이미지를 기반으로 하는 증강현실 시스템에서 가상의 객체를 실제 영상에 저작할 때 생기는 이질감을 줄이기 위해서는 실제 영상에 저작된 가상객체의 방향과 위치에 대해 정확하게 추정을 해야 하며, 이때 호모그래피를 사용한다. 호모그래피를 추정하기 위해서는 SURF와 같은 특징점을 추출하고 추출된 특징점들을 통해 호모그래피 행렬을 추정한다. 호모그래피 행렬의 추정을 위해서 RANSAC 알고리즘이 주로 사용되고 있으며, 특히 RANSAC에 제약 조건 만족 문제(Constraint Satisfaction Problem)와 여기에 사용되는 제약조건을 동적으로 적용하여 속도와 정확도를 높인 DCS-RANSAC 알고리즘이 연구되었다. DCS-RANSAC 알고리즘에서 사용된 이미지 그룹 데이터는 수동적인 방법을 통해 직관적으로 분류되어 있지만 특징점 분포 패턴이 다양하지 않고, 이미지들을 정확하게 분류하기가 어려워서 이로 인해 알고리즘의 성능이 저하되는 경우가 있다. 따라서 본 논문에서는 K-means 클러스터링을 적용하여 이미지들을 자동으로 분류하고 각 이미지 그룹마다 각기 다른 제약조건을 적용하는 KCS-RANSAC 알고리즘을 제안한다. 제안하는 알고리즘은 머신러닝 기법인 K-means 클러스터링을 사용하여 전처리 단계에서 이미지를 특징점 분포 패턴에 따라 자동으로 분류하고, 분류된 이미지에 제약조건을 적용하여 알고리즘의 속도와 정확도를 향상시켰다. 실험 결과 본 논문에서 제안하는 KCS-RANSAC이 DCS-RANSAC 알고리즘에 비해 수행시간이 약 15% 단축되었고, 오차율은 약 35% 줄어들었으며, 참정보 비율은 약 14% 증가되었다.

증강현실 기법을 이용한 초음파 미용기의 조사 위치 표시 (Display of Irradiation Location of Ultrasonic Beauty Device Using AR Scheme)

  • 강문호
    • 한국산학기술학회논문지
    • /
    • 제21권9호
    • /
    • pp.25-31
    • /
    • 2020
  • 본 연구에서는 휴대용 초음파 피부 미용기 사용시 집속 초음파의 조사 위치를 증강현실 (Augmented Reality: AR) 기법을 통해 사용자에게 보여주어 안전하게 셀프시술을 하도록 하는 안드로이드 앱을 개발하고 시험을 통해 유용성을 보인다. 사용자가 초음파 미용기로 얼굴 부위를 시술하는 동안에 스마트폰 카메라를 통해 사용자의 얼굴과 얼굴위의 초음파 조사 위치를 실시간 검지한 후, 얼굴 영상위에 조사 위치를 표시하여 사용자에게 보여줌으로서, 초음파가 동일한 부위에 과도하게 중복되어 조사되지 않도록 한다. 이를 위해 ML-Kit를 이용하여 사용자 얼굴의 랜드마크(landmark)들을 실시간 검지하고 얼굴형상 기준 모델과 비교하여 얼굴의 회전과 이동 등의 자세를 추정한다. 미용기의 초음파 조사부위에 LED를 장착하고 조사 중에 작동시킨 후, LED의 불빛의 위치를 탐색하여 스마트폰 화면상의 초음파 조사 위치를 알아내고, 추정된 자세정보를 토대로 얼굴 영상위에 조사 위치를 정합시켜 표시한다. 앱에서 수행되는 각 작업들을 스레드와 타이머를 통해 구현하여 전체 작업이 75ms 이내에서 실행된다. 시험 결과, 120개의 초음파 조사 위치를 정합하고 표시하는 데 걸린 시간은 25ms 이하이고, 얼굴이 크게 회전하지 않는 경우 표시 정확도는 20mm 이내 임을 알 수 있다.

딥러닝 모델과 Kinect 카메라를 이용한 실시간 관절 애니메이션 제작 및 표출 시스템 구축에 관한 연구 (Real-Time Joint Animation Production and Expression System using Deep Learning Model and Kinect Camera)

  • 김상준;이유진;박구만
    • 방송공학회논문지
    • /
    • 제26권3호
    • /
    • pp.269-282
    • /
    • 2021
  • 증강현실과 가상현실 같은 3차원 콘텐츠 보급이 증가함에 따라 실시간 컴퓨터 애니메이션 기술의 중요성이 높아지고 있다. 하지만 컴퓨터 애니메이션 제작 과정은 대부분 수작업 혹은 마커를 부착하는 모션캡쳐 방식으로 이루어져 있다. 때문에 사실적인 영상을 얻기 위해서는 숙련된 전문가에게도 매우 오랜 시간이 필요하다. 이러한 문제점을 해결하기 위해 최근에는 딥러닝 모델과 센서를 기반으로 하는 애니메이션 제작 시스템과 알고리즘이 나오고 있다. 이에 본 논문에서는 딥러닝과 Kinect 카메라 기반 FBX 형식의 애니메이션 제작 시스템에서 자연스러운 인체 움직임을 구현하는 4가지 방법에 대해 연구했다. 각 방법은 환경적 특성과 정확도를 고려하여 선택된다. 첫 번째 방법은 Kinect 카메라를 사용한다. 두 번째 방법은 Kinect 카메라와 보정 알고리즘을 사용한다. 세 번째 방법은 딥러닝 모델을 사용한다. 네 번째 방법은 딥러닝 모델과 Kinect를 사용한다. 제안 방법을 오차와 처리 속도를 실험한 결과, 네 번째 딥러닝 모델과 Kinect를 동시에 사용하는 방법이 다른 방법에 비해 가장 좋은 결과를 보였다.

합성곱 신경망 기반 맨하탄 좌표계 추정 (Estimation of Manhattan Coordinate System using Convolutional Neural Network)

  • 이진우;이현준;김준호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.31-38
    • /
    • 2017
  • 본 논문에서는 도심 영상에 대해 맨하탄 좌표계를 추정하는 합성곱 신경망(Convolutional Neural Network) 기반의 시스템을 제안한다. 도심 영상에서 맨하탄 좌표계를 추정하는 것은 영상 조정, 3차원 장면 복원 등 컴퓨터 그래픽스 및 비전 문제 해결의 기본이 된다. 제안하는 합성곱 신경망은 GoogLeNet[1]을 기반으로 구성한다. 합성곱 신경망을 훈련하기 위해 구글 스트리트 뷰 API로 영상을 수집하고 기존 캘리브레이션 방법으로 맨하탄 좌표계를 계산하여 데이터셋을 생성한다. 장면마다 새롭게 합성곱 신경망을 학습해야하는 PoseNet[2]과 달리, 본 논문에서 제안하는 시스템은 장면의 구조를 학습하여 맨하탄 좌표계를 추정하기 때문에 학습되지 않은 새로운 장면에 대해서도 맨하탄 좌표계를 추정한다. 제안하는 방법은 학습에 참여하지 않은 구글 스트리트 뷰 영상을 검증 데이터로 테스트하였을 때 $3.157^{\circ}$의 중간 오차로 맨하탄 좌표계를 추정하였다. 또한, 동일 검증 데이터에 대해 제안하는 방법이 기존 맨하탄 좌표계 추정 알고리즘[3]보다 더 낮은 중간 오차를 보이는 것을 확인하였다.

A Study on the Application of ColMap in 3D Reconstruction for Cultural Heritage Restoration

  • Byong-Kwon Lee;Beom-jun Kim;Woo-Jong Yoo;Min Ahn;Soo-Jin Han
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권8호
    • /
    • pp.95-101
    • /
    • 2023
  • Colmap은 혁신적인 인공지능 기술 중 하나로, 3D 재구성 작업에 있어 매우 유용한 도구로 사용된다. 또한, 이미지와 해당 메타데이터를 활용하여 세밀한 3D 모델을 구축하는 데 탁월하다. 2D 이미지, 카메라의 위치 정보, 깊이 정보 등을 결합하여 Colmap은 3D 모델을 생성한다. 이를 통해 실제 세계의 객체들을 포함한 상세하고 정확한 3D 재구성을 이뤄낼 수 있다. 또한, Colmap은 대규모 데이터 세트에서 효율적으로 작동할 수 있도록 GPU를 활용하여 빠른 처리를 제공한다. 본 논문에서는, 우리나라 전통탑의 2D 이미지를 수집하고, Colmap을 사용하여 3D 모델로 재구성하는 방법을 제시했다. 본 연구는 우리나라의 전통적인 석탑 복원 과정에 이 기술을 적용했다. 이로써, 문화재 복원 분야에서의 Colmap의 응용 가능성을 확인했다.

MediaPipe를 활용한 춤동작 피드백 시각화 시스템 (Visualization System for Dance Movement Feedback using MediaPipe)

  • 김현서;정재영;최봉준;문미경
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.217-224
    • /
    • 2024
  • K-POP의 가파른 성장세에 따라 댄스 콘텐츠 산업이 확산되는 추세이다. 최근 SNS의 보급이 증가하면서 자신의 댄스 영상을 촬영하고 공유하기도 한다. 그러나 춤을 처음 접하는 댄스 초보자들은 동영상을 보며 혼자서 춤을 출 때, 객관적인 피드백을 받기 어려워 춤동작을 습득하기 쉽지 않다. 본 논문에서는 MediaPipe를 활용하여 안무 영상과 사용자의 춤 영상을 비교하고 올바르게 동작을 따라 하고 있는지 검출해 주는 시스템에 대해 기술한다. 본 연구에서는 웹캠이나 카메라로 촬영한 사용자 영상과 안무 영상 간의 춤동작 유사도를 코사인 유사도와 COCO OKS를 활용해 계산하여 사용자에게 색상 지표(Color Map)를 기반으로 한 피드백을 주는 방식을 제안한다. 본 시스템을 통해 사용자의 춤동작에 대한 객관적인 피드백을 시각적으로 받을 수 있으며 초보자들도 정확한 춤동작을 습득할 수 있을 것으로 기대한다.