• 제목/요약/키워드: Pose Estimation

검색결과 393건 처리시간 0.023초

격자형 선폭들의 투영변화비를 이용한 카메라 교정 파라메터 추정 (Camera calibration parameters estimation using perspective variation ratio of grid type line widths)

  • Jeong, Jun-Ik;Choi, Seong-Gu;Rho, Do-Hwan
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.30-32
    • /
    • 2004
  • With 3-D vision measuring, camera calibration is necessary to calculate parameters accurately. Camera calibration was developed widely in two categories. The first establishes reference points in space, and the second uses a grid type frame and statistical method. But, the former has difficulty to setup reference points and the latter has low accuracy. In this paper we present an algorithm for camera calibration using perspective ratio of the grid type frame with different line widths. It can easily estimate camera calibration parameters such as lens distortion, focal length, scale factor, pose, orientations, and distance. The advantage of this algorithm is that it can estimate the distance of the object. Also, the proposed camera calibration method is possible estimate distance in dynamic environment such as autonomous navigation. To validate proposed method, we set up the experiments with a frame on rotator at a distance of 1, 2, 3, 4[m] from camera and rotate the frame from -60 to 60 degrees. Both computer simulation and real data have been used to test the proposed method and very good results have been obtained. We have investigated the distance error affected by scale factor or different line widths and experimentally found an average scale factor that includes the least distance error with each image. The average scale factor tends to fluctuate with small variation and makes distance error decrease. Compared with classical methods that use stereo camera or two or three orthogonal planes, the proposed method is easy to use and flexible. It advances camera calibration one more step from static environments to real world such as autonomous land vehicle use.

  • PDF

기후학적 물수지를 적용한 기후변화에 따른 농업기상지표 변동예측의 불확실성 (Uncertainty Characteristics in Future Prediction of Agrometeorological Indicators using a Climatic Water Budget Approach)

  • 남원호;홍은미;최진용;조재필
    • 한국농공학회논문집
    • /
    • 제57권2호
    • /
    • pp.1-13
    • /
    • 2015
  • The Coupled Model Intercomparison Project Phase 5 (CMIP5), coordinated by the World Climate Research Programme in support of the Intergovernmental Panel on Climate Change (IPCC) AR5, is the most recent, provides projections of future climate change using various global climate models under four major greenhouse gas emission scenarios. There is a wide selection of climate models available to provide projections of future climate change. These provide for a wide range of possible outcomes when trying to inform managers about possible climate changes. Hence, future agrometeorological indicators estimation will be much impacted by which global climate model and climate change scenarios are used. Decision makers are increasingly expected to use climate information, but the uncertainties associated with global climate models pose substantial hurdles for agricultural resources planning. Although it is the most reasonable that quantifying of the future uncertainty using climate change scenarios, preliminary analysis using reasonable factors for selecting a subset for decision making are needed. In order to narrow the projections to a handful of models that could be used in a climate change impact study, we could provide effective information for selecting climate model and scenarios for climate change impact assessment using maximum/minimum temperature, precipitation, reference evapotranspiration, and moisture index of nine Representative Concentration Pathways (RCP) scenarios.

비선형 줌-렌즈 왜곡 모델을 이용한 비디오 영상에서의 줌-렌즈 왜곡 보정 (Zoom Lens Distortion Correction Of Video Sequence Using Nonlinear Zoom Lens Distortion Model)

  • 김대현;신형철;오주현;남승진;손광훈
    • 방송공학회논문지
    • /
    • 제14권3호
    • /
    • pp.299-310
    • /
    • 2009
  • 본 논문은 줌-렌즈로 취득한 비디오 영상에 대해서 줌-렌즈의 왜곡을 자동으로 보상할 수 있는 새로운 방법을 제안하였다. 먼저, 초점거리의 증가에 따라 렌즈의 왜곡 계수가 비선형적으로 단조 감소하는 특징으로부터 초점거리와 렌즈 왜곡 계수로 표현되는 비선형 줌-렌즈 왜곡 모델을 정의하였다. 그리고 취득한 비디오 영상으로부터 몇 장의 샘플 영상을 선정하고, 이 샘플영상에 대한 초점거리와 렌즈 왜곡 계수는 기존의 방법들을 이용하여 측정하였다. 이렇게 측정한 초점거리와 렌즈 왜곡 계수들로 부터 줌-렌즈 왜곡 모델을 최적화 시켰다. 최적화된 줌-렌즈 왜곡 모델은 각 비디오 영상의 초점거리를 입력으로 하여 렌즈 왜곡계수를 자동으로 계산할 수 있다. 본 논문에서 제안한 방법은 다양한 실사 영상과 비디오 영상에 적용하여 그 성능을 검증하였으며, 화질의 열화 없이 영상의 왜곡을 보상할 수 있었다.

실시간 손동작 인식을 위한 동작 평면 추정 (Motion Plane Estimation for Real-Time Hand Motion Recognition)

  • 정승대;장경호;정순기
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.347-358
    • /
    • 2009
  • 손동작을 인식하는 연구가 오랫동안 이뤄져 왔지만 대개의 시스템들이 값비싼 깊이 카메라를 사용하거나 여러 개의 카메라를 사용해 분석하는 등 그 비용이 크며 작동이 가능한 작업 공간이 지극히 제한적이었다. 본 논문에서는 가전제품을 원격 제어하기 위한 목적으로 두 개의 회전 모터를 사용해 작업 공간을 확대하고 저렴한 일반 카메라를 사용해서 효율적으로 손동작을 인식하기 위한 시스템을 제안한다. 이 시스템은 입력된 카메라의 자세 정보와 이미지상의 2차원적 손가락 위치 정보를 이용하여 3차원 궤적을 추정하고 이를 동작 평면으로 투영시켜 의미 있는 선형 동작 패턴으로 복원한다. 또한 본 논문에서는 개발된 시스템을 테스트하여 주어진 목적에 맞는 정확도를 가지는 작업 영역을 정의한다.

스마트폰을 이용한 위치정보기반 AR 시스템에서의 부정합 현상 최소화를 위한 기법 (Error Correction Scheme in Location-based AR System Using Smartphone)

  • 이주용;권준식
    • 디지털콘텐츠학회 논문지
    • /
    • 제16권2호
    • /
    • pp.179-187
    • /
    • 2015
  • 스마트폰의 보급 확산으로 다양한 콘텐츠가 등장하고 있다. 이러한 콘텐츠 중에서 위치 기반 서비스를 이용한 증강현실 응용프로그램의 필요성이 널리 대두되고 있다. 본 논문에서는 안드로이드 스마트폰을 이용한 위치정보기반 AR 시스템에서 발생하는 정합 오차를 컴퓨터 비전 기술을 이용하여 효과적으로 줄이는 방법을 제안한다. 위치정보 오차 누적 때문에 객체가 정확하게 정합되지 않는 부정합 현상 최소화를 위해 연산 속도는 유지하면서 연산량을 줄여 성능을 향상한 방법인 SURF(Speeded Up Robust Features)를 사용해 초기 특징점을 검출하고 검출된 특징점을 추적하여 모바일 환경에 적용한다. 위치정보 검색을 위해 GPS 정보를 사용하고 자세추정 및 방향 정보를 위해 자이로 센서, G-센서 등을 이용한다. 하지만 위치정보의 누적된 오차는 객체가 고정되지 않는 부정합 현상을 유발한다. 또한, 증강현실 기술은 구현하면서 많은 연산량이 필요하므로 모바일 환경에서 구현하는데 어려움이 발생한다. 제안된 방법은 모바일 환경에서 성능 저하를 최소화하고 비교적 간단하게 구현할 수 있어 기존 시스템 및 다양한 모바일 환경에서 유용하게 이용될 수 있다.

소 부류 객체 분류를 위한 CNN기반 학습망 설계 (Training Network Design Based on Convolution Neural Network for Object Classification in few class problem)

  • 임수창;김승현;김연호;김도연
    • 한국정보통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.144-150
    • /
    • 2017
  • 최근 데이터의 지능적 처리 및 정확도 향상을 위해 딥러닝 기술이 응용되고 있다. 이 기술은 다층의 데이터 처리 레이어들로 구성된 계산 모델을 통해 이루어지는데, 이 모델은 여러 수준의 추상화를 거쳐 데이터의 표현을 학습한다. 딥러닝의 한 부류인 컨볼루션 신경망은 인간 행동 추정, 얼굴 인식, 이미지 분류, 음성 인식 같은 연구 분야에서 많이 활용되고 있다. 이미지 분류에 좋은 성능을 보여주는 컨볼루션 신경망은 깊은 학습망과 많은 부류를 이용하면 효과적으로 분류율을 높일수 있지만, 적은 부류의 데이터를 사용할 경우, 과적합 문제가 발생할 확률이 높아진다. 따라서 본 논문에서는 컨볼루션 신경망기반의 소부류의 분류을 위한 학습망을 제작하여 자체적으로 구축한 이미지 DB를 학습시키고, 객체를 분류하는 연구를 실험 하였으며, 1000개의 부류를 분류하기 위해 제작된 기존 공개된 망들과 비교 실험을 통해 기존 망보다 평균 7.06%이상의 상승된 분류율을 보여주었다.

다시점 RGB-D 카메라를 이용한 실시간 3차원 체적 모델의 생성 (Real-time 3D Volumetric Model Generation using Multiview RGB-D Camera)

  • 김경진;박병서;김동욱;권순철;서영호
    • 방송공학회논문지
    • /
    • 제25권3호
    • /
    • pp.439-448
    • /
    • 2020
  • 본 논문에서는 다시점 RGB-D 카메라의 포인트 클라우드 정합을 위한 수정된 최적화 알고리즘을 제안한다. 일반적으로 컴퓨터 비전 분야에서는 카메라의 위치를 정밀하게 추정하는 것은 매우 중요하다. 기존의 연구에서 제안된 3D 모델 생성 방식들은 많은 카메라 대수나 고가의 3차원 Camera를 필요로 한다. 또한 2차원 이미지를 통해 카메라 외부 파라미터를 얻는 방식들은 큰 오차를 가지고 있다. 본 논문에서는 저가의 RGB-D 카메라를 8개 사용하여 전방위 자유시점을 제공할 수 있는 3차원 포인트 클라우드 및 매쉬 모델을 생성하기 위한 정합 기법을 제안하고자 한다. RGB영상과 함께 깊이지도 기반의 함수 최적화 방식을 이용하고, 초기 파라미터를 구하지 않으면서 고품질의 3차원 모델을 생성할 수 있는 좌표 변환 파라미터를 구하는 방식을 제안한다.

키넥트 센서를 이용한 동적 환경에서의 효율적인 이동로봇 반응경로계획 기법 (Efficient Kinect Sensor-Based Reactive Path Planning Method for Autonomous Mobile Robots in Dynamic Environments)

  • 두팔람 툽신자갈;이덕진
    • 대한기계학회논문집A
    • /
    • 제39권6호
    • /
    • pp.549-559
    • /
    • 2015
  • 본 논문에서는 동적 움직임을 갖는 장애물이 위치한 주행환경에서 이동로봇의 충돌회피 기능을 포함하는 효율적인 반응경로계획 기법을 제안하고자 한다. 로봇의 동적 장애물과의 충돌회피 기능을 위해서 반응경로계획기법을 기반으로 키넥트센서를 이용한 센서융합기법의 보완을 통해서 자율주행의 강건성을 증대시키고자 하였다. 반응경로기법에서 사용된 접근방식은 동적장애물을 가상좌표평면에서 지역관측기개념을 이용하여 정적장애물로 좌표변환을 가능하게하며, 생성된 가상평면에서의 로봇과 장애물의 충돌 발생 가능한 속도와 경로의 운동학적 정보추출이 가능하게 된다. 또한 키넥트 센서 정보를 융합하여 장애물의 방향과 위치 정보를 추정하여 동적 환경에서의 주행성능의 정미도를 증대시키고자 하였다. 본 연구에서 제안 기술의 성능을 검증하기 위해서 임베디드 로봇플랫폼과 여러 개의 동적 장애물을 이용하여 시뮬레이션 해석 및 실험을 수행하였다.

서식지에 따른 다소비 어류의 납과 카드뮴의 오염 및 위해 평가 (Contamination and Risk Assessment of Lead and Cadmium in Commonly Consumed Fishes as Affected by Habitat)

  • 김기현;김용중;허민수;김진수
    • 한국수산과학회지
    • /
    • 제49권5호
    • /
    • pp.541-555
    • /
    • 2016
  • This study determined the concentrations of lead and cadmium in 18 species of commonly consumed fish and assessed the risk based on provisional tolerable weekly (monthly) intakes [PTW(M)I] % as affected by behavioral characteristics, such as migration and settlement. In the 18 species, the mean concentrations of lead and cadmium were higher in the 11 species of migratory fish (llargehead hairtail Trichiurus lepturus, chub mackerel Scomber japonicus, Pacific saury Cololabis saira, skipjack tuna Katsuwonus pelamis, Pacific cod Gadus macrocephalus, anchovy Engraulis japonicus, Alaska pollack Theragra chalcogramm, brown croaker Miichthys miiuy, Japanese Spanish mackerel Scomberomorus niphonius, yellow croaker Larimichthys polyactis, and Pacific herring Clupea pallasii) than in the seven demersal species (red stingray Dasyatis akajei, brown sole Pleuronectes herzensteini, bastard halibut Paralichthys olivaceus, conger eel Conger myriaster, blackmouth angler Lophiomus setigerus, rockfish Sebastes schlegelii, and filefish Stephanolepis cirrhifer). Based on the mean concentrations, the PTWI % of lead and cadmium in commonly consumed migratory fish were 1.900 and 2.986%, respectively, which were higher than the values for lead and cadmium in the commonly consumed demersal fishes (0.257 and 0.318%, respectively). The estimation of weekly (monthly) intakes and target hazard quotients for the toxic elements lead and cadmium revealed that the commonly consumed migratory and demersal fish do not pose any health risks for consumers.

개선된 직교분해기법을 사용한 빠른 구조 복원 및 융합 (Fast Structure Recovery and Integration using Improved Scaled Orthographic Factorization)

  • 박종승;윤종현
    • 한국멀티미디어학회논문지
    • /
    • 제10권3호
    • /
    • pp.303-315
    • /
    • 2007
  • 본 논문에서는 비디오에서의 특징점 추적을 통해 얻은 2차원 좌표를 이용하여 3차원 구조를 계산하고 부분적으로 복원된 형상들을 점진적으로 융합하여 전체 형상을 생성하는 기법을 제안한다. 영상의 각 프레임에서 공통적으로 추적된 특징점들을 이용하여 형상을 추정한다. 3차원 좌표 추정 방법으로 개선된 직교분해기법을 사용하였다. 개선된 직교분해기법에서는 3차원 좌표를 복원함과 동시에 카메라의 위치와 방향을 계산할 수 있다. 복원된 부분 형상의 융합을 통해 입체적인 전체 형상을 만든다. 복원된 부분 데이터들의 서로 다른 좌표계를 기준 좌표계로 변환하여 하나의 전체 형상으로 융합한다. 형상 추정 과정과 융합 과정이 통합적으로 수행되며 반복적 최적화 작업을 수행하지 않고 선형적으로 이루어진다. 이는 기존 융합 방법인 ICP(Iterative Closest Point) 방법보다 융합 속도를 향상시켜 빠른 형상 복원이 가능하다. 융합 시간은 평균 0.01초 이내의 수행 속도를 보이며 융합의 오차는 평균 1.0mm 이하의 오차를 보였다.

  • PDF