• 제목/요약/키워드: Vehicle pose estimation

검색결과 25건 처리시간 0.021초

비정형 환경 내 지도 작성과 자율주행을 위한 GNSS-라이다-관성 상태 추정 시스템 (Tightly-Coupled GNSS-LiDAR-Inertial State Estimator for Mapping and Autonomous Driving)

  • 길현재;이동재;송관형;안승욱;김아영
    • 로봇학회논문지
    • /
    • 제18권1호
    • /
    • pp.72-81
    • /
    • 2023
  • We introduce tightly-coupled GNSS-LiDAR-Inertial state estimator, which is capable of SLAM (Simultaneously Localization and Mapping) and autonomous driving. Long term drift is one of the main sources of estimation error, and some LiDAR SLAM framework utilize loop closure to overcome this error. However, when loop closing event happens, one's current state could change abruptly and pose some safety issues on drivers. Directly utilizing GNSS (Global Navigation Satellite System) positioning information could help alleviating this problem, but accurate information is not always available and inaccurate vertical positioning issues still exist. We thus propose our method which tightly couples raw GNSS measurements into LiDAR-Inertial SLAM framework which can handle satellite positioning information regardless of its uncertainty. Also, with NLOS (Non-light-of-sight) satellite signal handling, we can estimate our states more smoothly and accurately. With several autonomous driving tests on AGV (Autonomous Ground Vehicle), we verified that our method can be applied to real-world problem.

운전자 시선 및 선택적 주의 집중 모델 통합 해석을 통한 운전자 보조 시스템 (Driver Assistance System for Integration Interpretation of Driver's Gaze and Selective Attention Model)

  • 김지훈;조현래;장길진;이민호
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권3호
    • /
    • pp.115-122
    • /
    • 2016
  • 본 논문은 차량의 내부 및 외부 정보를 통합하여 운전자의 인지 상태를 측정하고, 안전운전을 보조하여 주는시스템을 제안한다. 구현된 시스템은 운전자의 시선 정보와 외부 영상을 분석하여 얻은 주변정보를 mutual information기반으로 통합하여 구현되며, 차량의 앞부분과 내부 운전자를 검출하는 2개의 카메라를 이용한다. 외부 카메라에서 정보를 얻기 위해 선택적 집중모델을 기반으로 하는 게슈탈트법칙을 제안하고, 이를 기반으로 구현된 saliency map (SM) 모델은 신호등과 같은 중요한 외부 자극을 두드러지게 표현한다. 내부 카메라에서는 얼굴의 특징정보를 이용하여 운전자의 주의가 집중되는 외부 응시 정보를 파악하고 이를 통해 운전자가 응시하고 있는 영역을 검출한다. 이를 위해서 우리는 실시간으로 운전자의 얼굴특징을 검출하는 알고리즘을 사용한다. 운전자의 얼굴을 검출하기 위하여 modified census transform (MCT) 기반의 Adaboost 알고리즘을 사용하였으며, POSIT (POS with ITerations)알고리즘을 통해 3차원 공간에서 머리의 방향과 운전자 응시 정보를 측정하였다. 실험결과를 통하여 제안한 시스템이 실시간으로 운전자의 응시하고 있는 영역과, 신호등과 같은 운전에 도움이 되는 정보를 파악하는데 도움이 되었음을 확인할 수 있으며, 이러한 시스템이 운전보조 시스템에 효과적으로 적용될 것으로 판단된다.

격자형 선폭들의 투영변화비를 이용한 카메라 교정 파라메터 추정 (Camera calibration parameters estimation using perspective variation ratio of grid type line widths)

  • Jeong, Jun-Ik;Choi, Seong-Gu;Rho, Do-Hwan
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.30-32
    • /
    • 2004
  • With 3-D vision measuring, camera calibration is necessary to calculate parameters accurately. Camera calibration was developed widely in two categories. The first establishes reference points in space, and the second uses a grid type frame and statistical method. But, the former has difficulty to setup reference points and the latter has low accuracy. In this paper we present an algorithm for camera calibration using perspective ratio of the grid type frame with different line widths. It can easily estimate camera calibration parameters such as lens distortion, focal length, scale factor, pose, orientations, and distance. The advantage of this algorithm is that it can estimate the distance of the object. Also, the proposed camera calibration method is possible estimate distance in dynamic environment such as autonomous navigation. To validate proposed method, we set up the experiments with a frame on rotator at a distance of 1, 2, 3, 4[m] from camera and rotate the frame from -60 to 60 degrees. Both computer simulation and real data have been used to test the proposed method and very good results have been obtained. We have investigated the distance error affected by scale factor or different line widths and experimentally found an average scale factor that includes the least distance error with each image. The average scale factor tends to fluctuate with small variation and makes distance error decrease. Compared with classical methods that use stereo camera or two or three orthogonal planes, the proposed method is easy to use and flexible. It advances camera calibration one more step from static environments to real world such as autonomous land vehicle use.

  • PDF

키넥트 센서를 이용한 동적 환경에서의 효율적인 이동로봇 반응경로계획 기법 (Efficient Kinect Sensor-Based Reactive Path Planning Method for Autonomous Mobile Robots in Dynamic Environments)

  • 두팔람 툽신자갈;이덕진
    • 대한기계학회논문집A
    • /
    • 제39권6호
    • /
    • pp.549-559
    • /
    • 2015
  • 본 논문에서는 동적 움직임을 갖는 장애물이 위치한 주행환경에서 이동로봇의 충돌회피 기능을 포함하는 효율적인 반응경로계획 기법을 제안하고자 한다. 로봇의 동적 장애물과의 충돌회피 기능을 위해서 반응경로계획기법을 기반으로 키넥트센서를 이용한 센서융합기법의 보완을 통해서 자율주행의 강건성을 증대시키고자 하였다. 반응경로기법에서 사용된 접근방식은 동적장애물을 가상좌표평면에서 지역관측기개념을 이용하여 정적장애물로 좌표변환을 가능하게하며, 생성된 가상평면에서의 로봇과 장애물의 충돌 발생 가능한 속도와 경로의 운동학적 정보추출이 가능하게 된다. 또한 키넥트 센서 정보를 융합하여 장애물의 방향과 위치 정보를 추정하여 동적 환경에서의 주행성능의 정미도를 증대시키고자 하였다. 본 연구에서 제안 기술의 성능을 검증하기 위해서 임베디드 로봇플랫폼과 여러 개의 동적 장애물을 이용하여 시뮬레이션 해석 및 실험을 수행하였다.

선폭들의 투영변화율을 이용한 카메라 교정 파라메터 추정 (The Camera Calibration Parameters Estimation using The Projection Variations of Line Widths)

  • 정준익;문성룡;노도환
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2003년도 하계학술대회 논문집 D
    • /
    • pp.2372-2374
    • /
    • 2003
  • With 3-D vision measuring, camera calibration is necessary to calculate parameters accurately. Camera calibration was developed widely in two categories. The first establishes reference points in space, and the second uses a grid type frame and statistical method. But, the former has difficulty to setup reference points and the latter has low accuracy. In this paper we present an algorithm for camera calibration using perspective ratio of the grid type frame with different line widths. It can easily estimate camera calibration parameters such as focal length, scale factor, pose, orientations, and distance. But, radial lens distortion is not modeled. The advantage of this algorithm is that it can estimate the distance of the object. Also, the proposed camera calibration method is possible estimate distance in dynamic environment such as autonomous navigation. To validate proposed method, we set up the experiments with a frame on rotator at a distance of 1,2,3,4[m] from camera and rotate the frame from -60 to 60 degrees. Both computer simulation and real data have been used to test the proposed method and very good results have been obtained. We have investigated the distance error affected by scale factor or different line widths and experimentally found an average scale factor that includes the least distance error with each image. It advances camera calibration one more step from static environments to real world such as autonomous land vehicle use.

  • PDF