• 제목/요약/키워드: lidar sensors

검색결과 71건 처리시간 0.022초

차량용 라이다 센서의 평가를 위한 범용 시뮬레이터 개발 및 적용 (Development of a General Purpose Simulator for Evaluation of Vehicle LIDAR Sensors and its Application)

  • 임륭혁;최경아;정지희;이임평
    • 대한원격탐사학회지
    • /
    • 제31권3호
    • /
    • pp.267-279
    • /
    • 2015
  • 자율 주행 자동차 개발에 있어서 라이다 센서의 중요성이 커지고 있다. 센서 선정이나 알고리즘 개발을 위해 고가의 라이다 센서를 차량에 탑재하여 다양한 주행 환경에 대해 시험하기에 어려움이 따른다. 이에 본 연구는 다양한 차량용 라이다 센서에 대한 일반화된 기하모델링을 통해 범용적으로 적용될 수 있는 차량용 라이다 시뮬레이터를 개발하였다. 개발된 시뮬레이터를 활용하여 많이 활용되고 있는 특정 센서에 대하여 데이터 시뮬레이션과 품질 검증을 수행하였다. 또한, 생성된 데이터를 장애물 탐지에 적용함으로써 선정된 센서의 활용 가능성을 평가하였다. 이처럼 개발된 시뮬레이터는 센서의 도입 및 운용에 앞서서 다양한 실험을 가능하게 하고, 하드웨어 구축과 병행하여 알고리즘 개발을 도모할 수 있다.

차량주행 환경에서 다중라이다센서를 이용한 효과적인 검출 시스템 개발 (A Development of Effective Object Detection System Using Multi-Device LiDAR Sensor in Vehicle Driving Environment)

  • 권진산;김동순;황태호;박현문
    • 한국전자통신학회논문지
    • /
    • 제13권2호
    • /
    • pp.313-320
    • /
    • 2018
  • 자동차의 자율주행 기술이 확대되면서 '눈'의 역할을 하는 센서가 점차 중요시되고 있다. 최근 차량에 장착되는 라이다 센서는 채널이 많을수록 피사체에 반사된 신호 또한 풍부해짐에 따라 장애물, 지형, 차량 등 주변 환경 탐색의 정확도가 높아진다. 하지만, 라이다 센서는 채널 증가에 따른 열배 이상 가격의 차이가 있으며, 이러한 가격적인 문제로 보급형 차량보다는 고가의 차량에만 부분적으로 사용되고 있다. 본 연구는 저 가격의 16 채널의 라이다를 복수개로 구성하여 동시에 신호를 수집 처리하여 하나의 입체공간으로 융합하고 이를 나타낼 수 있게 함으로써 64 채널의 라이더와 같은 효과를 나타낼 수 있게 하였다. 이를 통해서 차량 심미성의 개선과 함께 보급화를 위한 기반을 제공할 수 있다.

Building Extraction from Lidar Data and Aerial Imagery using Domain Knowledge about Building Structures

  • Seo, Su-Young
    • 대한원격탐사학회지
    • /
    • 제23권3호
    • /
    • pp.199-209
    • /
    • 2007
  • Traditionally, aerial images have been used as main sources for compiling topographic maps. In recent years, lidar data has been exploited as another type of mapping data. Regarding their performances, aerial imagery has the ability to delineate object boundaries but omits much of these boundaries during feature extraction. Lidar provides direct information about heights of object surfaces but have limitations with respect to boundary localization. Considering the characteristics of the sensors, this paper proposes an approach to extracting buildings from lidar and aerial imagery, which is based on the complementary characteristics of optical and range sensors. For detecting building regions, relationships among elevation contours are represented into directional graphs and searched for the contours corresponding to external boundaries of buildings. For generating building models, a wing model is proposed to assemble roof surface patches into a complete building model. Then, building models are projected and checked with features in aerial images. Experimental results show that the proposed approach provides an efficient and accurate way to extract building models.

항공라이다시스템의 오차분석 및 모델링 (Error Analysis and Modeling of Airborne LIDAR System)

  • 유병민;이임평;김성준;강인구
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2006년도 춘계학술발표회 논문집
    • /
    • pp.199-204
    • /
    • 2006
  • Airborne LIDAR systems have been increasingly used for various applications as an effective surveying mean that can be complementary or alternative to the traditional one based on aerial photos. A LIDAR system is a multi-sensor system consisting of GPS, INS, and a laser scanner and hence the errors associated with the LIDAR data can be significantly affected by not only the errors associated with each individual sensor but also the errors involved in combining these sensors. The analysis about these errors have been performed by some researchers but yet insufficient so that the results can be critically contributed to performing accurate calibration of LIDAR data. In this study, we thus analyze these error sources, derive their mathematical models and perform the sensitivity analysis to assess how significantly each error affects the LIDAR data. The results from this sensitivity analysis in particular can be effectively used to determine the main parameters modelling the systematic errors associated with the LIDAR data for their calibration.

  • PDF

구형물체의 중심좌표를 이용한 VLP-16 라이다 센서와 비전 카메라 사이의 보정 (Calibration of VLP-16 Lidar Sensor and Vision Cameras Using the Center Coordinates of a Spherical Object)

  • 이주환;이근모;박순용
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권2호
    • /
    • pp.89-96
    • /
    • 2019
  • 전방향 3차원 라이다 센서와 비전 카메라는 자동차나 드론 등의 자율주행기술 개발에 활용되고 있다. 한편 라이다 센서와 카메라 좌표계 사이의 변환 관계를 보정하기 위한 기존의 기술들은 특수한 보정물체를 제작하거나 보정물체의 크기가 큰 단점이 있다. 본 논문에서는 한 개의 구형물체를 사용하여 두 센서 사이의 기하보정을 간편하게 구현하는 방법을 소개한다. 구형 물체의 3차원 거리정보에서 RANSAC으로 네 개의 3차원 점을 선택하여 구의 중심좌표를 계산하고, 카메라 영상에서 물체의 2차원 중심점을 구하여 두 센서를 보정하였다. 구는 다양한 각도에서 영상을 획득하여도 항상 원형의 형상을 유지하기 때문에 데이터 획득 시 유리한 장점이 있다. 본 논문에서 제안하는 방법으로 약 2픽셀의 투영오차의 결과를 얻었고, 기존의 방법과의 비교실험을 통하여 제안 기술의 성능을 분석하였다.

지상 라이다를 이용한 건물의 정밀 모델링 (Precise Modeling of Buildings Using a Terrestrial LIDAR)

  • 이임평;최윤수;사석재;오의종
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2004년도 춘계학술발표회논문집
    • /
    • pp.491-500
    • /
    • 2004
  • As the applications of 3D GIS rapidly increase, the need for acquisition and continuos update of urban models is increasingly emphasized. Particularly, building models has been considered as the most crucial component of urban models. Many researchers thus have focused on building extraction from mainly aerial photos or airborne LIDAR data but so far mostly failed to achieve satisfactory results in terms of both completeness and precision because of the intrinsic limitation of the sensory data themselves. Therefore, instead of the airborne sensors, we utilize a terrestrial LIDAR to generate precise and complete building models. This paper presents the overview of the sensors for data acquisition, describes data processing methods for building modelling from the acquired data and summerizes the experimental results.

  • PDF

LIDAR 시스템을 이용한 근 실시간 3D 매핑 (Rapid 3D Mapping Using LIDAR System)

  • 손홍규;윤공현;김기태;김기홍
    • 한국방재학회 논문집
    • /
    • 제4권4호
    • /
    • pp.55-61
    • /
    • 2004
  • 최근 센서 기술의 발달로 지상에 대한 다양한 정보취득이 가능해지고 있다. 하지만, 이러한 정보들을 많은 응용연구에 적용시킬 경우 각 센서로부터 취득한 자료들은 완벽성, 정밀성 및 일관성이 부족하다. 이러한 문제를 해결하기 위하여 각 자료는 서로 다른 자료를 위한 보조자료로 활용되거나 서로 간의 융합을 필요로 한다. 본 연구에서는 LIDAR자료와 디지털 카메라 영상을 이용하여 3차원 정사영상을 생성하시 위한 실험을 수행하였으며 3차원 정사영상이 홍수 모니터링에 활용될 수 있었음을 보여주었다.

Precise Vehicle Localization Using 3D LIDAR and GPS/DR in Urban Environment

  • Im, Jun-Hyuck;Jee, Gyu-In
    • Journal of Positioning, Navigation, and Timing
    • /
    • 제6권1호
    • /
    • pp.27-33
    • /
    • 2017
  • GPS provides the positioning solution in most areas of the world. However, the position error largely occurs in the urban area due to signal attenuation, signal blockage, and multipath. Although many studies have been carried out to solve this problem, a definite solution has not yet been proposed. Therefore, research is being conducted to solve the vehicle localization problem in the urban environment by converging sensors such as cameras and Light Detection and Ranging (LIDAR). In this paper, the precise vehicle localization using 3D LIDAR (Velodyne HDL-32E) is performed in the urban area. As there are many tall buildings in the urban area and the outer walls of urban buildings consist of planes generally perpendicular to the earth's surface, the outer wall of the building meets at a vertical corner and this vertical corner can be accurately extracted using 3D LIDAR. In this paper, we describe the vertical corner extraction method using 3D LIDAR and perform the precise localization by combining the extracted corner position and GPS/DR information. The driving test was carried out in an about 4.5 km-long section near Teheran-ro, Gangnam. The lateral and longitudinal RMS position errors were 0.146 m and 0.286 m, respectively and showed very accurate localization performance.

차량 모델 및 LIDAR를 이용한 맵 매칭 기반의 야지환경에 강인한 무인 자율주행 기술 연구 (The Research of Unmanned Autonomous Navigation's Map Matching using Vehicle Model and LIDAR)

  • 박재웅;김재환;김정하
    • 제어로봇시스템학회논문지
    • /
    • 제17권5호
    • /
    • pp.451-459
    • /
    • 2011
  • Fundamentally, there are 5 systems are needed for autonomous navigation of unmanned ground vehicle: Localization, environment perception, path planning, motion planning and vehicle control. Path planning and motion planning are accomplished based on result of the environment perception process. Thus, high reliability of localization and the environment perception will be a criterion that makes a judgment overall autonomous navigation. In this paper, via map matching using vehicle dynamic model and LIDAR sensors, replace high price localization system to new one, and have researched an algorithm that lead to robust autonomous navigation. Finally, all results are verified via actual unmanned ground vehicle tests.

수동형-능동형 위성센서 관측자료를 이용한 대기 에어러솔의 3차원 분포 및 복사강제 효과 산정 (Aerosol Direct Radiative Forcing by Three Dimensional Observations from Passive- and Active- Satellite Sensors)

  • 이권호
    • 한국대기환경학회지
    • /
    • 제28권2호
    • /
    • pp.159-171
    • /
    • 2012
  • Aerosol direct radiative forcing (ADRF) retrieval method was developed by combining data from passive and active satellite sensors. Aerosol optical thickness (AOT) retrieved form the Moderate Resolution Imaging Spectroradiometer (MODIS) as a passive visible sensor and aerosol vertical profile from to the Cloud-Aerosol Lidar and Infrared Pathfinder Satellite Observations (CALIPSO) as an active laser sensor were investigated an application possibility. Especially, space-born Light Detection and Ranging (Lidar) observation provides a specific knowledge of the optical properties of atmospheric aerosols with spatial, temporal, vertical, and spectral resolutions. On the basis of extensive radiative transfer modeling, it is demonstrated that the use of the aerosol vertical profiles is sensitive to the estimation of ADRF. Throughout the investigation of relationship between aerosol height and ADRF, mean change rates of ADRF per increasing of 1 km aerosol height are smaller at surface than top-of-atmosphere (TOA). As a case study, satellite data for the Asian dust day of March 31, 2007 were used to estimate ADRF. Resulting ADRF values were compared with those retrieved independently from MODIS only data. The absolute difference values are 1.27% at surface level and 4.73% at top of atmosphere (TOA).