• 제목/요약/키워드: 3D LiDAR systems

검색결과 35건 처리시간 0.022초

UAM 환경에서 3D LiDAR 시스템을 통한 객체 검출 기능 및 성능 평가 (Object Detection Capabilities and Performance Evaluation of 3D LiDAR Systems in Urban Air Mobility Environments)

  • 구본수;최인호;황재욱
    • 한국항행학회논문지
    • /
    • 제28권3호
    • /
    • pp.300-308
    • /
    • 2024
  • 도심 항공 모빌리티(UAM)는 도시의 교통 혼잡과 환경 문제에 혁신적인 해결책을 제공하는 새로운 교통수단으로 부상하고 있다. 특히 전기수직이착륙(eVTOL) 항공기를 통해 도심 내 이동성을 향상시키고 교통 혼잡을 감소시키며 환경오염을 줄이는 데 기여할 것으로 기대된다. 그러나 UAM 시스템의 성공적인 구현과 운영은 센서 기술과 같은 고도로 발전된 기술적 인프라에 의존을 많이 하게 된다. 이러한 센서 기술 중에서도 3D LiDAR (light detection and ranging) 시스템은 복잡한 도심 환경에서 비행체가 장애물을 감지하고 경로를 생성하는 데 필수적이다. 본 논문은 3D LiDAR를 이용한 객체 검출 기능의 중요성과 성능을 중심으로 LiDAR 기반 인지 솔루션 개발의 도전 과제에 초점을 맞추며, LiDAR 데이터 처리 알고리즘과 객체 검출 방법론을 통합하여 비행체의 안전 운항에 기여하는 인지 솔루션의 효과를 실험적으로 검증한다.

Building DSMs Generation Integrating Three Line Scanner (TLS) and LiDAR

  • Suh, Yong-Cheol;Nakagawa , Masafumi
    • 대한원격탐사학회지
    • /
    • 제21권3호
    • /
    • pp.229-242
    • /
    • 2005
  • Photogrammetry is a current method of GIS data acquisition. However, as a matter of fact, a large manpower and expenditure for making detailed 3D spatial information is required especially in urban areas where various buildings exist. There are no photogrammetric systems which can automate a process of spatial information acquisition completely. On the other hand, LiDAR has high potential of automating 3D spatial data acquisition because it can directly measure 3D coordinates of objects, but it is rather difficult to recognize the object with only LiDAR data, for its low resolution at this moment. With this background, we believe that it is very advantageous to integrate LiDAR data and stereo CCD images for more efficient and automated acquisition of the 3D spatial data with higher resolution. In this research, the automatic urban object recognition methodology was proposed by integrating ultra highresolution stereo images and LiDAR data. Moreover, a method to enable more reliable and detailed stereo matching method for CCD images was examined by using LiDAR data as an initial 3D data to determine the search range and to detect possibility of occlusions. Finally, intellectual DSMs, which were identified urban features with high resolution, were generated with high speed processing.

UAS 및 지상 LiDAR 융합기반 건축물의 3D 재현 (3D Reconstruction of Structure Fusion-Based on UAS and Terrestrial LiDAR)

  • 한승희;강준오;오성종;이용창
    • 도시과학
    • /
    • 제7권2호
    • /
    • pp.53-60
    • /
    • 2018
  • Digital Twin is a technology that creates a photocopy of real-world objects on a computer and analyzes the past and present operational status by fusing the structure, context, and operation of various physical systems with property information, and predicts the future society's countermeasures. In particular, 3D rendering technology (UAS, LiDAR, GNSS, etc.) is a core technology in digital twin. so, the research and application are actively performed in the industry in recent years. However, UAS (Unmanned Aerial System) and LiDAR (Light Detection And Ranging) have to be solved by compensating blind spot which is not reconstructed according to the object shape. In addition, the terrestrial LiDAR can acquire the point cloud of the object more precisely and quickly at a short distance, but a blind spot is generated at the upper part of the object, thereby imposing restrictions on the forward digital twin modeling. The UAS is capable of modeling a specific range of objects with high accuracy by using high resolution images at low altitudes, and has the advantage of generating a high density point group based on SfM (Structure-from-Motion) image analysis technology. However, It is relatively far from the target LiDAR than the terrestrial LiDAR, and it takes time to analyze the image. In particular, it is necessary to reduce the accuracy of the side part and compensate the blind spot. By re-optimizing it after fusion with UAS and Terrestrial LiDAR, the residual error of each modeling method was compensated and the mutual correction result was obtained. The accuracy of fusion-based 3D model is less than 1cm and it is expected to be useful for digital twin construction.

3-D LiDAR 시스템 적용 진지갱도의 형상도 구현 방안 (Implementation Methods of the Configuration Maps on the Military Encampment Mines Applying 3-D LiDAR Systems)

  • 오종우
    • 한국재난정보학회:학술대회논문집
    • /
    • 한국재난정보학회 2015년 정기학술대회
    • /
    • pp.221-223
    • /
    • 2015
  • 해방70년을 맞이하는 차원에서 일제강점기 동안에 조선인 강재징용으로 구축된 진지갱도(신주백, 2003)에 대한 구조물의 분포와 활용에 대한 내역을 규명하고(황석규, 2006), 일제에 의하여 자행된 국토훼손의 실상 및 만행을 확인하여 분류하는데 있다. '한반도는 일제강점기 일본 제국의 군사요새였다'(이완희, 2014)고 제시하였듯이 조사탐사의 범위는 전국을 대상으로 하며, 진지갱도지역에 대한 3-D LiDAR 기법에 의한 도면작성으로 붕괴위험에 처한 진지동굴의 분포, 형상, 내용 등의 분석으로 문화재적 측면의 보전위한 기록물 구현방안에 있다.

  • PDF

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

Aerial Object Detection and Tracking based on Fusion of Vision and Lidar Sensors using Kalman Filter for UAV

  • Park, Cheonman;Lee, Seongbong;Kim, Hyeji;Lee, Dongjin
    • International journal of advanced smart convergence
    • /
    • 제9권3호
    • /
    • pp.232-238
    • /
    • 2020
  • In this paper, we study on aerial objects detection and position estimation algorithm for the safety of UAV that flight in BVLOS. We use the vision sensor and LiDAR to detect objects. We use YOLOv2 architecture based on CNN to detect objects on a 2D image. Additionally we use a clustering method to detect objects on point cloud data acquired from LiDAR. When a single sensor used, detection rate can be degraded in a specific situation depending on the characteristics of sensor. If the result of the detection algorithm using a single sensor is absent or false, we need to complement the detection accuracy. In order to complement the accuracy of detection algorithm based on a single sensor, we use the Kalman filter. And we fused the results of a single sensor to improve detection accuracy. We estimate the 3D position of the object using the pixel position of the object and distance measured to LiDAR. We verified the performance of proposed fusion algorithm by performing the simulation using the Gazebo simulator.

저전력 LiDAR 시스템을 위한 Adaptive Convolution Filter에 기반한 3D 공간 구성 (Adaptive Convolution Filter-Based 3D Plane Reconstruction for Low-Power LiDAR Sensor Systems)

  • 정태원;박대진
    • 한국정보통신학회논문지
    • /
    • 제25권10호
    • /
    • pp.1416-1426
    • /
    • 2021
  • Scanning 타입 다채널 LiDAR 센서의 경우 수신되는 신호의 세기의 차이에 의한 walk error라는 거리 오차가 발생할 수 있다. 이러한 오차는 다수의 LiDAR 센서를 기반으로 주변 환경을 스캐닝할 경우 같은 물체에 대해 서로 다른 거리 값을 출력하게 한다. 다수의 LiDAR 센서를 이용하여 전방향 스캐닝할 경우, 센서의 시야각이 겹치는 구간에서 발생하는 walk error를 최소화하기 위해 외부 시스템 상에서 센서의 각 채널에 대한 convolution을 수행하고 오차를 최소화하고자 한다. 약 6×6 m 환경의 중앙에 4개의 LiDAR 센서들을 배치하고 주변 환경을 스캐닝 하였으며, 필터링을 적용한 결과, 거리 오차를 평균 0.5125m에서 0.16m까지 약 68% 개선할 수 있었으며, 표준 편차는 평균 0.0591에서 0.030675까지 약 48% 개선할 수 있었다.

딥러닝 기반 3차원 라이다의 반사율 세기 신호를 이용한 흑백 영상 생성 기법 (Deep Learning Based Gray Image Generation from 3D LiDAR Reflection Intensity)

  • 김현구;유국열;박주현;정호열
    • 대한임베디드공학회논문지
    • /
    • 제14권1호
    • /
    • pp.1-9
    • /
    • 2019
  • In this paper, we propose a method of generating a 2D gray image from LiDAR 3D reflection intensity. The proposed method uses the Fully Convolutional Network (FCN) to generate the gray image from 2D reflection intensity which is projected from LiDAR 3D intensity. Both encoder and decoder of FCN are configured with several convolution blocks in the symmetric fashion. Each convolution block consists of a convolution layer with $3{\times}3$ filter, batch normalization layer and activation function. The performance of the proposed method architecture is empirically evaluated by varying depths of convolution blocks. The well-known KITTI data set for various scenarios is used for training and performance evaluation. The simulation results show that the proposed method produces the improvements of 8.56 dB in peak signal-to-noise ratio and 0.33 in structural similarity index measure compared with conventional interpolation methods such as inverse distance weighted and nearest neighbor. The proposed method can be possibly used as an assistance tool in the night-time driving system for autonomous vehicles.

A Study on Airborne LiDAR Calibration and Operation Techniques for Bathymetric Survey

  • Shin, Moon Seung;Yang, In Tae;Lee, Dong Ha
    • 대한공간정보학회지
    • /
    • 제24권2호
    • /
    • pp.113-120
    • /
    • 2016
  • The necessity of maritime sector for continuous management, accurate and update location information such as seabed shape and location, research on airborne LiDAR bathymetry surveying techniques are accelerating. Airborne LiDAR systems consist of a scanner and GPS/INS. The location accuracy of 3D point data obtained by a LiDAR system is determined by external orientation parameters. However, there are problems in the synchronization between sensors should be performed due to a variety of sensor combinations and arrangement. To solve this issue, system calibration should be conducted. Therefore, this study evaluates the system verification methods, processes, and operation techniques.

LiDAR자료의 3차원 정보를 이용한 최적 Sensor 위치 선정방법론 개발 (Process Development for Optimizing Sensor Placement Using 3D Information by LiDAR)

  • 유한서;이우균;최성호;곽한빈;곽두안
    • 대한공간정보학회지
    • /
    • 제18권2호
    • /
    • pp.3-12
    • /
    • 2010
  • 최근 항공사진과 고해상도 위성영상의 보급과 수치사진측량 시스템 및 분석 알고리즘의 발전으로 인하여 데이터 추출, 영상이미지프로세싱처리, 정밀 대축척지도제작 등의 연구가 진행되고 있지만 2차원 평면 정보라는 제한적인 요소를 가지고 있다. 이에, 높은 위치정확도와 개체인식을 위한 정확한 공간정보와 3차원 좌표가 필요하게 되었다. 본 연구에서는 높은 위치정확도가 검증된 LiDAR의 3차원 공간정보를 이용하여 실제 지형을 반영하였고, 센서 최적 위치를 도출하기위해 확률알고리즘을 개발하고 공간분석을 통해 확률 값을 산정하였다. Grid기반인 2차원 3차원 센서위치지점을 생성하고 LiDAR의 3차원정보를 센서감지영역 산정에 적용하였다. 이 데이터를 바탕으로 알고리즘을 구현하여 최적 센서위치지점으로 선정하였다. 또한 최적 센서위치지점 선정 시 고려사항을 3가지 조건으로 나누었다. 첫째조건은 방해물이 없는 2차원인 경우(2-D Non obstacle), 둘째조건은 방해물이 존재하는 2차원인 경우(2-D Obstacle), 셋째는 방해물이 존재하며 3차원인 조건(3-D Obstacle)으로 설정하였다. 이 3가지 조건에 알고리즘을 적용하여 2차원, 3차원적 공간에 대한 최적위치선정 방법을 검토하였다. 결론적으로 본 연구에서는 LiDAR 데이터를 이용하여 정보 수집을 위한 지상 고정센서 위치 선정 방법론을 제시하고자 하였다.