• 제목/요약/키워드: LiDAR point cloud

검색결과 142건 처리시간 0.026초

MMS 포인트 클라우드를 활용한 하천제방 경사도 자동 추출에 관한 연구 (Automatic Extraction of River Levee Slope Using MMS Point Cloud Data)

  • 김철환;이지상;최원준;김원대;손홍규
    • 대한원격탐사학회지
    • /
    • 제37권5_3호
    • /
    • pp.1425-1434
    • /
    • 2021
  • 하천 시설물의 효율적인 유지관리를 위해서는 대상물에 대해 지속적이고, 주기적인 데이터 취득이 선행되어야 한다. 하천 시설물은 일반 시설물과 달리 넓고 긴 지역을 따라 분포하고 있으므로 지상레이저스캐너, 토탈스테이션 및 GNSS를 활용하는 기존의 하천 측량 방법으로는 공간정보를 취득하는 데에 비용·인력·시간적 한계가 존재한다. 이에 반해, 모바일매핑시스템(Mobile Mapping System, 이하 MMS)은 플랫폼의 이동과 동시에 3차원 공간정보를 취득하므로 하천 시설물의 데이터 취득에 효율적이다. 따라서 본 연구진은 MMS를 활용하여 안양천 4 km 제방에 대해 20분동안 184,646,099개의 포인트를 취득했으며, 이를 10 m 간격의 종 방향으로 분할하여 378개의 횡단면을 추출하였다. 제방 횡단면 포인트 클라우드에서 제외지의 경사면 정보만 따로 분리하여 최대 및 평균 비탈 경사를 자동으로 계산하였으며, 이를 동일 제방에 대해 수동으로 계산한 값과 비교했을 때 RMSE 기준 최대 경사 1.124°, 평균 경사 1.659°의 정확도를 확인할 수 있었다. Reference 경사는 제방의 포인트 클라우드를 plot하고 경사 계산 시 위치정보를 사용하는 두 점을 직접 선택하여 수동으로 계산하였다. 또한 자동 추출한 경사를 하천기본계획 상의 비탈 경사면 설계 기준과 비교하여 MMS를 활용한 하천 시설물 검사의 가능성을 확인하였다.

수정된 RANSAC 알고리즘과 지상라이다 데이터를 이용한 수치지도 건물레이어 갱신 (Update of Digital Map by using The Terrestrial LiDAR Data and Modified RANSAC)

  • 김상민;정재훈;이재빈;허준;홍성철;조형식
    • 대한공간정보학회지
    • /
    • 제22권4호
    • /
    • pp.3-11
    • /
    • 2014
  • 최근 도시는 신규건축, 재건축 및 부분적인 리모델링 등 다양한 형태로 변화하고 있으며, 이에 따라 수치지도 또한 최신성 및 정확도를 유지할 수 있도록 지속적인 수정 및 갱신을 통해 사용자들에게 최적의 서비스를 제공할 수 있어야 한다. 일반적으로 수치지도 수정 및 갱신 방법으로는 항공사진 혹은 준공도면을 이용하고 있으나, 항공사진은 촬영주기제한 및 경제성 측면에서 국소 지역에 대한 수시 갱신이 어렵고 준공도면의 경우 품질 확보의 어려움이 존재한다. 본 연구에서는 빠르게 변하는 도심지의 건물 개발 현황을 수치지도상의 건물 정보에 신속하게 반영하기 위해 지상라이다로부터 추출한 건물 footprint 자료를 이용하는 방법론을 제안하였다. 우선 지상라이다로부터 취득된 전체 건물의 포인트 클라우드 자료로부터 대표 옆면을 추출하고, 2차원 영상으로 투영한다. 투영된 포인트 클라우드 자료로부터 footprint를 추출하고, 추출된 footprint와 수치지도 상의 건물 footprint 간의 정합을 위해 2D Affine 모델을 사용하였다. 2D Affine 파라미터의 추정에는 두 footprint 자료로부터 취득된 무게중심을 사용하였으며, 무작위로 추출된 무게중심 간의 매칭을 위해 수정된 RANSAC (RANdom SAmple Consensus) 알고리즘을 제시하였다. 다양한 조건하에서 수행된 실험결과 제안된 알고리즘을 적용할 경우, 지상라이다로부터 추출된 건물데이터를 활용하여 효율적인 수치지형도의 갱신이 가능함을 확인할 수 있었다.

딥러닝을 활용한 철도 터널 객체 분할에 학습 데이터가 미치는 영향 (Effect of Learning Data on the Semantic Segmentation of Railroad Tunnel Using Deep Learning)

  • 유영무;김병규;박정준
    • 한국지반공학회논문집
    • /
    • 제37권11호
    • /
    • pp.107-118
    • /
    • 2021
  • Scan-to-BIM은 라이다(Light Detection And Ranging, LiDAR)로 구조물을 계측하고 이를 바탕으로 3D BIM(Building Information Modeling) 모델을 구축하는 방법으로 정밀한 모델링이 가능하지만 많은 인력과 시간, 비용이 소모된다는 한계를 가진다. 이러한 한계를 극복하기 위해 포인트 클라우드 데이터를 대상으로 딥러닝(Deep learning) 알고리즘을 적용하여 구조물의 객체 분할(Semantic segmentation)을 수행하는 연구들이 진행되고 있으나 학습 데이터에 따라 객체 분할 정확도가 어떻게 변화하는지에 대한 연구는 미흡한 실정이다. 본 연구에서는 딥러닝을 통한 철도 터널의 객체 분할에 학습 데이터를 구성하는 철도 터널의 크기, 선로 유형 등이 어떤 영향을 미치는지 확인하기 위해 매개변수 연구를 수행하였다. 매개변수 연구 결과, 학습과 테스트에 사용한 터널의 크기가 비슷할수록, 단선 터널보다는 복선 터널로 학습하는 경우에 더 높은 객체 분할 성능을 보였다. 또한, 학습 데이터를 두 가지 이상의 터널로 구성하면 전체 정확도(Overall Accuracy, OA)와 MIoU(Mean Intersection over Union)가 적게는 10%에서 많게는 50%가량 증가하였는데 이로부터 학습 데이터를 다양하게 구성하는 것이 효율적인 학습에 기여할 수 있음을 확인하였다.

OBPCA 기반의 수직단면 이용 차량 추출 기법 (Vehicle Detection Method Based on Object-Based Point Cloud Analysis Using Vertical Elevation Data)

  • 전준범;이희진;오상윤;이민수
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권8호
    • /
    • pp.369-376
    • /
    • 2016
  • 점 클라우드로부터 차량을 추출하는 다양한 방식 중 OBPCA 방식은 세그먼트 단위의 평가-분류로 정확도가 높고, 단순한 직사각형 평면도에서 특성 값들을 추출하므로 분류가 빠르다. 그러나 이 OBPCA 방식은 차량과 크기가 비슷한 직육면체 모양의 물체를 차량과 구별하지 못하는 문제를 가지므로 이를 극복하고 차량 추출의 정확도를 높이는 방안에 대한 연구가 필요하다. 본 논문에서는 이 문제를 해결하기 위해 수평 단면과 함께 수직 단면을 이용하는 확장 OBPCA 방식을 제안한다. 제안 방법은 수평 단면을 통해 차량 후보를 1차로 선별하고, 각 차량 후보에서 가장 특징적인 수직 단면을 찾아서 그 단면의 특성 값들을 임계값들과 비교하여 차량 여부를 판단한다. 비교실험에서는 본 제안방식이 기존 OBPCA 방식에 비해 정밀도가 6.61% 향상되고 위양성률이 13.96% 감소됨을 확인했으며, 이를 통해 제안 방식이 기존 OBPCA 분류오류 문제에 대해 효과적인 해결방안임을 보였다.

염료추적자법을 이용한 산지하천의 구간 평균 유속 추정 (Estimation of the Reach-average Velocity of Mountain Streams Using Dye Tracing)

  • 김태현;이제만;이철원;임상준
    • 한국산림과학회지
    • /
    • 제112권3호
    • /
    • pp.374-381
    • /
    • 2023
  • 산지하천에서 발생하는 돌발홍수는 특정 지점의 점(Point) 유속보다는 전체 구간의 평균 유속에 따라 이동속도가 결정되며, 구간 평균유속은 하천경사, 하상재료, 수리적 거칠기에 많은 영향을 받는다. 이 연구에서는 하천경사 및 거칠기 높이를 이용하여 산지하천의 구간 평균유속 추정방법을 개발하였다. 염료추적자법(Dye Tracing)을 이용하여 특정 구간의 평균유속을 측정하고, LiDAR 영상으로부터 하천 지형 및 형상을 추출하였다. 거칠기 높이를 산정하기 위해 표면 거칠기 변수(Ra, Rmax, Rz )와 하상재료의 크기(D50, D84)를 이용하였다. 현장 계측자료로부터 무차원 접근법을 이용하여 구간 평균유속과 유량과의 관계식 v = 0.5499Q0.6165 을 도출하였으며, R2 =0.77의 설명력을 나타냈다. 이 연구에 이용된 5개의 거칠기 높이 중 평균 거칠기 높이(Ra)의 RMSE가 0.45로서 다른 거칠기 높이의 범위(0.47-1.04)보다 낮게 나타나 평균 거칠기 높이(Ra)가 구간 평균유속 산정을 위한 거칠기 높이 인자로 가장 적합하다고 판단되었다.

건축물 실시간 원격 스캔을 위한 SLAM 시스템 개발 시 고려사항 (Considerations for Developing a SLAM System for Real-time Remote Scanning of Building Facilities)

  • 강태욱
    • 한국BIM학회 논문집
    • /
    • 제10권1호
    • /
    • pp.1-8
    • /
    • 2020
  • In managing building facilities, spatial information is the basic data for decision making. However, the method of acquiring spatial information is not easy. In many cases, the site and drawings are often different due to changes in facilities and time after construction. In this case, the site data should be scanned to obtain spatial information. The scan data actually contains spatial information, which is a great help in making space related decisions. However, to obtain scan data, an expensive LiDAR (Light Detection and Ranging) device must be purchased, and special software for processing data obtained from the device must be available.Recently, SLAM (Simultaneous localization and mapping), an advanced map generation technology, has been spreading in the field of robotics. Using SLAM, 3D spatial information can be obtained quickly in real time without a separate matching process. This study develops and tests whether SLAM technology can be used to obtain spatial information for facility management. This draws considerations for developing a SLAM device for real-time remote scanning for facility management. However, this study focuses on the system development method that acquires spatial information necessary for facility management through SLAM technology. To this end, we develop a prototype, analyze the pros and cons, and then suggest considerations for developing a SLAM system.

실내 자율주행 로봇을 위한 3차원 다층 정밀 지도 구축 및 위치 추정 알고리즘 (3D Multi-floor Precision Mapping and Localization for Indoor Autonomous Robots)

  • 강규리;이대규;심현철
    • 로봇학회논문지
    • /
    • 제17권1호
    • /
    • pp.25-31
    • /
    • 2022
  • Moving among multiple floors is one of the most challenging tasks for indoor autonomous robots. Most of the previous researches for indoor mapping and localization have focused on singular floor environment. In this paper, we present an algorithm that creates a multi-floor map using 3D point cloud. We implement localization within the multi-floor map using a LiDAR and an IMU. Our algorithm builds a multi-floor map by constructing a single-floor map using a LOAM-based algorithm, and stacking them through global registration that aligns the common sections in the map of each floor. The localization in the multi-floor map was performed by adding the height information to the NDT (Normal Distribution Transform)-based registration method. The mean error of the multi-floor map showed 0.29 m and 0.43 m errors in the x, and y-axis, respectively. In addition, the mean error of yaw was 1.00°, and the error rate of height was 0.063. The real-world test for localization was performed on the third floor. It showed the mean square error of 0.116 m, and the average differential time of 0.01 sec. This study will be able to help indoor autonomous robots to operate on multiple floors.

Classification of Objects using CNN-Based Vision and Lidar Fusion in Autonomous Vehicle Environment

  • G.komali ;A.Sri Nagesh
    • International Journal of Computer Science & Network Security
    • /
    • 제23권11호
    • /
    • pp.67-72
    • /
    • 2023
  • In the past decade, Autonomous Vehicle Systems (AVS) have advanced at an exponential rate, particularly due to improvements in artificial intelligence, which have had a significant impact on social as well as road safety and the future of transportation systems. The fusion of light detection and ranging (LiDAR) and camera data in real-time is known to be a crucial process in many applications, such as in autonomous driving, industrial automation and robotics. Especially in the case of autonomous vehicles, the efficient fusion of data from these two types of sensors is important to enabling the depth of objects as well as the classification of objects at short and long distances. This paper presents classification of objects using CNN based vision and Light Detection and Ranging (LIDAR) fusion in autonomous vehicles in the environment. This method is based on convolutional neural network (CNN) and image up sampling theory. By creating a point cloud of LIDAR data up sampling and converting into pixel-level depth information, depth information is connected with Red Green Blue data and fed into a deep CNN. The proposed method can obtain informative feature representation for object classification in autonomous vehicle environment using the integrated vision and LIDAR data. This method is adopted to guarantee both object classification accuracy and minimal loss. Experimental results show the effectiveness and efficiency of presented approach for objects classification.

거리 기반 적응형 임계값을 활용한 강건한 3차원 물체 탐지 (Robust 3D Object Detection through Distance based Adaptive Thresholding)

  • 이은호;정민우;김종호;이경수;김아영
    • 로봇학회논문지
    • /
    • 제19권1호
    • /
    • pp.106-116
    • /
    • 2024
  • Ensuring robust 3D object detection is a core challenge for autonomous driving systems operating in urban environments. To tackle this issue, various 3D representation, including point cloud, voxels, and pillars, have been widely adopted, making use of LiDAR, Camera, and Radar sensors. These representations improved 3D object detection performance, but real-world urban scenarios with unexpected situations can still lead to numerous false positives, posing a challenge for robust 3D models. This paper presents a post-processing algorithm that dynamically adjusts object detection thresholds based on the distance from the ego-vehicle. While conventional perception algorithms typically employ a single threshold in post-processing, 3D models perform well in detecting nearby objects but may exhibit suboptimal performance for distant ones. The proposed algorithm tackles this issue by employing adaptive thresholds based on the distance from the ego-vehicle, minimizing false negatives and reducing false positives in the 3D model. The results show performance enhancements in the 3D model across a range of scenarios, encompassing not only typical urban road conditions but also scenarios involving adverse weather conditions.

도로터널에서 MMS를 이용한 정밀안전진단 적용 사례 (An application of MMS in precise inspection for safety and diagnosis of road tunnel)

  • 추진호;박세준;김동석;노은철
    • 한국터널지하공간학회 논문집
    • /
    • 제26권2호
    • /
    • pp.113-128
    • /
    • 2024
  • 향상된 MMS (Mobile Mapping System)를 이용하여 도로터널 정밀안전진단 항목을 검토하고 분석하였다. MMS에 의한 적용 가능한 항목은 외관조사, 조사 및 비파괴시험, 구조안전성, 유지관리방안일 것이다. MMS의 차량속도가 너무 빠르면 점군데이터의 해상도가 낮아지고 너무 느리면 보정값 오차가 증가하는 경향을 보인다. 본 연구에 적용된 장비에서는 50 km/h 속도에서 측정이 효과적이다. MMS의 점군 자료에 근거한 균열폭을 판단하기에는 한계가 있으나 터널내 설비 현황과 방재관리기준과 부합되는지를 검토할 수있다. MMS의 3차원 점군은 횡단면 측량의 검토 및 종단면 측량의 변화에 적용될 수 있는데 이는 터널 전체에 대해 차량 한계를 직관적으로 검토할 수 있을 것이다. 시험 개수와 조사 위치를 무작위로 선정하는 현재 정밀안전진단의 측정과 비교하여 MMS의 연속된 환경조건 측정은 정밀도 높은 분석에서 효과적이며 의미가 있을 것이다.