• 제목/요약/키워드: Point Cloud Fusion

검색결과 25건 처리시간 0.026초

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

멀티-뷰 영상들을 활용하는 3차원 의미적 분할을 위한 효과적인 멀티-모달 특징 융합 (Effective Multi-Modal Feature Fusion for 3D Semantic Segmentation with Multi-View Images)

  • 배혜림;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권12호
    • /
    • pp.505-518
    • /
    • 2023
  • 3차원 포인트 클라우드 의미적 분할은 각 포인트별로 해당 포인트가 속한 물체나 영역의 분류 레이블을 예측함으로써, 포인트 클라우드를 서로 다른 물체들이나 영역들로 나누는 컴퓨터 비전 작업이다. 기존의 3차원 의미적 분할 모델들은 RGB 영상들에서 추출하는 2차원 시각적 특징과 포인트 클라우드에서 추출하는 3차원 기하학적 특징의 특성을 충분히 고려한 특징 융합을 수행하지 못한다는 한계가 있다. 따라서, 본 논문에서는 2차원-3차원 멀티-모달 특징을 이용하는 새로운 3차원 의미적 분할 모델 MMCA-Net을 제안한다. 제안 모델은 중기 융합 전략과 멀티-모달 교차 주의집중 기반의 융합 연산을 적용함으로써, 이질적인 2차원 시각적 특징과 3차원 기하학적 특징을 효과적으로 융합한다. 또한 3차원 기하학적 인코더로 PTv2를 채용함으로써, 포인트들이 비-정규적으로 분포한 입력 포인트 클라우드로부터 맥락정보가 풍부한 3차원 기하학적 특징을 추출해낸다. 본 논문에서는 제안 모델의 성능을 분석하기 위해 벤치마크 데이터 집합인 ScanNetv2을 이용한 다양한 정량 및 정성 실험들을 진행하였다. 성능 척도 mIoU 측면에서 제안 모델은 3차원 기하학적 특징만을 이용하는 PTv2 모델에 비해 9.2%의 성능 향상을, 2차원-3차원 멀티-모달 특징을 사용하는 MVPNet 모델에 비해 12.12%의 성능 향상을 보였다. 이를 통해 본 논문에서 제안한 모델의 효과와 유용성을 입증하였다.

영상 기반 3차원 점군과 FUSION S/W 기반의 임분고 분석 모듈 개발 (Development of Mean Stand Height Module Using Image-Based Point Cloud and FUSION S/W)

  • 김경민
    • 한국지리정보학회지
    • /
    • 제19권4호
    • /
    • pp.169-185
    • /
    • 2016
  • 최근 임상도의 신규 속성으로 임분의 평균 수고인 임분고를 추가하기 시작하였으나 전국 940만개의 포인트를 스테레오 항공사진에서 수동 측정해야 하는 어려움이 예상된다. 아울러, 항공사진에서 수고 측정 시 임연부나 묘지 주변의 수고를 측정하기 쉬워 임분 대표성이 떨어지는 한계를 가지고 있다. 본 연구에서는 고해상도 스테레오 항공사진에서 추출한 영상 기반 3차원 점군과 FUSION S/W를 활용한 임분고 추정 방법을 제안하고 임분고를 자동 분석할 수 있는 모듈을 개발하였다. 스테레오 항공사진에서 수치표면모델 3차원 점군을 추출한 후 지면점 필터링을 거쳐 수치지면모델을 추출하고 이 두 모델을 차분하여 정규수치표면모델을 제작하였다. 정규수치표면모델에서 표본점별 개체목 수관을 육안판독한 후 수관별 최고점을 추출하여 정규수치표면모델 수고를 산출하였다. 표본점에서의 실측 수고와 정규수치표면모델 수고의 RMSE를 분석한 결과 전체 표본점 평균 수고의 RMSE는 0.96m로 나타났다. 대상지 전체의 개체목 수고를 추출하기 위해 FUSION S/W를 이용하여 항공사진의 정규수치표면모델에서 개체목 수고를 자동 추출하고 이를 임상도의 임분 폴리곤 단위로 평균하여 최종 임분고를 산출하였다. 마지막으로 임분고를 보다 손쉽게 분석할 수 있는 환경을 구현하기 위해 임분고 분석 프로세스를 ArcGIS add-in 모듈 형태로 자동화하였다.

Object Detection and Localization on Map using Multiple Camera and Lidar Point Cloud

  • Pansipansi, Leonardo John;Jang, Minseok;Lee, Yonsik
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.422-424
    • /
    • 2021
  • In this paper, it leads the approach of fusing multiple RGB cameras for visual objects recognition based on deep learning with convolution neural network and 3D Light Detection and Ranging (LiDAR) to observe the environment and match into a 3D world in estimating the distance and position in a form of point cloud map. The goal of perception in multiple cameras are to extract the crucial static and dynamic objects around the autonomous vehicle, especially the blind spot which assists the AV to navigate according to the goal. Numerous cameras with object detection might tend slow-going the computer process in real-time. The computer vision convolution neural network algorithm to use for eradicating this problem use must suitable also to the capacity of the hardware. The localization of classified detected objects comes from the bases of a 3D point cloud environment. But first, the LiDAR point cloud data undergo parsing, and the used algorithm is based on the 3D Euclidean clustering method which gives an accurate on localizing the objects. We evaluated the method using our dataset that comes from VLP-16 and multiple cameras and the results show the completion of the method and multi-sensor fusion strategy.

  • PDF

카메라-라이다 센서 융합을 통한 VRU 분류 및 추적 알고리즘 개발 (Vision and Lidar Sensor Fusion for VRU Classification and Tracking in the Urban Environment)

  • 김유진;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.7-13
    • /
    • 2021
  • This paper presents an vulnerable road user (VRU) classification and tracking algorithm using vision and LiDAR sensor fusion method for urban autonomous driving. The classification and tracking for vulnerable road users such as pedestrian, bicycle, and motorcycle are essential for autonomous driving in complex urban environments. In this paper, a real-time object image detection algorithm called Yolo and object tracking algorithm from LiDAR point cloud are fused in the high level. The proposed algorithm consists of four parts. First, the object bounding boxes on the pixel coordinate, which is obtained from YOLO, are transformed into the local coordinate of subject vehicle using the homography matrix. Second, a LiDAR point cloud is clustered based on Euclidean distance and the clusters are associated using GNN. In addition, the states of clusters including position, heading angle, velocity and acceleration information are estimated using geometric model free approach (GMFA) in real-time. Finally, the each LiDAR track is matched with a vision track using angle information of transformed vision track and assigned a classification id. The proposed fusion algorithm is evaluated via real vehicle test in the urban environment.

스테레오 영상 간 관측 벡터에 기반한 다중 포인트 클라우드 통합 (Multi Point Cloud Integration based on Observation Vectors between Stereo Images)

  • 윤완상;김한결;이수암
    • 대한원격탐사학회지
    • /
    • 제35권5_1호
    • /
    • pp.727-736
    • /
    • 2019
  • 본 연구에서는 여러 장의 무인항공기 영상을 사용하여 대상지역에 대한 포인트 클라우드를 생성하고, 데이터 세트 간 발생하는 이격과 중복점을 제거하는 방안에 대한 연구를 수행하였다. 이를 위해 사진 측량 기반의 IBA(Incremental Bundle Adjustment)기법을 적용하여 무인기의 위치/자세를 보정하고 스테레오 페어를 구성했다. 각각의 스테레오 영상으로부터 에피폴라 영상을 생성하고 MDR(Multi-Dimensional Relaxation) 정합 기법을 적용하여 포인트 클라우드를 생성하였다. 다음으로 스테레오 영상 간 관측 벡터에 기반한 포인트 클라우드 등록을 통해 서로 다른 스테레오 페어로부터 생성된 포인트 클라우드 간 이격을 제거하였다. 마지막으로 점유격자(Occupancy grid) 기반 통합 알고리즘을 적용하여 중복점이 제거된 하나의 포인트 클라우드를 생성하였다. 실험은 무인항공기에서 취득된 연직 촬영 영상을 사용하였으며, 실험을 통해 서로 다른 스테레오 페어로부터 생성된 포인트 클라우드 간 이격 및 중복점 제거가 가능함을 확인하였다.

포인트 클라우드 형태의 인터랙티브 홀로그램 콘텐츠 (Point Cloud Content in Form of Interactive Holograms)

  • 김동현;김상욱
    • 한국콘텐츠학회논문지
    • /
    • 제12권9호
    • /
    • pp.40-47
    • /
    • 2012
  • 미디어 아트는 새로운 경로의 인식과 지각을 동반하고, 기존의 미술과는 다른 인간의 신체를 도구화 하여 상호작용을 만들어내는 새로운 감상방식을 제안한다. 시각적인 영상을 제작하는 방식 중 포인트 클라우드는 점으로 형태를 표현한다는 점에 있어 서양미술의 점묘법과 유사하며 이는 전통회화 기법을 디지털 기술을 활용해 재구성한다는 의미를 가진다. 본 논문에서는 미학적 요소와 디지털 기술을 융합한 새로운 감상방식으로 포인트 클라우드 형태의 영상을 제작하여 홀로그램 필름에 투사하고, 관람자의 손짓이 영상과 상호작용하는 콘텐츠를 제시한다. 콘텐츠 제작은 콘텐츠 제작 배경 의도를 기획하고 포인트 클라우드 형태의 이미지 제작, 상호작용을 위한 3D 제스처 디자인 과정을 거쳐 최종적으로 홀로그램 필름에 투사하는 과정을 거친다. 콘텐츠는 사람의 의식 속에서 일어나는 기억의 회상 과정을 시각적, 체감적으로 표현한다. 이를 위해 기억의 회상 과정을 불확실한 기억, 기억의 구체화, 완전한 회상으로 설정하였다. 불확실한 기억은 포인트 클라우드 형태의 이미지를 통해 모호한 형태의 이미지로 표현되고, 상호작용으로 이미지를 조작하는 행위를 통해 기억을 구체화 해 나가면서 완전한 회상을 하게 된다.

Multi View System 에서 Depth Map Fusion 을 위한 개선된 기법 (Improved Method for Depth Map Fusion in Multi View System)

  • 정우경;김해광;한종기
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.223-225
    • /
    • 2021
  • 실감 미디어에 대한 수요가 증가함에 따라 고품질의 실감 미디어에 대한 중요성이 증가하고 있다. 이러한 실감미디어를 제작하기 위해 사용되는 일반적인 기법 중 하나인 Multi View Stereo 는 깊이 영상 추정 및 해당 깊이 영상을 이용하여 3 차원에 point cloud 를 생성하는 fusion 과정을 거치게 된다. 본 논문에서는 다중 시점 영상의 깊이 영상을 정합하는 fusion 과정을 개선하기 위한 방법을 제안한다. 제안하는 방법에서는 깊이 영상, 색상정보를 이용하여 기준 시점의 depth map 을 이용한 fusion 과정을 거친다. 실험을 통하여 제안한 알고리즘을 이용한 결과가 기존보다 개선됨을 보인다.

  • PDF

건물 실내 공간 모델링을 위한 지상라이다 영상 정합 방법에 따른 정확도 분석 (The Analysis of Accuracy in According to the Registration Methods of Terrestrial LiDAR Data for Indoor Spatial Modeling)

  • 김형태;편무욱;박재선;강민수
    • 대한원격탐사학회지
    • /
    • 제24권4호
    • /
    • pp.333-340
    • /
    • 2008
  • 지상라이다에 의한 건물 실내 모델링을 구축하고 정확도를 분석하기 위해 제원이 다른 2개의 지상라이다를 실험지역에 적용하였다. 본 연구는 실내 공간 모델링을 위해 스캐닝 된 점군 단위에 대하여 3차원 정합 시 다량의 기준점 획득이 어려운 환경 하에서 (1) 점군 단위별 구조물 좌표계로 변환하여 처리한 경과와 (2) 점 군간 상호 정합 후 기준점에 의한 일괄 좌표변환 결과와의 편차를 비교하였다. 실험결과, 제원에 다르더라도 공통적으로 점군 정합 후 일괄처리 결과가 점군 단위별 변환 후 정합한 방법보다 오차의 크기, 분포가 적게 나타나고 있음을 확인하였다.

UAS 및 지상 LiDAR 융합기반 건축물의 3D 재현 (3D Reconstruction of Structure Fusion-Based on UAS and Terrestrial LiDAR)

  • 한승희;강준오;오성종;이용창
    • 도시과학
    • /
    • 제7권2호
    • /
    • pp.53-60
    • /
    • 2018
  • Digital Twin is a technology that creates a photocopy of real-world objects on a computer and analyzes the past and present operational status by fusing the structure, context, and operation of various physical systems with property information, and predicts the future society's countermeasures. In particular, 3D rendering technology (UAS, LiDAR, GNSS, etc.) is a core technology in digital twin. so, the research and application are actively performed in the industry in recent years. However, UAS (Unmanned Aerial System) and LiDAR (Light Detection And Ranging) have to be solved by compensating blind spot which is not reconstructed according to the object shape. In addition, the terrestrial LiDAR can acquire the point cloud of the object more precisely and quickly at a short distance, but a blind spot is generated at the upper part of the object, thereby imposing restrictions on the forward digital twin modeling. The UAS is capable of modeling a specific range of objects with high accuracy by using high resolution images at low altitudes, and has the advantage of generating a high density point group based on SfM (Structure-from-Motion) image analysis technology. However, It is relatively far from the target LiDAR than the terrestrial LiDAR, and it takes time to analyze the image. In particular, it is necessary to reduce the accuracy of the side part and compensate the blind spot. By re-optimizing it after fusion with UAS and Terrestrial LiDAR, the residual error of each modeling method was compensated and the mutual correction result was obtained. The accuracy of fusion-based 3D model is less than 1cm and it is expected to be useful for digital twin construction.