• Title/Summary/Keyword: Image-Based Point Cloud

검색결과 113건 처리시간 0.025초

오픈소스 기반 UAS 영상 재현 알고리즘 및 필터링 기법 비교 (Comparison of Open Source based Algorithms and Filtering Methods for UAS Image Processing)

  • 김태희;이용창
    • 지적과 국토정보
    • /
    • 제50권2호
    • /
    • pp.155-168
    • /
    • 2020
  • 오픈소스는 4차 산업혁명의 핵심 성장 동력으로서 다양한 영상해석 알고리즘의 지속적인 개발과 활용이 기대되고 있다. 본 연구의 목적은 UAS 영상해석 오픈소스 기반 알고리즘의 3차원 재현 중 물의 재현 및 이동체 필터링 기능과 데이터 처리 소요시간을 중점으로 비교·분석하여 효용성을 검토하는 것이다. 5가지 매칭 알고리즘을 'ANN-Benchmarks' 프로그램을 통해 재현율 및 처리속도 기준으로 비교하였고 HNSW(hierarchical navigable small world) 매칭 알고리즘이 가장 양호한 것으로 판단하였다. 이를 바탕으로 삼각측량, 점군 데이터 조밀화, 표면생성의 단계별 기법들을 조합하여 108가지 영상해석 알고리즘을 구성하였다. 또한, 바다와 인접한 공원의 UAS(unmanned aerial system) 영상을 대상으로 108가지 영상해석 알고리즘의 3차원 재현 및 데이터 처리 소요시간을 고찰하고 상업용 영상해석 소프트웨어 'Pix4D Mapper'와 비교·분석하였다. 연구 결과, 3차원 재현 중 물의 재현 및 이동체 필터링 기능 면에서 양호한 알고리즘을 각각 특정하였고 소요시간이 가장 낮은 알고리즘을 선정, 'Pix4D Mapper' 처리 결과와 비교하여 알고리즘의 효용성을 입증하였다.

메쉬를 활용한 DIBR 기반 중간 영상 화질 향상 방법 연구 (A Study on Improving the Quality of DIBR Intermediate Images Using Meshes)

  • 김지성;김민영;조용주
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2014년도 추계학술대회
    • /
    • pp.822-823
    • /
    • 2014
  • 다시점 디스플레이용 영상은 주로 레퍼런스가 되는 컬러 카메라와 깊이 카메라의 영상을 입력 받아 DIBR (Depth Image Based Rendering) 기법을 활용, 3차원 점 구름 형태로 재구성 한 후 가상 카메라를 여러 시점에서 배치하여 중간 영상을 생성하여 조합하였다. 이렇게 다시점 중간 영상을 생성하면 원래의 시점에서는 구멍이 없었지만 다른 시점에서는 구멍(Hole)이 보이는 현상이 발생한다. 기존에는 틈새 영역을 채우는 알고리즘을 개발하거나 깊이 영상을 보정하여 개선시키는 방법을 연구하였으나 본 논문에서는 점 구름을 메시(Mesh)화 시키는 알고리즘 중 한 가지인 볼 피봇팅(Ball Pivoting) 방법을 적용시켜 중간 영상의 화질 개선 방법을 설명하고 있다. 마이크로소프트사의 발레와 브레이크 댄서 영상에 개발된 개선 방법을 적용시켜 보았고 PSNR로 비교할 때 약 0.18~1.19정도의 향상을 보임을 확인하였다. 본 논문을 통해 개선 방법과 실험방법, 그리고 결과에 대해 설명한다.

  • PDF

하천 제방의 영상 점군에서 식생 점 제거 필터링 기법 비교 분석 (Comparative Analysis of Filtering Techniques for Vegetation Points Removal from Photogrammetric Point Clouds at the Stream Levee)

  • 박희성;이두한
    • Ecology and Resilient Infrastructure
    • /
    • 제8권4호
    • /
    • pp.233-244
    • /
    • 2021
  • 본 연구에서는 식생이 무성한 제방의 이상유무 점검을 위한 지상 LiDAR(Light Detection And Ranging) 측량의 적용성을 검토하였다. 지상 LiDAR 측량으로 생성된 제방의 영상 점군 자료에 색상필터 및 형태필터를 적용하여 각 기법별 정확성과 특성을 평가하였다. 임진강 제방의 영상 점군 자료를 이용하여 CIVE, ExG, ExGR, ExR, MExG, NGRDI, VEG, VVI, ATIN, ISL 등의 10가 식생 제거 필터를 적용하였다. 결과에 의하면 정확성은 ISL, ATIN, ExR, NGRDI, ExGR, ExG, MExG, VVI, VEG, CIVE 등의 순서로 나타났다. 색상필터는 지반 구분에 한계를 보였으며 풀꽃을 지반으로 구분하기도 했다. 형태필터는 지반 구분 정확도가 우수하나 거석을 식생으로 인식하는 한계도 보였다. 전체적으로 형태필터가 우수하나 계산 시간에서 10 배 정도 소요되었다. 정확도와 속도 향상을 위해서 형태필터와 색상필터를 결합한 복합필터에 대한 연구가 필요하다.

스테레오 비전 센서 기반 프리팹 강구조물 조립부 형상 품질 평가 (Dimensional Quality Assessment for Assembly Part of Prefabricated Steel Structures Using a Stereo Vision Sensor)

  • 김종혁;전해민
    • 한국전산구조공학회논문집
    • /
    • 제37권3호
    • /
    • pp.173-178
    • /
    • 2024
  • 본 논문에서는 스테레오 비전 센서를 이용한 프리팹 강구조물(PSS: Prefabricated Steel Structures)의 조립부 형상 품질 평가 기법을 소개한다. 스테레오 비전 센서를 통해 모형의 조립부 영상과 포인트 클라우드 데이터를 수집하였으며, 퍼지 기반 엣지 검출, 허프 변환 기반 원형의 볼트 홀 검출 등의 영상처리 알고리즘을 적용하여 조립부 영역의 볼트홀을 검출하였다. 영상 내 추출된 볼트홀 외곽선 위 세 점의 위치 정보에 대응되는 3차원 실세계 위치 정보를 깊이 영상으로부터 획득하였으며, 이를 기반으로 각 볼트홀의 3차원 중심 위치를 계산하였다. 통계적 기법 중 하나인 주성분 분석 알고리즘(PCA: Principal component analysis) 알고리즘을 적용함으로써 3차원 위치 정보를 대표하는 최적의 좌표축을 계산하였다. 이를 통해 센서의 설치 방향 및 위치에 따라 센서와 부재 간 평행이 아니더라도 안정적으로 볼트홀 간의 거리를 계측하도록 하였다. 각 볼트홀의 2차원 위치 정보를 기반으로 볼트홀의 순서를 정렬하였으며, 정렬된 볼트홀의 위치 정보를 바탕으로 인접한 볼트홀 간의 각 축의 거리 정보를 계산하여 조립부 볼트홀 위치 중심의 형상 품질을 분석하였다. 측정된 볼트홀 간의 거리 정보는 실제 도면의 거리 정보와의 절대오차와 상대오차를 계산하여 성능 비교를 진행하였으며, 중앙값 기준 1mm 내의 절대오차와 4% 이내의 상대오차의 계측 성능을 확인하였다.

RGB-D 센서, AR 마커, 색수정 알고리즘을 활용한 매니퓰레이터 투명화 (Transparent Manipulators Accomplished with RGB-D Sensor, AR Marker, and Color Correction Algorithm)

  • 김동엽;김영지;손현식;황정훈
    • 로봇학회논문지
    • /
    • 제15권3호
    • /
    • pp.293-300
    • /
    • 2020
  • The purpose of our sensor system is to transparentize the large hydraulic manipulators of a six-ton dual arm excavator from the operator camera view. Almost 40% of the camera view is blocked by the manipulators. In other words, the operator loses 40% of visual information which might be useful for many manipulator control scenarios such as clearing debris on a disaster site. The proposed method is based on a 3D reconstruction technology. By overlaying the camera image from front top of the cabin with the point cloud data from RGB-D (red, green, blue and depth) cameras placed at the outer side of each manipulator, the manipulator-free camera image can be obtained. Two additional algorithms are proposed to further enhance the productivity of dual arm excavators. First, a color correction algorithm is proposed to cope with the different color distribution of the RGB and RGB-D sensors used on the system. Also, the edge overlay algorithm is proposed. Although the manipulators often limit the operator's view, the visual feedback of the manipulator's configurations or states may be useful to the operator. Thus, the overlay algorithm is proposed to show the edge of the manipulators on the camera image. The experimental results show that the proposed transparentization algorithm helps the operator get information about the environment and objects around the excavator.

관절 기반의 모델을 활용한 강인한 손 영역 추출 (Robust Hand Region Extraction Using a Joint-based Model)

  • 장석우;김설호;김계영
    • 한국산학기술학회논문지
    • /
    • 제20권9호
    • /
    • pp.525-531
    • /
    • 2019
  • 인간과 컴퓨터 사이의 보다 자연스러운 상호적인 인터페이스를 효과적으로 구현하기 위해서 사람의 제스처를 활용하려는 노력이 최근 들어 지속적으로 시도되고 있다. 본 논문에서는 연속적으로 입력되는 3차원의 깊이 영상을 받아들여서 손 모델을 정의하고, 정의된 손 모델을 기반으로 사람의 손 영역을 강인하게 추출하는 알고리즘을 제시한다. 본 논문에서 제시된 알고리즘에서는 먼저 21개의 관절을 사용하여 손 모델을 정의한다. 본 논문에서 정의한 손 모델은 6개의 손바닥 관절을 포함하는 손바닥 모델과 15개의 손가락 관절을 포함하는 손가락 모델로 구성된다. 그런 다음, 입력되는 3차원의 깊이 영상을 적응적으로 이진화함으로써, 배경과 같은 비관심 영역들은 제외하고, 관심 영역인 사람의 손 영역만을 정확하게 추출한다. 실험 결과에서는 제시된 알고리즘이 연속적으로 입력되는 깊이 영상으로부터 배경과 같은 영역들은 제외하고 사람의 손 영역만을 기존의 알고리즘에 비해 약 2.4% 보다 강인하게 검출한다는 것을 보여준다. 본 논문에서 제안된 손 영역 추출 알고리즘은 제스처 인식, 가상현실 구현, 3차원 운동 게임, 수화 인식 등과 같은 컴퓨터 비전 및 영상 처리와 관련된 여러 가지의 실제적인 분야에서 유용하게 활용될 것으로 기대된다.

센서 융합 시스템을 이용한 심층 컨벌루션 신경망 기반 6자유도 위치 재인식 (A Deep Convolutional Neural Network Based 6-DOF Relocalization with Sensor Fusion System)

  • 조형기;조해민;이성원;김은태
    • 로봇학회논문지
    • /
    • 제14권2호
    • /
    • pp.87-93
    • /
    • 2019
  • This paper presents a 6-DOF relocalization using a 3D laser scanner and a monocular camera. A relocalization problem in robotics is to estimate pose of sensor when a robot revisits the area. A deep convolutional neural network (CNN) is designed to regress 6-DOF sensor pose and trained using both RGB image and 3D point cloud information in end-to-end manner. We generate the new input that consists of RGB and range information. After training step, the relocalization system results in the pose of the sensor corresponding to each input when a new input is received. However, most of cases, mobile robot navigation system has successive sensor measurements. In order to improve the localization performance, the output of CNN is used for measurements of the particle filter that smooth the trajectory. We evaluate our relocalization method on real world datasets using a mobile robot platform.

EPAR V2.0: AUTOMATED MONITORING AND VISUALIZATION OF POTENTIAL AREAS FOR BUILDING RETROFIT USING THERMAL CAMERAS AND COMPUTATIONAL FLUID DYNAMICS (CFD) MODELS

  • Youngjib Ham;Mani Golparvar-Fard
    • 국제학술발표논문집
    • /
    • The 5th International Conference on Construction Engineering and Project Management
    • /
    • pp.279-286
    • /
    • 2013
  • This paper introduces a new method for identification of building energy performance problems. The presented method is based on automated analysis and visualization of deviations between actual and expected energy performance of the building using EPAR (Energy Performance Augmented Reality) models. For generating EPAR models, during building inspections, energy auditors collect a large number of digital and thermal imagery using a consumer-level single thermal camera that has a built-in digital lens. Based on a pipeline of image-based 3D reconstruction algorithms built on GPU and multi-core CPU architecture, 3D geometrical and thermal point cloud models of the building under inspection are automatically generated and integrated. Then, the resulting actual 3D spatio-thermal model and the expected energy performance model simulated using computational fluid dynamics (CFD) analysis are superimposed within an augmented reality environment. Based on the resulting EPAR models which jointly visualize the actual and expected energy performance of the building under inspection, two new algorithms are introduced for quick and reliable identification of potential performance problems: 1) 3D thermal mesh modeling using k-d trees and nearest neighbor searching to automate calculation of temperature deviations; and 2) automated visualization of performance deviations using a metaphor based on traffic light colors. The proposed EPAR v2.0 modeling method is validated on several interior locations of a residential building and an instructional facility. Our empirical observations show that the automated energy performance analysis using EPAR models enables performance deviations to be rapidly and accurately identified. The visualization of performance deviations in 3D enables auditors to easily identify potential building performance problems. Rather than manually analyzing thermal imagery, auditors can focus on other important tasks such as evaluating possible remedial alternatives.

  • PDF

계절별 항공라이다 자료에 의한 수고 추정 (Estimation of Tree Heights from Seasonal Airborne LiDAR Data)

  • 전민철;정태웅;어양담;김진광
    • 한국측량학회지
    • /
    • 제28권4호
    • /
    • pp.441-448
    • /
    • 2010
  • 본 논문은 계절별로 획득된 항공라이다 자료로부터 수고를 추정하여 수관울폐도와 자료융합에 따른 영향을 분석하였다. 수고추정은 수목에서 반사되는 신호(First Return : FR)와 지표에서 반사되는 신호(Last Return : LR)를 추출하고, 영상분할을 통해 수목개체를 가정하여 개체목별 수고를 획득하는 방법을 적용하였다. 계절별 자료를 통해 획득한 각 수고 자료와 융합자료로부터 획득한 수고의 결과를 비교하였으며, 수고측정기를 사용하여 현지 측정을 하여 정확성을 비교하고, 항공라이다를 통해 획득한 자료들을 융합한 결과에 대한 그 활용성을 검토하였다. 실험 결과, 수목개체를 위한 영상분할 결과는 0.5미터 점군간격보다 1미터 간격이 현지조사 결과와 가까웠으며, 수목고의 경우 각 계절별 자료보다 융합자료를 활용한 결과가 현지 측정 결과에 접근하고 있음을 알 수 있었다.

스마트 팜을 위한 UAS 모니터링의 자연재해 작물 피해 분석 (Analysis of Crop Damage Caused by Natural Disasters in UAS Monitoring for Smart Farm)

  • 강준오;이용창
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.583-589
    • /
    • 2020
  • 최근 다양한 센서 및 정보통신 기술(ICT: Information & Communications Technology)을 융합·활용한 스마트 팜을 위한 UAS (Unmanned Aerial System)의 활용성이 기대되고 있다. 특히, 다양한 지수를 통한 실외 작물 모니터링 방안으로 효용성이 입증되며 여러 분야에서 연구되고 있다. 본 연구는 벼를 대상으로 자연재해 작물 피해를 분석하고 피해량을 계측하는 것이다. 이를 위해, BG-NIR (Blue Green_near Infrared red) 및 RGB 센서를 통해 데이터를 획득하고 영상해석 및 NDWI (Normalized Difference Water Index) 지수를 활용하여 장마에 의한 작물 피해를 검토한다. 또한, 영상해석 기반 포인트 클라우드 데이터를 생성, 인스펙션 맵을 통해 태풍 전·후 데이터를 비교하여 피해량을 계측한다. 연구결과, NDWI 지수 분석을 통해 벼의 생장 및 장마 피해를 검토하였고, 인스펙션 맵 분석으로 태풍에 의한 피해 면적을 계측하였다.