• 제목/요약/키워드: Aerial photogrammetry

검색결과 453건 처리시간 0.02초

무인항공기에 탑재된 열적외선 센서 기반의 지표면 온도 정사영상 제작 및 피복별 온도 정확도 분석 (Generation of Land Surface Temperature Orthophoto and Temperature Accuracy Analysis by Land Covers Based on Thermal Infrared Sensor Mounted on Unmanned Aerial Vehicle)

  • 박진환;이기림;이원희;한유경
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.263-270
    • /
    • 2018
  • 지표면 온도는 지면-대기의 상호 순환을 이해하는데 중요한 요소로 알려져 있지만 시공간적 변동성이 크기 때문에 정규적인 관측은 거의 이루어지지 못하고 있다. 기존의 지표면 온도는 위성 영상을 이용하여 관측하고 있지만 위성의 특성상 긴 재방문주기와 낮은 정확도의 한계를 가지고 있다. 본 연구에서는 기존의 위성 영상을 활용한 지표면 온도 관측의 대체가능성을 확인하기 위해 무인항공기에 열적외선 센서를 탑재하여 단일 영상을 취득하였다. 취득된 영상은 JPEG 영상에서 TiFF 영상으로 변환하여 정사영상을 제작하였으며 정사영상의 DN값을 이용하여 실제 지표면 온도로 계산하였다. 계산된 피복별 지표면 온도의 정확도를 평가하기 위해 영상촬영과 동시에 적외선 온도계로 직접 관측한 지표면 온도와 비교하였다. 두 가지 방법으로 관측한 지표면 온도를 비교 했을 때, 모든 피복들에 대해서 정확도가 열적외선 센서의 관측 정확도 이하로 나타났다. 따라서 무인항공기에 탑재된 열적외선 센서를 이용하여 기존의 지표면 온도 관측 방법인 위성 영상의 대체 가능성을 확인하였다.

UAV와 다시기 위성영상을 이용한 붕괴건물 탐지 (Detection of Collapse Buildings Using UAV and Bitemporal Satellite Imagery)

  • 정세정;이기림;윤예린;이원희;한유경
    • 한국측량학회지
    • /
    • 제38권3호
    • /
    • pp.187-196
    • /
    • 2020
  • 본 연구에서는 UAV (Unmanned Aerial Vehicle)와 PlanetScope 위성영상을 함께 이용한 붕괴건물 탐지를 수행하여 지표면에 위치한 특정 객체 탐지에 있어 이종 센서의 활용 가능성을 제시하였다. 이를 위해 지난해 4월 산불 피해로 붕괴된 20여 채의 건물들이 있는 곳을 실험장소로 선정하였다. 붕괴건물 탐지를 위해 1차적으로 객체기반 분할을 수행한 고해상도의 UAV 영상을 이용해 ExG (Excess Green), GLCM (Gray-Level Co-occurrence Matrix) 그리고 DSM (Digital Surface Model)과 같은 객체들의 특징(feature) 정보를 생성한 후 이를 붕괴건물 후보군 탐지에 이용하였다. 이 과정에서 탐지정확도 향상을 위해 PlanetScope를 이용한 변화탐지 결과를 함께 사용하였으며 이를 시드 화소(seed pixles)로 사용하여 붕괴건물 후보군에서 오탐지된 영역과 과탐지된 영역을 수정 및 보완하였다. 최종적인 탐지 결과는 참조 영상을 통해 그 성능을 분석하였으며 UAV 영상만을 이용한 붕괴건물 후보군 탐지 결과와 UAV 그리고 PlanetScope 영상을 함께 사용했을 때의 결과의 정확도를 비교, 분석하였다. 그 결과 UAV 영상만을 이용해 탐지한 붕괴건물의 정확도는 0.4867 F1-score를 가지며 UAV와 PlanetScope 영상을 함께 사용했을 때의 결과는 0.8064 F1-score로 그 값이 상승하였다. Kappa 지수 또한 0.3674에서 0.8225로 향상된 것을 확인할 수 있었다.

딥러닝을 위한 영역기반 합성곱 신경망에 의한 항공영상에서 건물탐지 평가 (Evaluation of Building Detection from Aerial Images Using Region-based Convolutional Neural Network for Deep Learning)

  • 이대건;조은지;이동천
    • 한국측량학회지
    • /
    • 제36권6호
    • /
    • pp.469-481
    • /
    • 2018
  • 딥러닝은 인간의 학습 및 인지능력을 닮은 인공지능을 실현하기 위해 여러 분야에서 활용하고 있으며, 높은 사양의 컴퓨팅 파워가 요구되고 연산 시간이 많이 소요되는 복잡한 구조의 인공신경망에 의한 딥러닝은 컴퓨터 사양이 향상됨에 따라 성능이 개선된 다양한 딥러닝 모델이 개발되고 있다. 본 논문의 주요 목적은 영상의 딥러닝을 위한 합성곱 신경망 중에서 최근에 FAIR (Facebook AI Research)에서 개발한 Mask R-CNN을 이용하여 항공영상에서 건물을 탐지하고 성능을 평가하는 것이다. Mask R-CNN은 영역기반의 합성곱 신경망으로서 픽셀 정확도까지 객체를 의미적으로 분할하기 위한 딥러닝 모델로서 성능이 가장 우수한 것으로 평가받고 있다. 딥러닝 모델의 성능은 신경망 구조뿐 아니라 학습 능력에 의해 결정된다. 이를 위해 본 논문에서는 모델의 학습에 이용한 영상에 다양한 변화를 주어 학습 능력을 분석하였으며, 딥러닝의 궁극적 목표인 범용화의 가능성을 평가하였다. 향후 연구방안으로는 영상에만 의존하지 않고 다양한 공간정보 데이터를 복합적으로 딥러닝 모델의 학습에 이용하여 딥러닝의 신뢰성과 범용화가 향상될 것으로 판단된다.

다중분광 카메라 탑재 드론 영상 기반 토지피복도 제작 및 활용성 평가 (Land Cover Mapping and Availability Evaluation Based on Drone Images with Multi-Spectral Camera)

  • 서춘욱;임재형;김형매;윤희천
    • 한국측량학회지
    • /
    • 제36권6호
    • /
    • pp.589-599
    • /
    • 2018
  • 토지피복도는 지금까지 주로 위성영상과 항공영상을 이용하여 제작되어 왔지만 이 두 영상은 공간적 해상도의 한계가 따르고 구름의 영향으로 원하는 시점에 원하는 지역의 영상을 취득하기에는 역부족이다. 또한, 소규모 지역에 대한 토지피복도를 제작하기에는 시간적 및 경제성 측면에서 비효율적이다. 이에 본 연구에서는 다중분광 카메라 기반의 드론을 사용하여 다중시기 영상을 취득하고 정사영상을 생성한 후 토지피복도를 제작하여 시계열 분석을 통해 활용성을 평가 하였다. 그 결과 RMSE (Root Mean Square Error)가 X, Y, H에서 각각 ${\pm}10mm$, ${\pm}11mm$, ${\pm}26mm$인 RGB 정사영상과 ${\pm}28mm$, ${\pm}27mm$, ${\pm}47mm$인 다중분광 정사영상을 생성할 수 있었다. 픽셀기반 및 객체기반 분류로 각각 제작된 토지피복도의 정확도를 분석한 결과 전체 정확도와 Kappa 계수에서 객체기반 분류가 시기별로 각각 7월 93.75%, 92.42%, 10월 92.50%, 91.20%, 2월 92.92%, 91.77%로 더 높게 나타났으며 시계열 분석 결과 특정 객체의 면적 변화량을 정량적으로 정확하게 파악할 수 있었다. 이를 통해 다중분광 카메라 기반의 드론을 활용한 효율적인 토지피복도 제작 가능성과 활용성을 확인하였다.

B-Rep Solid 구조의 3차원 모델을 이용한 토공량 자동 산정에 관한 연구 (A Study on Automatic Calculation of Earth-volume Using 3D Model of B-Rep Solid Structure)

  • 김종남;엄대용
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.403-412
    • /
    • 2022
  • 최근 4차 산업혁명이 본격화되고 차세대 ICT 융합 기술이 개발됨에 따라 건설분야 역시 기술변화에 대응하기 위해 다양한 스마트 건설기술이 건설 단계별로 빠르게 도입되고 있다. 특히, 건설현장의 경우 부지설계를 위한 토공량 산출 공정이 설계비용에 큰 부분을 차지하고 있어 공정의 효율화와 정확한 토공량 산출을 위한 관련 연구가 활발히 진행되고 있다. 본 연구는 건설현장의 지형을 3차원으로 신속하게 구축하고 이를 이용하여 효율적으로 토공량을 산출할 수 있는 방법을 제시하고자 한 것이다. 이를 위해 무인비행체로부터 획득한 대축척의 항공사진을 이용하여 건설현장을 3차원 실사모델로 구축하였다. 이때, 구축한 3차원 실사모델은 체적 산출이 불가한 surface 모델 구조를 가짐에 따라 체적 산출이 가능하도록 3차원의 solid 모델로 구조 변환을 수행하였다. 그리고 변환된 solid 모델을 이용하여 CAD 기반으로 토공량을 산출할 수 있는 방법론을 구상하였다. 정립한 방법론을 적용한 solid 모델로부터 토공량을 자동 산출한 결과, 기존의 현황측량 결과로부터 산출한 토공량과 1.52%의 상대적 편차를 확인할 수 있었다. 추가적으로 방법별 공정 소요시간을 비교분석한 결과 60%의 소요시간 절감을 확인할 수 있었다. 이로부터 본 연구에서 제시한 기법은 토공량 산출을 위한 비용절감은 물론 건설공사 전 공정에서 주기적인 현장의 모니터링 등 스마트 건설관리를 위한 기술로써 활용이 기대된다.

스마트건설 디지털 다짐정보 구축을 위한 IoT 기반 DCPT 시스템 현장실증 (Feasibility Test with IoT-based DCPT system for Digital Compaction Information of Smart Construction)

  • 김동한;배경호;조진우
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.421-428
    • /
    • 2022
  • 토공은 건설공사의 시작이며 기초가 되기 때문에 가장 중요한 공정이다. 특히 토공의 다짐측정은 건설공사의 품질과 생산성에 직결되는 중요한 요소이다. 기존 다짐측정은 주로 들밀도 시험, 평판재하시험과 같은 아날로그 방식을 이용하여 수행되었다. 하지만 최근 4차 산업혁명의 고도화에 따라 스마트건설기술이 대두되면서 다짐측정 또한 기존 아날로그 시험의 단점을 보완한 기술에 대한 연구가 활발히 진행되고 있다. DCPT는 기존 시험법과 비교하여 간편하고 속도가 빨라 최근 관심이 증대되고 있지만 데이터를 수기로 측정하는 아날로그 방식으로 이력관리와 데이터 검증 등 여러 단점을 가지고 있다. 본 연구에서 개발한 IoT 기반 DCPT 시스템은 기존 DCPT에 디지털 와이어센서, 모바일 폰, 블루투스를 결합했다. 개발된 장비는 아날로그 DCPT 뿐만 아니라 다른 다짐시험법과 비교하여 빠른 시험시간, 1인 계측, 저비용, 모바일 기반 계측 이력 및 데이터 관리, 실시간 데이터 확인 등의 장점을 갖는 것이 특징이다. 추가로, 개발된 장비의 현장 적용성 검증을 위해 아날로그 DCPT와 함께 테스트베드를 구축하여 검증하였다. 테스트베드는 롤러장비를 통해 실제 토공현장과 유사한 조건으로 구축했다. DCPT 데이터는 322개 측점에서 총 3220개의 데이터를 획득했다. 분석결과로 IoT 기반 DCPT의 성능은 우수한 것으로 나타났으며 개발된 장비를 통해 구축된 테스트베드 또한 다짐이 수행됨에 따라 안정적인 결과를 보이는 것으로 나타났다.

Mask R-CNN에 의한 자동차 탐지에서 학습 영상 화면 축척과 촬영계절이 정확도에 미치는 영향 분석 (Analysis of the Effect of Learned Image Scale and Season on Accuracy in Vehicle Detection by Mask R-CNN)

  • 최주영;원태연;어양담
    • 한국측량학회지
    • /
    • 제40권1호
    • /
    • pp.15-22
    • /
    • 2022
  • 본 연구에서는 딥러닝 객체탐지 기법의 정확도 향상을 위해 항공사진과 드론 영상을 대상으로 확대율 조건과 계절요인이 탐지정확도에 미치는 영향을 실험을 통해 분석하였다. 딥러닝 객체탐지기법 중 빠른 학습 속도와 높은 정확도를 나타내는 Mask R-CNN을 사용하여 탐지대상인 자동차를 픽셀 단위로 탐지하고자 하였다. '서울시 항공사진서비스'를 통해 화면 확대 레벨을 달리하며 학습 영상을 캡처하고 각각을 학습하여 정확도를 분석하였다. 실험결과에 따르면 확대 레벨이 높아질수록 mAP 평균이 60%, 67%, 75%로 높아졌다. 데이터 세트의 train, test 데이터의 확대율을 엇갈려서 배치한 경우에는 확대율이 매우 낮은 경우를 제외하고 저배율의 데이터를 train 데이터로, 고배율의 데이터를 test 데이터로 배치하였을 때 높은 mAP로 반대의 경우보다 20% 이상 차이를 보였다. 그리고 4개월의 시차로 계절적 차이를 두고 촬영한 드론 영상의 경우, 같은 시기 영상자료 학습결과가 평균 93%로 높은 정확도를 나타내어 계절적 차이도 학습에 영향을 주는 것을 확인되었다.

라이다와 광학영상을 이용한 토지피복분류 (Land Cover Classification Using Lidar and Optical Image)

  • 조우석;장휘정;김유석
    • 한국측량학회지
    • /
    • 제24권1호
    • /
    • pp.139-145
    • /
    • 2006
  • 라이다 데이터는 데이터 취득시간과 처리시간이 짧으며 높은 점밀도와 정확도를 가지고 있다. 그러나 광학영상과는 달리 3차원 형태의 비정규 점군의 형태이기 때문에 지표면에 대한 정확한 분류가 어렵다. 본 연구에서는 라이다 데이터와 광학영상을 동시에 이용해서 감독분류 기법을 통해 토지피복분류를 수행하였다. 먼저 라이다 데이터로부터 격자 크기가 1m인 DSM 영상과 DEM 영상을 제작하고 이를 이용하여 nDSM 영상을 제작하였다. 또한 라이다 데이터의 인텐서티(intensity) 정보를 이용해서 인텐서티 영상을 제작하였다. 광학영상의 입력데이터는 CCD 영상의 적색, 청색, 녹색 파장영역과 IKONOS 영상의 근적외선 파장영역이다. 그리고 CCD 영상의 적생광 파장영역을 이용해서 제작한 식생지수 영상이다. 광학영상과 라이다 데이터를 동시에 이용해서 토지피복 분류를 수행한 결과 74%의 분류 정확도를 얻을 수 있었다. 추가적으로 그림자 지역의 재분류, 수계지역의 처리 그리고 숲과 건물의 오분류 수정 과정을 수행하여 최종적으로 81.8%의 분류 정확도를 얻을 수 있었다.

LiDAR 자료를 이용한 유역의 퇴적물 모니터링 (The Monitoring of Sediment on the Basin Using LiDAR Data)

  • 강준묵;강영미
    • 한국측량학회지
    • /
    • 제24권1호
    • /
    • pp.27-36
    • /
    • 2006
  • 대부분의 국내 다목적 댐은 유역면적이 넓고 강우기 집중강우로 인하여 토양의 상당량이 유실되며, 유실된 토양입자는 하천이나 댐 저수지에 장기간 축적되어 저수용량의 감소와 수질관리에 어려움을 야기한다. 지금까지의 퇴적물 조사방법은 관측주기가 길고 측선법에 의한 퇴적정도를 관측하여 정확성 확보에 어려움이 많았다. 본 연구에서는 댐 저수지 퇴적물에 대한 정밀 관측을 위해 항공 LiDAR 기술을 활용하였으며, 퇴적물의 근원지를 추적하고 그 이동경로를 연구하였다. 토양유실에 영향을 주는 토양, 피복, 지형특성을 보다 세밀하게 분류함으로써 유실되는 퇴적물의 정확한 분포량과 유실 위치를 파악할 수 있었으며, 정확도가 향상된 고정밀 DEM을 이용하여 수로화된 흐름을 추적함으로써 퇴적물의 유실경로 분석에 신뢰성을 유지할 수 있었다.

Comparison of Orthophotos and 3D Models Generated by UAV-Based Oblique Images Taken in Various Angles

  • Lee, Ki Rim;Han, You Kyung;Lee, Won Hee
    • 한국측량학회지
    • /
    • 제36권3호
    • /
    • pp.117-126
    • /
    • 2018
  • Due to intelligent transport systems, location-based applications, and augmented reality, demand for image maps and 3D (Three-Dimensional) maps is increasing. As a result, data acquisition using UAV (Unmanned Aerial Vehicles) has flourished in recent years. However, even though orthophoto map production and research using UAVs are flourishing, few studies on 3D modeling have been conducted. In this study, orthophoto and 3D modeling research was performed using various angle images acquired by a UAV. For orthophotos, accuracy was evaluated using a GPS (Global Positioning System) survey that employed VRS (Virtual Reference Station) acquired checkpoints. 3D modeling was evaluated by calculating the RMSE (Root Mean Square Error) of the difference between the outline height values of buildings obtained from the GPS survey to the corresponding 3D modeling height values. The orthophotos satisfied the acceptable accuracy of NGII (National Geographic Information Institute) for a 1/500 scale map from all angles. In the case of 3D modeling, models based on images taken at 45 degrees revealed better accuracy of building outlines than models based on images taken at 30, 60, or 75 degrees. To summarize, it was shown that for orthophotos, the accuracy for 1/500 maps was satisfied at all angles; for 3D modeling, images taken at 45 degrees produced the most accurate models.