• 제목/요약/키워드: Orthophotos

검색결과 37건 처리시간 0.019초

라이다 DSM을 이용한 엄밀정사영상 제작 (Generation of True-Orthphotos using a LIDAR DSM)

  • 박선미;이임평;조성길;민성홍;오소정
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2007년도 춘계학술발표회 논문집
    • /
    • pp.273-276
    • /
    • 2007
  • In this study, we generated DSM(Digital Surface Model)s and orthophotos with both LIDAR data and scanned aerial photos and compared them with those generated from only the scanned photos. We checked the relief displacements of buildings appearing in the generated orthophotos, where the displacement should not be exist in a true-orthophoto. The RMSE of the relief displacement in the orthophoto generated using a LIDAR DSM is 3 m while the RMSE in the orthophotos from a DSM based on the image matching is 6.1 m. It was revealed that the orthophoto from a LIDAR DSM are closer to a true-orthophoto. But the results in the accuracy test and similarity evaluation of the generated orthophotos were contrary to former results because the roof texture of buildings were expanded to occlusion areas around the buildings. With the central area of the photo, we can generate sufficiently accurate true-orthophotos using a LIDAR DSM.

  • PDF

The Generation of True Orthophotos from High Resolution Satellites Images

  • Chen, Liang-Chien;Wen, Jen-Yu;Teo, Tee-Ann
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.885-887
    • /
    • 2003
  • The purpose of this investigation is to generate true orthophotos from high resolution satellite images. The major works of this research include 4 parts: (1) determination of orientation parameters, (2) generating traditional orthophotos using terrain model, (3) relief correction for buildings, and (4) process for hidden areas. To determine the position of satellites, we correct the onboard orientation parameters to fine tune the orbit. In the generation of traditional orthophotos, we employ orientation parameters and digital terrain model(DTM) to rectify tilt displacements and relief displacements for terrain. We, then, compute relief displacements for buildings with digital building model (DBM). To avoid double mapping, we detect hidden areas. Due to the satellite’s small field of view, an efficient method for the detection of hidden areas and building rectification will be proposed in this paper. Test areas cover the city of Kaohsiung in southern Taiwan. Test images are from the QuickBird satellite.

  • PDF

The Generation of Digital Orthophotos and Three Dimensional Models of an Urban Area from Digital Aerial Photos

  • Lee, Jin-Duk
    • Korean Journal of Geomatics
    • /
    • 제2권2호
    • /
    • pp.131-137
    • /
    • 2002
  • The digital photogrammetric products have been increasingly used as an accurate foundation for representing information associated with infrastructure management. The technological advances in merging raster and vector data within the framework of GIS have allowed for the inclusion of DTMs and digital orthophotos with vector data and its associated attributes. This study addresses not only generating DEMs and digital orthophotos but producing three dimensional building models from aerial photos of an urban area by employing the digital photogrammetric technology. DEMs and digital orthophotos were automatically generated through the process of orientations, image matching and so on, and then the practical problems, which must be solved especially in applying to urban areas, were considered. The accuracy of produced digital orthophotos was derived by using check points. Also three dimensional visualization imagery, which is useful in the landform analysis, and 3D building models were produced. Digital photogrammetric products would be used widely not only as GIS framework data layers by using the GIS link function which links attribute and image information in the database for applying to infrastructure management and but as geospatial data for especially 3D GIS in urban areas.

  • PDF

A Novel Road Segmentation Technique from Orthophotos Using Deep Convolutional Autoencoders

  • Sameen, Maher Ibrahim;Pradhan, Biswajeet
    • 대한원격탐사학회지
    • /
    • 제33권4호
    • /
    • pp.423-436
    • /
    • 2017
  • This paper presents a deep learning-based road segmentation framework from very high-resolution orthophotos. The proposed method uses Deep Convolutional Autoencoders for end-to-end mapping of orthophotos to road segmentations. In addition, a set of post-processing steps were applied to make the model outputs GIS-ready data that could be useful for various applications. The optimization of the model's parameters is explained which was conducted via grid search method. The model was trained and implemented in Keras, a high-level deep learning framework run on top of Tensorflow. The results show that the proposed model with the best-obtained hyperparameters could segment road objects from orthophotos at an average accuracy of 88.5%. The results of optimization revealed that the best optimization algorithm and activation function for the studied task are Stochastic Gradient Descent (SGD) and Exponential Linear Unit (ELU), respectively. In addition, the best numbers of convolutional filters were found to be 8 for the first and second layers and 128 for the third and fourth layers of the proposed network architecture. Moreover, the analysis on the time complexity of the model showed that the model could be trained in 4 hours and 50 minutes on 1024 high-resolution images of size $106{\times}106pixels$, and segment road objects from similar size and resolution images in around 14 minutes. The results show that the deep learning models such as Convolutional Autoencoders could be a best alternative to traditional machine learning models for road segmentation from aerial photographs.

Comparison of Orthophotos and 3D Models Generated by UAV-Based Oblique Images Taken in Various Angles

  • Lee, Ki Rim;Han, You Kyung;Lee, Won Hee
    • 한국측량학회지
    • /
    • 제36권3호
    • /
    • pp.117-126
    • /
    • 2018
  • Due to intelligent transport systems, location-based applications, and augmented reality, demand for image maps and 3D (Three-Dimensional) maps is increasing. As a result, data acquisition using UAV (Unmanned Aerial Vehicles) has flourished in recent years. However, even though orthophoto map production and research using UAVs are flourishing, few studies on 3D modeling have been conducted. In this study, orthophoto and 3D modeling research was performed using various angle images acquired by a UAV. For orthophotos, accuracy was evaluated using a GPS (Global Positioning System) survey that employed VRS (Virtual Reference Station) acquired checkpoints. 3D modeling was evaluated by calculating the RMSE (Root Mean Square Error) of the difference between the outline height values of buildings obtained from the GPS survey to the corresponding 3D modeling height values. The orthophotos satisfied the acceptable accuracy of NGII (National Geographic Information Institute) for a 1/500 scale map from all angles. In the case of 3D modeling, models based on images taken at 45 degrees revealed better accuracy of building outlines than models based on images taken at 30, 60, or 75 degrees. To summarize, it was shown that for orthophotos, the accuracy for 1/500 maps was satisfied at all angles; for 3D modeling, images taken at 45 degrees produced the most accurate models.

SURF 기법과 상호정보기법을 활용한 농경지 지역 무인항공기 영상 간 정밀영상등록 (Coarse to Fine Image Registration of Unmanned Aerial Vehicle Images over Agricultural Area using SURF and Mutual Information Methods)

  • 김태헌;이기림;이원희;염준호;정세정;한유경
    • 대한원격탐사학회지
    • /
    • 제35권6_1호
    • /
    • pp.945-957
    • /
    • 2019
  • 본 연구에서는 무인항공기(Unmanned Aerial Vehicle, UAV)를 활용하여 취득된 농경지 지역에 대한 영상 간 기하 오차를 제거하기 위한 정밀영상등록(Coarse to Fine Image Registration) 방법론을 제시한다. 먼저 무인항공기를 활용하여 농경지 지역에 대한 영상을 취득한 후 정사영상을 생성하였다. 영상등록 시 오차를 유발하는 오정합쌍이 추출되는 확률을 감소시키기 위해 생성된 정사영상의 메타데이터를 기반으로 관심지역을 선정하여 탐색영역을 최소화하였다. 그리고 Speeded Up Robust Features (SURF) 기법을 활용하여 추출된 정합쌍(Tie-points)을 기반으로 초기영상등록을 수행하여 정사영상 간 기하 오차를 전반적으로 제거하였다. 이어서 영상내에 두드러진 공간특성이나 구조가 없어도 효과적으로 정합쌍 추출이 가능한 상호정보(Mutual Information) 기법을 통해 추출된 정합쌍을 활용하여 정밀영상등록을 수행하였다. 총 8장의 정사영상을 이용하여 제안기법의 우수성 및 효율성을 검증하기 위해 SURF 기법, 상호정보기법을 개별적으로 활용하여 영상등록을 수행한 결과와 비교분석을 수행하였다. 그 결과, 제안기법을 활용한 경우 효과적으로 정사영상 간 기하 오차가 제거된 것을 확인하였다.

상용 소프트웨어를 통해 자동 생성된 정사영상의 정확도 평가 (Accuracy Assessment of Orthophotos Automatically Generated by Commercial Software)

  • 최경아;박선미;이임평;김성준
    • 한국측량학회지
    • /
    • 제25권5호
    • /
    • pp.415-425
    • /
    • 2007
  • 본 연구는 항공라이다데이터와 항공영상을 융합하여 정사영상을 제작하고, 항공영상만으로 자동영상정합을 통해 제작된 정시영상과 비교 분석하였다. 제작된 정시영상의 정확도평가를 위해 육안검사를 통한 정성적 분석과 주요 건물에 대한 수평좌표불일치, 경계좌표 및 유사도의 측정을 통한 정량적 분석을 수행하였다. 육안검사와 수평좌표불일치량을 기준으로 라이다데이터를 이용한 정사영상이 상대적으로 엄밀정사영상에 근접한 것으로 나타났다. 그러나, 경계좌표와 유사도측정의 결과로 폐색영역에 대한 이중매핑에 보다 민감하게 노출된다는 것을 알 수 있었다. 따라서, 이중매핑에 대한 효과적인 해결방법을 적용하거나 폐색영역이 발생하지 않는 사진중심 영역에서는 라이다데이터를 이용하여 엄밀정사영상에 대한 자동제작이 가능할 것으로 판단된다.

UAV를 활용한 비행고도별 지적기준점 및 필지경계점 정확도 분석 (Accuracy Analysis of Cadastral Control Point and Parcel Boundary Point by Flight Altitude Using UAV)

  • 김정훈;김준현
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.223-233
    • /
    • 2018
  • 본 연구는 지적기준점과 필지경계점에 대하여 무인항공기를 비행고도별로 40m, 100m로 구분하고 정사영상과 GNSS 지상현황측량을 통한 필지경계점 좌표간의 차이를 비교하여 정확도를 제시하였다. 연구결과, 첫째, 공간해상도 분석에서 비행고도별 정사영상에 대한 평균오차는 40m일 때 0.024m, 100m일 때 0.034m의 정확도로 나타났고, 비행고도 100m보다 40m에서 공간해상도와 위치 정확도가 높은 것으로 분석되었다. 둘째, 비행고도에 따른 지형지물별 영상인식의 정확도 분석을 위해 대공표지 없음, 녹색, 적색의 세가지 경우로 구분하여 비교한 결과 적색의 경우 RMSE가 X=0.039m, Y=0.019m, Z=0.055m로 가장 높은 정확도로 나타났다. 셋째, 정사영상과 현장실측을 통한 좌표를 비교한 결과 지적기준점의 경우 전체 RMSE는 X=0.029m, Y=0.028m, H=0.051m로 나타났고, 필지경계점의 경우 X=0.041m, Y=0.030m로 나타났다. 결론적으로 본 연구결과를 토대로 볼 때, 지적측량을 위한 정사영상 관련 법률규정에서 비행고도별 평균오차 0.05m 미만으로 제한한다면, 공간정보취득 뿐만 아니라 지적측량에도 경제적이고 효율적인 방법이 될 것으로 기대한다.

Data Mining-Aided Automatic Landslide Detection Using Airborne Laser Scanning Data in Densely Forested Tropical Areas

  • Mezaal, Mustafa Ridha;Pradhan, Biswajeet
    • 대한원격탐사학회지
    • /
    • 제34권1호
    • /
    • pp.45-74
    • /
    • 2018
  • Landslide is a natural hazard that threats lives and properties in many areas around the world. Landslides are difficult to recognize, particularly in rainforest regions. Thus, an accurate, detailed, and updated inventory map is required for landslide susceptibility, hazard, and risk analyses. The inconsistency in the results obtained using different features selection techniques in the literature has highlighted the importance of evaluating these techniques. Thus, in this study, six techniques of features selection were evaluated. Very-high-resolution LiDAR point clouds and orthophotos were acquired simultaneously in a rainforest area of Cameron Highlands, Malaysia by airborne laser scanning (LiDAR). A fuzzy-based segmentation parameter (FbSP optimizer) was used to optimize the segmentation parameters. Training samples were evaluated using a stratified random sampling method and set to 70% training samples. Two machine-learning algorithms, namely, Support Vector Machine (SVM) and Random Forest (RF), were used to evaluate the performance of each features selection algorithm. The overall accuracies of the SVM and RF models revealed that three of the six algorithms exhibited higher ranks in landslide detection. Results indicated that the classification accuracies of the RF classifier were higher than the SVM classifier using either all features or only the optimal features. The proposed techniques performed well in detecting the landslides in a rainforest area of Malaysia, and these techniques can be easily extended to similar regions.

HRNet 모델을 이용한 항공정사영상간 영상 매칭 (Image Matching for Orthophotos by Using HRNet Model)

  • 성선경;최재완
    • 대한원격탐사학회지
    • /
    • 제38권5_1호
    • /
    • pp.597-608
    • /
    • 2022
  • 원격탐사 자료는 재난, 농업, 도시계획 및 군사 등 다양한 분야에서 활용되며, 최근 다양한 고해상도 센서에서 취득된 시계열 자료의 활용에 대한 요구가 증대되고 있다. 본 연구에서는 시계열 원격탐사 자료의 활용을 위해 딥러닝 기법을 이용한 영상 매칭 방법을 제안하였다. 본 연구에서 적용한 딥러닝 모델은 영상분할 영역에서 많이 사용되고 있는 HRNet을 기반으로 하였다. 특히, 기본영상과 목표영상 간 상관도 맵을 효과적으로 계산하고, 학습의 효율을 높이기 위하여 denseblock을 추가하였다. 국토지리정보원의 다시기 항공정사영상을 이용하여 제안된 모델의 학습을 수행하였으며, 학습에 사용하지 않은 자료를 이용하여 평가를 하고자 하였다. 딥러닝 모델을 이용한 영상매칭 성능을 평가하기 위해 영상 매칭결과와의 비교평가를 수행하였다. 실험 결과, 제안기법을 통한 영상 매칭률이 80%일 때의 평균 오차는 3화소로 ZNCC에 의한 결과인 25화소에 비해 더 높은 정확도를 보였다. 제안된 기법은 식생의 생장에 따라 영상의 변화가 심한 산지 및 농지 지역에 대해서도 효과적임을 확인하였다. 이를 통해 딥러닝을 이용한 기준영상과 목표영상의 매칭을 수행할 수 있을 것으로 판단되며, 위성영상의 상호좌표등록 및 다시기 영상의 정합 등에 활용할 수 있을 것으로 예상된다.