• 제목/요약/키워드: Agisoft Metashape

검색결과 5건 처리시간 0.024초

정사모자이크 제작을 위한 Agisoft Metashape의 병렬처리 성능 평가 (Assessment of Parallel Computing Performance of Agisoft Metashape for Orthomosaic Generation)

  • 한수희;홍창기
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.427-434
    • /
    • 2019
  • 본 연구에서는 SfM (Structure from Motion) 기술을 기반으로 항공삼각측량을 수행하고 3차원 포인트 클라우드를 생성하며 정사모자이크를 제작할 수 있는 Agisoft Metashape의 병렬처리 성능을 평가하였다. SfM의 속성상 상호표정에 해당하는 Align photos와 3차원 포인트 클라우드를 생성하는 Build dense cloud가 대부분의 시간을 차지하는데, Metashape에서는 이러한 과정에서 CPU (Central Processing Unit)의 다중코어와 함께 GPU (Graphics Processing Unit)를 이용하여 병렬처리를 수행할 수 있다. 세 가지 병렬처리 방법(CPU only, GPU only, CPU + GPU)과 두 가지 운영체제(Windows, Linux)를 조합하여 총 여섯 가지 조건으로 대용량 무인기 영상으로부터 정사모자이크를 제작하였다. 아울러 사용자의 개입 없이 자동화된 방법으로 영상에서 지상기준점을 인식하여 항공삼각측량의 RMSE (Root Mean Square Error)를 측정함으로써 각 조건에 따른 결과의 일관성을 평가하였다. 4220만 화소의 무인기 영상 521장으로부터 정사모자이크를 제작한 결과, 본 연구에서 사용한 시스템에서는 CPU와 GPU의 조합이 가장 나은 성능을 나타내었고 모든 조건에서 Linux가 Windows보다 나은 성능을 나타내었다. 그러나 항공삼각측량의 RMSE를 측정한 결과, 각 설정에 따른 RMSE 값에서 오차 범위 안에서 미세한 차이가 나타났다. 따라서 Metashape는 운영체제 및 병렬처리 여부에 관계없이 동일한 결과가 도출되도록 개선할 여지가 있는 것으로 판단된다.

재해/재난 현장에서 취득한 대용량 무인기 영상의 클라우드 컴퓨팅 기반 처리 (Cloud Computing-Based Processing of Large Volume UAV Images Acquired in Disaster Sites)

  • 한수희
    • 대한원격탐사학회지
    • /
    • 제36권5_3호
    • /
    • pp.1027-1036
    • /
    • 2020
  • 본 연구에서는 재해/재난 현장에서 취득한 대용량 무인기 영상으로부터 고정밀 3차원 실감 자료를 신속하게 생성하기 위하여 상용 소프트웨어인 Agisoft Metashape와 클라우드 컴퓨팅 서비스인 Amazon web service를 이용하여 처리하는 방식을 제안하고 성능을 평가하였다. 로컬 컴퓨터를 이용하는 온프레미스 방식, Agisoft사(社)와 Pix4D사(社)에서 제공하는 클라우드 서비스와 비교하여, 항공삼각측량, 3차원 포인트 클라우드 및 DSM 생성, 메쉬 및 텍스처 생성, 정사 모자이크 영상 제작 등의 과정은 비슷한 시간을 소요하였다. 클라우드 방식은 대용량 자료의 업로드와 다운로드 시간을 필요로 하지만 실질적인 현장 처리가 가능하다는 분명한 장점을 보였다. 온프레미스 방식과 클라우드 방식 모두 CPU와 GPU 성능에 따라 처리 시간의 차이가 발생하지만 벤치마크를 통해 확인되는 성능 차이만큼 큰 차이는 발생하지 않았다. 그러나 저성능의 GPU가 탑재된 랩탑 컴퓨터는 지나치게 많은 시간을 소요하여 현장 처리에 적용하기 어려운 것으로 나타났다.

Gradient 공식을 이용한 무인항공영상의 선명도 평가 (Sharpness Evaluation of UAV Images Using Gradient Formula)

  • 이재원;성상민
    • 한국측량학회지
    • /
    • 제38권1호
    • /
    • pp.49-56
    • /
    • 2020
  • 본 연구에서는 그라디언트(gradient) 공식을 사용하여 무인항공사진의 선명도 분석을 실시하고, 작업자가 간단하게 사용할 수 있도록 MATLAB GUI(Graphical User Interface) 기반 선명도 분석 tool 제작에 대하여 소개하였다. 본 연구에서 제시한 선명도 분석 방법의 신뢰도를 검증하기 위하여 상용 software인 Agisoft사의 Metashape로 무인항공영상의 선명도를 측정한 결과와 비교하였다. 총 10장의 영상을 대상으로 두 가지 tool로 선명도를 각각 측정한 결과 동일 영상에 대하여 선명도 수치의 값들은 서로 상이하였다. 하지만 두 결괏값 간에는 0.11 ~ 0.20 정도의 일정한 편이(bias)가 존재하여 이를 소거하면 동일한 선명도를 나타내어 본 연구에서 제시한 선명도 분석 방법의 신뢰도를 입증하였다. 또한, 제시한 선명도 분석 방법의 실용성을 검증하기 위하여 선명도가 낮은 무인항공사진을 저품질의 영상으로 분류한 후, 각각 이를 포함한 정사영상과 이를 제외하고 제작한 정사영상의 품질을 비교하였다. 실험결과, 저품질의 무인항공사진을 포함하고 있는 정사영상은 해상도 타겟 부분의 흐림 현상으로 품질 분석이 불가하였다. 하지만 저품질의 무인항공사진을 제외하고 제작한 정사영상의 GSD (Ground Sample Distance)는 해상도 타겟이 선명하게 관측 가능하여 bar target은 3.2cm, siemens star는 4.0cm이었다. 이 결과는 본 연구에서 제시한 선명도 분석 방법의 실용성을 입증하였다.

네트워크 RTK 무인기의 항공삼각측량 정확도 평가 (Accuracy Assessment of Aerial Triangulation of Network RTK UAV)

  • 한수희;홍창기
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.663-670
    • /
    • 2020
  • 본 연구에서는 건물이 혼재한 준 도심 지역에서 발생할 수 있는 재난/재해를 가정하여 네트워크 RTK (Real Time Kinematic) 측위가 가능한 무인기를 이용한 항공삼각측량의 정확도를 평가하였다. 검사점 측위의 신뢰성을 확보하기 위해 검사점을 건물의 옥상에 설치하여 네 시간 이상의 GNSS (Global Navigation Satellite System) 정적 측위를 수행하였다. 객관적인 정확도 평가를 위해 소프트웨어에서 자동으로 인식 가능한 코드화된 대공 타겟을 사용하였다. 무인기에서는 네트워크 RTK 측위의 일종인 VRS (Virtual Reference Station) 방식을 이용하여 영상 취득 당시 카메라의 3차원 좌표를 측정하였고, IMU (Inertial Measurement Unit)와 짐벌 회전각 측정을 통해 카메라의 3축 회전각을 측정하였다. Agisoft Metashape를 이용하여 내·외부 표정요소를 추정·갱신한 결과, 항공삼각측량의 3차원 RMSE (Root Mean Square Error)는 영상의 중복도와 촬영 각도의 조합에 따라 크게는 0.153 m에서 작게는 0.102 m로 나타났다. 더욱 높은 수준의 항공삼각측량 정확도를 확보하기 위해서는 연직 영상의 중복도를 높이는 것이 일반적이나 경사 영상을 추가하는 것이 효과적인 것으로 나타났다. 따라서 대응 단계의 재난/재해 현장에서 긴급하게 무인기 매핑을 수행할 경우 중복도를 높이기 보다는 경사 영상도 함께 취득할 필요가 있다.

통합 이미지 처리 기술을 이용한 콘크리트 교량 균열 탐지 및 매핑 (Crack Inspection and Mapping of Concrete Bridges using Integrated Image Processing Techniques)

  • 김병현;조수진
    • 한국안전학회지
    • /
    • 제36권1호
    • /
    • pp.18-25
    • /
    • 2021
  • In many developed countries, such as South Korea, efficiently maintaining the aging infrastructures is an important issue. Currently, inspectors visually inspect the infrastructure for maintenance needs, but this method is inefficient due to its high costs, long logistic times, and hazards to the inspectors. Thus, in this paper, a novel crack inspection approach for concrete bridges is proposed using integrated image processing techniques. The proposed approach consists of four steps: (1) training a deep learning model to automatically detect cracks on concrete bridges, (2) acquiring in-situ images using a drone, (3) generating orthomosaic images based on 3D modeling, and (4) detecting cracks on the orthmosaic image using the trained deep learning model. Cascade Mask R-CNN, a state-of-the-art instance segmentation deep learning model, was trained with 3235 crack images that included 2415 hard negative images. We selected the Tancheon overpass, located in Seoul, South Korea, as a testbed for the proposed approach, and we captured images of pier 34-37 and slab 34-36 using a commercial drone. Agisoft Metashape was utilized as a 3D model generation program to generate an orthomosaic of the captured images. We applied the proposed approach to four orthomosaic images that displayed the front, back, left, and right sides of pier 37. Using pixel-level precision referencing visual inspection of the captured images, we evaluated the trained Cascade Mask R-CNN's crack detection performance. At the coping of the front side of pier 37, the model obtained its best precision: 94.34%. It achieved an average precision of 72.93% for the orthomosaics of the four sides of the pier. The test results show that this proposed approach for crack detection can be a suitable alternative to the conventional visual inspection method.