DOI QR코드

DOI QR Code

Extraction of UAV Image Sharpness Index Using Edge Target Analysis

에지 타겟 분석을 통한 무인기 영상의 선명도 지표 추출

  • Lim, Pyung-Chae (Department of GeoInfomatic Engineering, Inha University) ;
  • Seo, Junghoon (Department of GeoInfomatic Engineering, Inha University) ;
  • Kim, Taejung (Department of GeoInfomatic Engineering, Inha University)
  • 임평채 (인하대학교 공간정보공학과) ;
  • 서정훈 (인하대학교 공간정보공학과) ;
  • 김태정 (인하대학교 공간정보공학과)
  • Received : 2018.11.08
  • Accepted : 2018.11.14
  • Published : 2018.12.31

Abstract

In order to generate high-resolution products using UAV images, it is necessary to analyze the sharpness of the themselves measured through image analysis. When images that have unclear sharpness of UAV are used in the production, they can have a great influence on operations such as acquisition and mapping of accurate three-dimensional information using UAV. GRD (Ground Resolved Distance) has been used as an indicator of image clarity. GRD is defined as the minimum distance between two identifiable objects in an image and is used as a concept against the GSD (Ground Sampling Distance), which is a spatial sample interval. In this study, GRD is extracted by analyzing the edge target without visual analysis. In particular, GRD to GSD ratio (GRD/GSD), or GRD expressed in pixels, is used as an index for evaluation the relative image sharpness. In this paper, GRD is calculated by analyzing edge targets at various altitudes in various shooting environments using a rotary wing. Using GRD/GSD, it was possible to identify images whose sharpness was significantly lowered, and the appropriateness of the image as an image clarity index was confirmed.

무인기 영상을 활용한 고해상도의 산출물을 생성하기 위해서 영상 분석을 통해 측정되는 영상자체의 선명도 분석이 필요하다. 무인기의 선명도가 명확하지 않는 영상을 현업에서 사용할 경우 무인기를 이용한 정확한 3차원 정보의 획득이나 매핑 등의 작업에 큰 영향을 미칠 수 있다. 영상 선명도를 설명할 수 있는 지표로 식별해상도(Ground Resolved Distance, GRD)가 사용되어 왔다. GRD는 영상에서 식별 가능한 두 물체간의 최소거리로 정의되며 공간적 샘플간격인 GSD(Ground Sampling Distance)와 대비되는 개념으로 사용된다. 본 연구에서는 GRD를 육안판독에 의하지 않고 영상에 촬영된 에지 타겟을 분석하여 추출하고자 한다. 특히 GRD대 GSD의 비율(GRD/GSD), 또는 픽셀단위로 표현된 GRD를 영상의 상대적 선명성을 평가할 수 있는 지표로 사용하고자 한다. 본 논문에서는 회전익을 사용하여 여러 촬영환경에서 고도별로 촬영된 에지타겟의 분석을 통해서 GRD를 산출하였다. GRD/GSD를 사용하여 선명도가 현저히 떨어지는 영상을 판별할 수 있었고 이를 통해서 영상의 선명도 지표로서의 적정성을 확인할 수 있었다.

Keywords

1. 서론

기존에 항공기나 인공위성 같은 플랫폼에서 취득된 영상은 고성능의 센서가 탑재되고 안정적인 기하의 영상을 제공해 왔다. 이러한 이유로 기존 플랫폼에서 취득된 영상의 품질은 주로 공간해상도(Ground Sampling Distance, GSD)로 표현되고 있다.

최근 낮은 고도에서 고해상도 영상을 취득할 수 있는 무인기 영상처리 연구가 활발해짐에 따라 모니터링 외에도 국지적인 매핑 지도 제작에 대한 관심이 증가하고 있다(Rhee et al., 2017). 하지만 무인기 영상은 기체의 흔들림 및 저가형 센서의 한계로 인한 번짐 현상 등의 이유로 무인기 영상의 GSD가 실제 영상 시스템의 공간분해 능력을 충분히 대변하지 못한다.

이러한 이유로 영상의 선명도에 대한 명확한 기준을 가지는 척도가 필요한 실정이다. Rosnell et al.(2011)의 연구에서 동일 지역에 대해 동일한 GSD를 가지되 서로 다른 선명도를 가지는 영상을 이용하여 동일 지역의 포인트 클라우드를 생성하고 선명도가 좋지 않은 원본 영상의 포인트 클라우드가 제대로 형성되지 않는 것을 확인하였다. 선명도가 좋지 않아 포인트 클라우드가 제대로 형성되지 않는 영상을 현업에서 사용한다면, 정확한 3차원 정보의 획득이나 매핑 등이 작업에 큰 영향을 미칠 수 있다.

이러한 선행연구를 통해 GSD만으로 무인기 영상의 품질을 표현하기에 한계가 있기에 추가적인 품질지표가 필요하는 것을 알 수 있다. 여러 품질지표 중에서 영상의 선명도 또는 영상의 판독도를 나타낼 수 있는 척도로 식별해상도(Ground Resolved Distance, GRD)가 사용되어 왔다. GRD는 영상에서 식별 가능한 두 물체간의 최소거리로 정의되며 공간적 샘플간격인 GSD (Ground Sampling Distance)와 대비되는 개념으로 사용된다. GRD를 판별할 수 있는 방식으로는 Siemens Star 타겟 등과 같은 분석도형을 활용하여 육안으로 판독하는 방식(Lee et al., 2016)과 에지타겟으로부터 추출된 에지패턴 분석을 통해서 추출하는 방식(Helder et al., 2006; Kim and Kim, 2011a; Kim and Kim, 2011b)이 사용되어 왔다.

특히 초경량 무인비행장치의 품질분석을 위해서 Lee et al.(2016)에서는 Siemens Star 타겟과 Bar 타겟을 촬영하여 식별해상도 및 정사영상의 품질을 분석하였다. 그러나 육안판독에 의한 GRD 산출방식은 관측자의 주관적 판단이나 시각적 착시현상을 불러올 수 있다. Siemens Star 타겟으로부터 육안판독이 아닌 밝기값 분석으로 GRD 판별의 시도도 있었다(Lee and Sung, 2016). 이에 비해 에지 타겟을 이용하는 경우는 에지패턴 분석을 통해서 GRD 뿐만 아니라 또 다른 영상품질지표인 신호대 잡음비 등을 추가로 산출할 수 있고 밝기값으로부터 반사율 변환에도 사용할 수 있는 장점이 있다.

따라서 본 논문에는 무인기 영상의 식별해상도를 추출하는 방법으로 에지타겟을 활용하는 방법을 제안하고자 한다. 본 연구진의 선행연구(Kim and Kim, 2011a; Kim and Kim, 2011b )에서는 위성영상의 정확한 GRD를 측정하기 위해 에지추출 및 분석기술을 개발하였고 육안분석과 에지분석으로 산출된 GRD 수치가 비슷하게 나타나는 것을 확인하였다. 본 연구에서는 선행연구에서 개발한 에지분석 기술을 개량하여 다양한 기상조건에서 취득된 무인기 영상으로부터 GRD를 산출하고자 한다. 아울러, 식별해상도 대 공간해상도의 비율 (GRD/GSD), 즉 픽셀단위로 표현된 GRD를 무인기 영상의 상대적 선명도를 나타내는 지표로 사용할 것을 제안하고자 한다.

본 연구에서는 먼저 바 Siemens Star 타겟과 에지타겟을 함께 설치한 후에 다양한 기상조건 및 다양한 촬영 고도에서 이를 촬영한 데이터를 취득하였다. 먼저, 상용 소프트웨어를 통해 추출한 에지분석 결과와 비교하여 본 연구에 적용된 에지분석을 통한 GRD 추출 방식의 신뢰성을 검증하였다. 이후 각 데이터의 고도별 선명도 지표(GRD/GSD)의 평균값과 표준편차를 산출하여 영상의 선명도와 안정성을 분석하였다. 특히 번짐현상이 심한 영상과 비교적 선명한 영상에 대한 선명도 지표를 비교함으로써 GRD/GSD가 무인기 영상의 선명도를 표현할 수 있는 척도로 활용될 수 있음을 보고하였다.

2. 연구방법

1) GRD 측정방식

GRD는 영상에서 식별 가능한 두 물체간의 최소거리로 정의되며 지표면에 투영된 인접 화소 간의 거리를 의미하는 GSD와 대비되는 개념으로 사용된다. 다시 말해 GRD는 영상의 판독력 또는 해상력과 관련된 수치로서 실제 식별 가능한 가장 작은 개체의 크기를 의미한다(Kim et al., 2010a). GRD 측정은 인공표적을 통한 육안분석과 에지 검출을 통한 에지분석 방식이 있다. 인공표적을 통한 육안분석은 주로 검정색과 흰색이 반복적으로 배치된 Siemens Star 타겟이나 Bar 타겟을 이용하여 관측할 수 있다.

Siemens Star 타겟은 Fig. 1과 같이 외부 직경이 D인 원에 원의 중심을 기준으로 하여 32개의 흑백선을 부채꼴로 배열한 도형이다. 이를 이용한 GRD는 식 (1)을 이용하여 구할 수 있다. 식 (1)에서 중심부에 블러링이 발생하는 원의 내부 직경(d)에 비례하며, 타겟의 흑백선 개수에 반비례한다.

OGCSBN_2018_v34n6_1_905_f0001.png 이미지

Fig. 1. Siemens Star.

\(\mathrm{GRD}=\frac{\pi \times \text { 직경비 }\left(\left(\frac{\text { 내부 직경 }(\mathrm{d})}{\text { 외부 직경(D) }}\right)\right.}{\text { 흑백선수 }} \times \text { 제 외부 직경 }\)       (1)

Fig. 2와 같이 Bar 타겟은 검정색과 흰색이 서로 뭉개지지 않고 독립적인 패턴으로 식별되는 최소거리를 관측하면 이때의 거리를 GRD로 정의할 수 있다.

OGCSBN_2018_v34n6_1_905_f0002.png 이미지

Fig. 2. Bar Target (Kim and Kim, 2011a).

에지 타겟은 밝기값 또는 반사율이 다른 패턴을 공간적으로 연속하도록 배치한 타겟이다. 에지 타겟을 촬영한 영상에서 에지 검출은 픽셀의 밝기 값이 급격하게 변화하는 객체 또는 지역을 탐색하여 에지분포곡선(Edge Spread Function, ESF)를 생성함으로써 수행된다. 이때 ESF의 그래프는 기울기가 90°인 계단 모양에 가까울수록 영상이 선명하다는 것을 의미한다. ESF를 산출하면 이를 미분하여 라인분포곡선(Line Spread Function, LSF) 을 추출할 수 있다. LSF는 점광원에 대한 카메라 시스템의 반응곡선에 해당된다. 이때 LSF의 중간값의 폭(Full Width at Half Maximum, FWHM)이 점광원에 대한 번짐 정도를 나타내게 된다. 수식 (2)을 이용하면 육안관측에 의존하지 않고도 GRD 계산이 가능하다. 여기서 H는 촬영고도, f는 카메라 초점거리, R은 LSF의 FWHM이다.

\(G R D=\frac{H \times R}{f}\)       (2)

에지 분석을 통해서 산출된 GRD와 고도별로 계산된 GSD의 비율를 이용하면 영상의 선명도 지표를 구할 수 있다. 다음 식 (3)을 이용하면 GSD를 계산할 수 있다. 식 (3)와 같이 픽셀 크기(p)와 초점거리(f)는 센서에서 제공하는 고정값이므로 GSD는 촬영고도(H)에 따라 변화한다.

\(G R D=\frac{H \times p}{f}\)       (3)

식 (2)와 (3)에서 계산된 GRD와 GSD를 이용해 다음 식 (4)에 적용하면 영상이 얼마나 번짐이 발생하는 정도를 나타내는 선명도 지표를 산출할 수 있다. 선명도 지표는 GRD에서 GSD를 나눈 비율로 정의되며 영상에서 식별되는 최소 개체의 픽셀 크기로 해석될 수 있다. 즉 선명도 지표는 LSF의 FWHM을 픽셀단위로 표현한 값에 해당한다. 고도가 높아질수록 GRD와 GSD의 수치는 변화하기 때문에 식 (4)과 같이 비율을 산출함으로써 고도의 변화에 상대적으로 독립적인 선명도 지표를 산출할 수 있다.

\(\text { 선명도지표 }=\frac{G R D}{G S D}=\frac{R}{p}\)       (4)

2) 에지 분석을 통한 GRD 추정기술

본 연구에서는 선행연구(Kim et al., 2010a, Kim et al., 2010b; Kim and Kim, 2011a)에서 개발된 에지분석 기술을 개량하여 연구를 수행하였다. 에지분석은 에지 선택, 에지 추출, 에지 정규화, 에지 중심검출 및 재배치의 순서로 진행된다.

에지 선택과정에서는 먼저 인공표적의 부근에서 X, Y방향의 기울기를 측정하고 기울기가 큰 방향으로 초기 추출점을 이동시킨다. 에지 추출은 초기 추출점 이동 후에 에지 방향을 계산하고 에지의 수직방향으로의 밝기값을 추출하는 것으로 구성된다. 하지만 인공표적이 다양한 크기와 각도로 배치되어 있으면 X방향과 Y 방향만으로 에지분석을 할 수 없으므로 이를 해결하기 위하여 Sobel Filtering로 에지 수직방향의 각도를 계산한다. 또한 동일간격으로 밝기값 샘플링을 위해 Bilinear interpolation을 적용하여 에지의 수직 방향으로 밝기값을 추출하여 에지분포곡선을 생성한다. 다음 단계로 추출된 에지로부터 어두운 영역을 -1, 밝은 영역을 1로 조정하는 밝기값 정규화 과정을 수행한다. 이 후 정규화된 에지분포곡선 상에서 값이 0이 되는 지점을 찾아 이를 에지 중심점으로 결정하고 선형 보간법을 통해 에지 재배열을 수행한다. 이러한 과정을 통해 ESF를 추정하게 된다. Fig. 5는 개발된 에지분석 기술을 구현한 소프트웨어 화면을 통해서 ESF를 추출한 예를 나타낸다.

OGCSBN_2018_v34n6_1_905_f0003.png 이미지

Fig. 3. Edge Method (Kim and Kim, 2011a).

OGCSBN_2018_v34n6_1_905_f0004.png 이미지

Fig. 4. Self-developed software ESF estimation algorithm for GRD calculation.

OGCSBN_2018_v34n6_1_905_f0005.png 이미지

Fig. 5. Example of ESF extraction using a SW developed in-house.

선행연구(Kim et al., 2010a)에서는 상기 에지 분석기술을 적용하여 산출한 GRD 값과 바 차트를 이용하여 육안으로 판독한 GRD 값을 비교하는 연구를 수행하였다. 그 결과 촬영거리 1 ~ 3m 범위의 실내촬영 영상의 경우 에지 분석을 통한 GRD 값은 육안 판독결과와 0.01 mm의 차이를 보여 참값에 매우 근사한 결과를 산출함을 확인하였다(Kim et al., 2010a). 항공촬영 영상의 경우는 육안판독 결과와 약 1.4 mm의 차이를 보여 에지타겟 분석에 의한 GRD 산출의 정확도 및 안정성을 확인할 수 있었다.

3. 실험데이터 및 실험도구

1) 데이터 취득 장비

무인기 영상을 취득에 사용된 무인항공기는 국내 드론 제작 업체인 (주)케바드론에서 제조된 회전익을 용하였다. 회전익은 원하는 위치로 쉽게 조종할 수 있으며 무엇보다도 수직 이착륙이 가능하기 때문에 원하는 위치에서 고도별로 데이터를 취득하기에 가장 적합한 플랫폼이다.

회전익에 탑재된 센서는 Sony사의 A5100, RX1R, RX100 모두 3종류로써 일반 디지털 카메라를 사용하였다. A5100의 화소는 24 MP이며 focal length는 20 mm 이다. CCD의 크기는 23.5 × 15.6 mm(6000 × 4000 pixels) 이다. RX100의 화소는 20.2 MP이며 focal length는 8.8mm이다. CCD의 크기는 13.2 × 8.8 mm(5472 × 3648 pixel)이다. RX1R의 화소는 42 MP이며 focal length는 35 mm이다. CCD의 크기는 35.9 × 24 mm(7952 × 5304 pixels)이다. 3가지 카메라 센서 중 센서크기 대비 화소 수가 가장 많은 RX1R이 가장 우수한 물리적 성능을 가지고 있다.

Table 1. UAV Specification

OGCSBN_2018_v34n6_1_905_t0001.png 이미지

Table 2. Experiment Sensor

OGCSBN_2018_v34n6_1_905_t0002.png 이미지

2) 데이터 취득 및 촬영환경

무인기 영상 데이터는 모두 같은 장소에서 세 차례에 걸쳐 취득되었다. 각 데이터는 전주의 국립농업과학원 운동장에서 흑백 패턴의 에지타겟을 설치하고 회전익을 이용하여 10 m 간격으로 10 ~ 80 m 고도에서 촬영하였다. 1차 데이터는 구름이 많고 아주 흐린 날씨에, 2차 데이터는 맑은 날씨에, 3차와 4차 데이터는 맑고 구름이 조금 있는 날씨에 취득되었다. 1차, 2차, 4차 데이터의 경우 모두 1가지 센서만 이용해 데이터를 취득했지만 3차 영상의 경우 3종의 센서를 이용해 취득하였다.

영상품질분석에 사용된 타겟은 흰색과 검은색의 패턴으로 이루어져 있는 에지타겟이다. 픽셀의 밝기값의 변화가 급격하게 변화하는 에지 영역을 뚜렷이 식별하기 위해 Fig. 7과 같이 에지 타겟이 가장 적합하다고 판단하여 본 연구에서 사용했다. 에지타겟의 크기는 100 × 100 cm이며 각 블록당 크기는 50 × 50 cm이다. 육안 분석을 위해서 추가로 설치한 Siemens Star 타겟에 대한 사양은 아래 그림과 같다.

OGCSBN_2018_v34n6_1_905_f0006.png 이미지

Fig. 6. Acquired images for image quality analysis (Lim et al., 2018).

Table 3. Data information

OGCSBN_2018_v34n6_1_905_t0003.png 이미지

OGCSBN_2018_v34n6_1_905_f0007.png 이미지

Fig. 7. GRD Analysis Target Details.

3) GRD 산출을 위한 자체개발 소프트웨어 비교 검증

에지타겟으로부터의 영상의 GRD를 산출하기 위해서 앞절에서 설명한 지분석기술을 자체적으로 소프트웨어로 구현하여 사용하였다. 에지 검출의 전 과정을 자동으로 수행할 수도 있으나 정확한 분석을 위하여 에지타겟이 촬영된 영역을 선택하는 에지 선택과정은 수동으로 수행하고 이후 나머지 에지 추출을 위한 과정은 자동으로 수행하였다.

선행연구에서 수행한 GRD 산출 정확도 분석에 추가하여 개발된 영상분석 기술 및 소프트웨어의 성능을 검증하기 위해 현재 광학분야에서 사용되고 있는 상용 소프트웨어(Quick MTF)와 비교하였다. Quick MTF는 연구진이 개발한 소프트웨어와 유사한 방식으로 영상에서 밝기 값이 변화는 에지를 분석하여 ESF와 LSF 산출 하여 센서의 성능을 분석하는 상용 소프트웨어다. 상용 소프트웨어와 비교검증을 위해 Table 4 (a)와 같이 3차 데이터의 에지타겟 중 하나의 타겟을 대상으로 ESF, LSF를 산출하고 그래프로 도식화하여 비교하였다. 비교검증을 위해 센서는 A5100, RX1R, RX100을 사용하였고 영상은 회전익으로 80m에서 촬영된 타겟들 중, 붉은색 박스 안에 있는 에지타겟을 대상으로 (b)의 동일 영역에 대해서 에지를 분석하였다.

Table 4. Test equipment and images

OGCSBN_2018_v34n6_1_905_t0004.png 이미지

그 결과 Fig. 8과 같이 모든 센서에서 ESF, LSF 그래프가 비슷한 양상을 보이는 것을 확인하였다. 상용 소프트웨어와 비교검증을 통해 자체개발한 소프트웨어의 신뢰성을 확보하고 무인기 영상의 에지분석을 수행하였다.

OGCSBN_2018_v34n6_1_905_f0008.png 이미지

Fig. 8. ESF and LSF from self-developed and Quick MTF (Blue : self-developed; Orange : Quick MTF).

3. 연구 결과

1) 육안분석

전체적으로 영상이 가장 밝았던 2차 촬영데이터는 날씨가 매우 좋았다. 반면에 전체적으로 조금 어두웠던 1차, 3차 4차 데이터는 흐린 날씨와 구름의 영향으로 인해 영상이 조금 어두웠다. 모든 고도별 촬영 데이터에서 앞 2.1절의 식 (1)을 이용하여 Siemens Star 타겟의 GRD 를 육안분석에 의해서 계산하고 선명도지표(GRD/ GSD)를 산출했다.

육안 분석을 위해서 오픈 소스인 QGIS에서 영상을 화면출력한 이후 QGIS에서 제공하는 길이측정 툴을 사용하여 외부 직경(D)과 내부 직경(d)를 측정한 뒤, 공식 (1)을 이용하여 GRD를 계산하였다. 4차 촬영 데이터의 경우, Siemens Star 타겟을 설치하지 않아 육안분석이 불가능했다. 육안분석은 인하대학교 공간정보공학과 대학원생 및 학부생으로 총 3인이 독립적으로 수행하였다. 정사영상 생성을 위해 연속적으로 촬영하는 경우, 기하가 불안정한 무인기는 크게 10 m 이상의 고도차가 발생하기 때문에 고도별로 선명도 지표의 수치가 크게 차이가 발생하면 원하는 품질의 정사영상을 생성하기 어려울 수 있다. 각각의 관측자는 고도 Siemens Star 타겟을 측정하는 방식으로 고도별 평균과 표준편차를 산출하였다. Table 5~9에 각각의 촬영데이터에 대한 관측자별로 육안판독한 GRD 수치 및 GRD/GSD 값을 나타내었다. 각 촬영데이터 별로 3명의 관측자가 판독한 고도별 GRD/GSD 평균을 살펴보면 해당 수치가 영상의 번짐현상을 어느 정도 설명할 수 있음을 알 수 있다. 육안으로도 구분이 가능할 정도로 번짐현상이 심한 1차데이터의 선명도 지표를 산출한 결과 전체 관측자가 측정한 고도별 평균은 7.1420으로 상당히 저조한 수치가 나왔다. 맑은 날씨에 촬영한 2차 데이터의 선명도지표 평균은 1.8914로 우수한 지표를 보였고 구름이 조금 낀 3차데이터의 경우는 센서별로 각각 2.0187(A5100), 1.9908(RX1R), .6294(RX100)의 수치가 산출되었다. 그러나 모든 촬영데이터에 대해서 육안판독에 의한 GRD 및 GRD/GSD 값은 관측자별로 큰 차이를 보이는 것으로 나타나서 객관적인 분석이 어려웠다. 이와 같은 원인은 먼저 관측자마다 영상에서 보이는 외부 직경과 내부 직경의 길이를 판단하는 기준에 있어서 주관적인 개입이 들어가는 것이 첫 번째 원인이고, 두 번째로 Siemens Star 가 가진 원형도형의 특징으로써 더 쉽게 시각적인 착시 현상이 발생하여 생긴 판독 오차라고 생각된다. 상기한 이유로 선행연구에서 사용했던바 차트와 달리 Siemens Star를 활용하는 경우에는 객관적인 육안판독 수치를 얻기 어려웠다.

Table 5. The first visual analysis data by altitude using A5100

OGCSBN_2018_v34n6_1_905_t0005.png 이미지

Table 6. The second visual analysis data by altitude using A5100

OGCSBN_2018_v34n6_1_905_t0006.png 이미지

Table 7. The third visual analysis data by altitude using A5100

OGCSBN_2018_v34n6_1_905_t0007.png 이미지

Table 8. The third visual analysis data by altitude using RX100

OGCSBN_2018_v34n6_1_905_t0008.png 이미지

Table 9. The third visual analysis data by altitude using RX100

OGCSBN_2018_v34n6_1_905_t0009.png 이미지

2) 자체개발 소프트웨어를 활용한 선명도 분석

자체개발한 영상품질분석 소프트웨어를 활용해 고도별로 동일한 에지타겟을 대상으로 에지 분석을 수행하였다. 촬영 데이터별로 선명도지표(GRD/GSD)의 평균과 표준편차를 산출하였다. 앞절에서도 언급했듯이, 선명도지표가 높을수록 영상의 선명도가 저하되고, 센서의 고도별 선명도지표의 표준편차가 낮을수록 안정적인 영상을 제공한다.

각 촬영 데이터에서 육안으로도 블러링이 심했던 1차 촬영 데이터는 에지 profile을 검출할 수 없었다. 10 m와 40 m 구간에 같은 scale로 영상을 확대해본 결과 에지의 경계를 거의 구분하기가 어려웠다. 가장 맑은 날에 취득된 2차 데이터는 50 m에서 1.8063으로 가장 저조한 수치를 보였고, 80 m에서 1.0201으로 가장 우수한 선명도지표를 보였다. 각 영역을 확대하여 육안으로 확인했을 때, 50 m와 80 m 모두 경계가 뚜렷한 것을 확인했다.50 m와 80 m의 GRD 수치는 거의 비슷했지만, 높이에 대한 상대적인 비로 표현되는 선명도지표(GRD/GSD) 로 나타내었을 때, 80 m에서 선명도지표가 우수하게 나왔다.

3차 데이터의 기종별 평균 선명도 지표는 1.7249(A5100), 2.0549(RX1R), 2.0031(RX100)로써 A5100에서 취득된 영상이 가장 우수한 선명도 지표를 보였고 나머지 두 센서는 비슷한 선명도지표를 보였다. RX100 센서에서 취득된 영상은 제일 낮은 10 m 고도에서 가장 저조한 선명도 지표를 보였고, 가장 선명한 70 m와 비교 결과, 에지의 경계가 70 m가 더 뚜렷하다는 것을 확인할 수 있었다. 3차와 4차 촬영에 사용되었던 RX1R의 평균 선명도지표는 2.0549, 2.1786으로, 저조한 선명도 지표를 나타내었다. 각 촬영 데이터에서 선명도지표를 산출한 결과 A5100의 성능이 가장 우수한 것으로 판단된다. A5100 센서를 사용한 2차와 3차 촬영 데이터에서 가장 우수한 선명도지표는 1.0201, 1.5585로써 선명도지 표가 1.0~ 1.5이면 영상이 선명하다고 판단된다. 비슷한 성능을 보였던 RX1R, RX100 센서에서 가장 저조한 선명도지표는 2.0 이상이었다. 그러므로 선명도지표가 2.0 이상이면 영상의 선명도가 좋지 않다고 판단된다. 육안으로도 뚜렷한 1차 촬영 데이터의 블러링의 원인은 크게 2가지로 분석할 수 있다. 첫 번째 원인은 날씨의 영향으로, 촬영 당시 바람을 동반하고 날씨가 구름이 많이 낀 굉장히 흐린 날씨였다. 바람의 영향으로 무인기의 불안정한 기하와 흐리고 어두운 날씨로 인해 센서에 충분한 광량을 얻지 못해 심한 블러링이 발생한 것 같다. 두 번째 원인으로는 센서의 설정 문제이다. F-stop의 수치가 너무 작아 멀리 있는 객체를 인식하지 못해 센서가 초점을 잡지 못하고 촬영되어 블러링한 영상을 제공한 것으로 판단된다. 각 촬영 데이터에서 선명도지표가 가장 저조한 영상과 가장 좋은 영상을 확대하여 비교한 결과, 선명도 지표가 저조한 영상은 에지의 경계가 명확하지 않은 것을 육안으로 확인할 수 있다.

표준편차는 전체 촬영 데이터 중, A5100 센서를 사용하여 취득한 2차 데이터에서 가장 높게 나온 것을 확인하였고, RX1R 센서의 표준편차가 가장 낮은 것을 확인하였다. RX1R의 고도별 선명도 지표의 편차는 크게 발생하지 않으므로 일관성 있는 안정적인 품질의 데이터가 취득되었음을 알 수 있다.

Fig. 9의 그래프는 고도에 따른 2차, 3차, 4차 데이터의 센서별 선명도 지표이다. RX1R을 제외하고 10 m 구간에서 모든 센서 선명도지표가 상대적으로 저조하게 나왔다. 이는 센서 설정의 문제로 판단된다. 10 m구간을 제외하고 모든 데이터의 선명도지표 표준편차를 그래프로 확인하면 2차, 3차 데이터의 A5100 보다 3차, 4차에 촬영된 RX1R, RX100 선명도지표의 그래프가 상대적으로 완만하다. 따라서 RX1R과 RX100 센서에서 일관성 있는 선명도를 가지는 영상이 취득된 것이라고 판단된다.

Table 10. The edge targets of first data by altitude using A5100

OGCSBN_2018_v34n6_1_905_t0010.png 이미지

Table 11. The edge analysis of second data using A5100 (blue : the highest, yellow : the lowest)/p>

OGCSBN_2018_v34n6_1_905_t0011.png 이미지

Table 12. The edge analysis of third data using A5100 (blue : the highest, yellow : the lowest)

OGCSBN_2018_v34n6_1_905_t0012.png 이미지

Table 13. The edge analysis of third data using RX1R (blue : the highest, yellow : the lowest)

OGCSBN_2018_v34n6_1_905_t0013.png 이미지

Table 14. The edge analysis of third data using RX100 (blue : the highest, yellow : the lowest)

OGCSBN_2018_v34n6_1_905_t0014.png 이미지

Table 15. The edge analysis of fourth data using RX1R (blue : the highest, yellow : the lowest)

OGCSBN_2018_v34n6_1_905_t0015.png 이미지

OGCSBN_2018_v34n6_1_905_f0009.png 이미지

Fig. 9. The Sharpness Index by altitude.

4. 결론

본 연구는 무인기를 이용해 다양한 기상조건에서 취득된 영상의 Siemens Star를 활용한 육안분석과 Edge Taget을 활용한 에지분석을 수행하였다. 각 분석을 통해 고도에 따른 상대적인 식별해상도(GRD) 대 공간해상도(GSD)의 비율인 선명도지표(GRD/GSD)를 산출하여 영상의 선명성을 분석하였다. Siemens Star를 활용한 육안분석의 경우, 관측자마다 서로 상이한 선명도지표가 측정되었다. 이는 주로 관측자의 주관적인 판단이 개입되거나, 원형도형 안에 있는 흰색과 검은색 선이 교차되어 보이는 착시현상으로 인해 객관성 있는 GRD 산출이 어려워 선명도지표로 활용하지 못했다. 하지만 상용 소프트웨어와 비교하여 신뢰성이 검증된 자체개발 에지분석 기술을 활용하여 Edge Target의 에지를 이용한 GRD를 산출할 수 있었다. 날씨가 매우 흐린날에 촬영된 매우 블러링 했던 1차 데이터에는 에지분석이 불가능했다. 에지분석이 불가능한 원인을 밝히고자 해당 에지 영역을 확해 육안으로 확인해본 결과 밝은 색과 어두운 색의 경계를 거의 구분할 수 없었다.

맑은 날에 촬영된 2차, 구름이 조금 낀 날에 촬영된 3차, 4차 데이터 역시 관측자 마다 서로 대비되는 GRD 수치를 측정하였고 픽셀 하나의 크기 단위까지 확대하지 않으면 에지 영역에서 선명도를 구분이 어려웠다. 하지만 에지분석을 통해 보다 정확한 선명도지표 및 표준 편차 분석을 수행할 수 있었다.

각 촬영 데이터와 센서 기종별로 번짐현상이 발생한 것으로 추정된 영상과 비교적 선명한 영상에 대한 선명도 지표를 비교하고, 이를 비교하기 위해 해당 에지 영역을 확대해 육안으로 판독한 결과가 거의 일치한 것을 확인하였다. 또한 고도별 선명도지표의 표준편차를 산출하여 일관성 있는 선명도를 제공하는 데이터를 확인할 수 있었다.

따라서 본 연구에서는 자체개발 에지분석 기술을 무인 영상에 적용하여 GRD를 산출할 수 있었고 고도별 영상의 선명도지표(GRD/GSD)를 이용해 번짐현상이 발생한 영상과 비교적 선명한 영상을 구분할 수 있었다. 무인기 원본 영상의 선명도지표와 표준편차를 메타데이터로써 제공해 준다면 매핑이나, 모니터링등 사용자가 원하는 산출물의 척도로써 활용될 수 있을 것이라고 기대한다. 향후 착시현상 거의 없는 Bar Target을 이용한 육안분석과 에지분석을 통해 산출된 선명도지표를 비교하고, 육안분석에서 산출된 GRD가 선명도지표에 활용될 수 있는지 타당성을 검토하는 연구를 수행할 계획이다

사사

본 논문은 농촌진흥청 공동연구사업(과제번호 : PJ 0135002018)의 지원을 받았으며, 이에 감사드립니다.

References

  1. Helder, D., J. Choi, and C. Anderso, 2006. Onorbit Modulation Transfer Function (MTF) Measurements for IKONOS and QuickBird, Proc. of 2006 Civil Commercial Imagery Evaluation Workshop, Maryland, Mar.14-16, Digitally available on CD.
  2. Kim, J.-I., J. Jeong, and T. Kim, 2010a. Development of GRD Measurement Method using Natural Target in Imagery, Korean Journal of Remote Sensing, 26(5): 527-536 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2010.26.5.527
  3. Kim, T., J.-I. Kim, D. Kim, and J. Jeong, 2010b. Automated image Interpretability assessment by edge profile analysis natural targets, Proc. of 2010 Annual Conference of American Society for Photogrammetry and Remote Sensing, San Diego, CA, Apr. 26-30, vol. 1, pp. 417-422.
  4. Kim, J.-I. and T. Kim, 2011a. Development of a Natural Target-based Edge Analysis Method for NIIRS Estimation, Korean Journal of Remote Sensing, 27(5): 587-599 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2011.27.5.587
  5. Kim, T. and J.-I. Kim, 2011b. Automated assessment of NIIRS and GRD of high resolution satellite images through edge profile analysis of natural targets, Proc. of 10th Annual Joint Agency Commercial Imagery Evaluation (JACIE) Workshop, Colorado, Mar. 29-31, Digitally available on CD.
  6. Kim, J.-I., H.Y. Kim, and T. Kim, 2011. Automated quality monitoring of high resolution satellite images using natural target-based analysis techniques, Proc. of 2011 International Symposium on Remote Sensing, Yeosu, Sep. 2-4, pp. 290-293.
  7. Lee, J. and S. Sung, 2016. Evaluating spatial resolution for quality assurance of UAV images, Spatial Information Research, 24(2): 141-154. https://doi.org/10.1007/s41324-016-0015-0
  8. Lee, J.O., B.Y. Yun, and J.B. Lee, 2016. A Study on the Work Regulation for UAV Application in the Field of Spatial Information, Journal of Korean Cadastre Information Association, 18(1): 171-184 (in Korean with English abstract).
  9. Lim, P., T. Kim, S. Na, K. Lee, H. Ahn, and J. Hong, 2018. Analysis of UAV image Quality using Edge Analysis, Proc. of International Society for Photogrammetry and Remote Sensing Technical Commission IV Symposium, Delft, Oct. 1-5, vol. XLII-4, pp. 359-364.
  10. Rosnell, T., E. Honkavaara, and K. Nurminen, 2011. On geometric processing of multi-temporal image data collected by light UAV systems, Proc. of International Society for Photogrammetry and Remote Sensing Workshop, Zurich, Sep. 14-16, vol. XXXVIII-1/C22, pp. 63-68.