DOI QR코드

DOI QR Code

Creation of Actual CCTV Surveillance Map Using Point Cloud Acquired by Mobile Mapping System

MMS 점군 데이터를 이용한 CCTV의 실질적 감시영역 추출

  • Choi, Wonjun (Department of Civil and Environmental Engineering, Yonsei University) ;
  • Park, Soyeon (Department of Civil and Environmental Engineering, Yonsei University) ;
  • Choi, Yoonjo (Department of Civil and Environmental Engineering, Yonsei University) ;
  • Hong, Seunghwan (Stryx, Incorporated) ;
  • Kim, Namhoon (Department of Civil and Environmental Engineering, Korea Military Academy) ;
  • Sohn, Hong-Gyoo (Civil and Environmental Engineering, Yonsei University)
  • Received : 2021.10.07
  • Accepted : 2021.10.19
  • Published : 2021.10.31

Abstract

Among smart city services, the crime and disaster prevention sector accounted for the highest 24% in 2018. The most important platform for providing real-time situation information is CCTV (Closed-Circuit Television). Therefore, it is essential to create the actual CCTV surveillance coverage to maximize the usability of CCTV. However, the amount of CCTV installed in Korea exceeds one million units, including those operated by the local government, and manual identification of CCTV coverage is a time-consuming and inefficient process. This study proposed a method to efficiently construct CCTV's actual surveillance coverage and reduce the time required for the decision-maker to manage the situation. For this purpose, first, the exterior orientation parameters and focal lengths of the pre-installed CCTV cameras, which are difficult to access, were calculated using the point cloud data of the MMS (Mobile Mapping System), and the FOV (Field of View) was calculated accordingly. Second, using the FOV result calculated in the first step, CCTV's actual surveillance coverage area was constructed with 1 m, 2 m, 3 m, 5 m, and 10 m grid interval considering the occluded regions caused by the buildings. As a result of applying our approach to 5 CCTV images located in Uljin-gun, Gyeongsnagbuk-do the average re-projection error was about 9.31 pixels. The coordinate difference between calculated CCTV and location obtained from MMS was about 1.688 m on average. When the grid length was 3 m, the surveillance coverage calculated through our research matched the actual surveillance obtained from visual inspection with a minimum of 70.21% to a maximum of 93.82%.

스마트 시티 서비스 중 방범·방재 분야가 2018년 기준 가장 높은 24%를 차지하고 있으며, 실시간 상황정보제공에 가장 중요한 플랫폼은 CCTV(Closed-Circuit Television) 이다. 이러한 CCTV의 활용을 극대화 하기 위해서는 CCTV가 제공하는 실질적인 감시 영역을 파악하는 것이 필수적이다. 하지만 국내에 설치된 CCTV양은 지자체 관리대상 포함 100만대를 넘고 있다. 이러한 방대한 양의 CCTV의 가시영역을 수동적으로 파악해야 하는 것은 문제점으로 제기되고 있다. 이에 본 연구에서는 CCTV의 실질적 가시권 영역 데이터를 효율적으로 구축하고, 관리자가 상황 파악에 소요되는 시간을 단축하는 방안을 제시하고자 하였다. 이를 위하여 첫째, 접근이 어려운 기 설치된 CCTV 카메라의 외부표정요소와 초점 거리를 MMS(Mobile Mapping System)의 점군 데이터를 활용하여 계산하고, 이 결과를 활용하여 FOV(Field of View)를 계산하였다. 둘째, 첫 단계에서 계산된 FOV 결과를 이용하여 건물에 의하여 발생하는 폐색 영역을 고려하여 CCTV의 실질적 감시 영역을 그리드 단위 1 m, 2 m, 3 m, 5 m, 10 m 폴리곤 데이터로 구축하였다. 이 방법을 경상북도 울진군에 위치한 5개소의 CCTV 영상에 적용한 결과, 평균 재투영 오차는 약 9.31 pixel, 공공데이터포털(Data Portal)에서 제공하는 위·경도 좌표와의 거리는 평균 약 10 m의 거리 차이가 발생하였고, MMS를 통해 취득한 점군 데이터 상의 CCTV 위치 좌표 값과는 평균 약 1.688 m의 위치 차이를 나타냈다. 단위 그리드의 한 변의 크기가 3 m인 경우, 본 연구를 통하여 계산된 감시 영역 폴리곤은 육안으로 확인한 실제 감시 영역과 최소 70.21%에서 최대 93.82%까지 일치함을 확인할 수 있었다.

Keywords

1. 서론

4차 산업혁명 속에서 스마트 시티 사업은 정부의 주요 사업 중 하나로 자리매김하고 있으며, 스마트 시티가 제공하는 서비스 분야 중 방범·방재가 24%(’18년 기준)로 가장 높은 비중을 차지하고 있다(MOLIT, 2019). 방범·방재 분야에서도 가장 활용도가 높은 플랫폼은 CCTV(Closed-Circuit Television)이며, 전국에서 발생하는 재난상황을 모니터링하는 중앙재난안전상황실에서 CCTV는 핵심적인 역할을 한다(Aguado et al., 2009; Kim et al., 2017). 이에 따라 2019년도부터 상황정보를 모든 기관이 공유할 수 있도록 GIS(Geographic Information System) 상황관리시스템을 구축하는 사업을 진행하였으나, NDMI(2019)는 상황 발생 시 확인해야 하는 CCTV의 개수가 수천 개에 이르러 신속하게 상황정보를 검색하는데 있어서 한계가 있다고 지적하였다.

감시영역을 분석하여 CCTV를 효율적으로 활용하기 위한 연구로는 가정 및 추정된 감시영역을 기준으로 CCTV의 최적 배치를 제안하는 연구가 주로 이루어졌다(Yaagoubi et al., 2015; Heyns 2021; Fu et al., 2014). 최적 배치 연구내용은 CCTV의 설치 전에 활용할 수 있으나, 이미 설치된 CCTV의 활용성 확보에는 미비한 점이 있다. 이미 설치된 CCTV의 활용성을 증대하기 위한 연구로는 기 설치된 CCTV의 실질적인 감시영역을 확보하는 것이 필수적이라 할 수 있다. Chen et al. (2013)은 Revit Camera의 3D 가시 영역을 기반으로 BIM(Building Information Modeling)을 통해 생성된 건물 3D 모델로 인해 형성된 폐색영역을 제거하여 CCTV 가시 구역을 활성화하였다. Hong et al. (2019) 은 CCTV 카메라의 위치, 방위각, FOV(Field of View)가 포함된 데이터베이스를 구축하고, Trimble Sketchup Pro 소프트웨어를 기반으로 생성한 가상의 도시 3D 모델을 이용하여 폐색영역을 제외하여 감시영역 데이터를 구축하였다. Park et al. (2014)은 핸드폰으로 촬영한 영상과 구글의 거리뷰와 RANSAC 기반 homography 매칭을 하거나 위성 영상과 Near orthogonal plane 매칭하여 카메라의 방향정보를 추정한 후 지도 상에 감시영역을 생성하였다.

기존 연구를 살펴보면 가시영역을 생성하는데 있어서 기 설치된 카메라 센서정보를 활용하지 않고 임의의 설정된 정보를 활용하여 감시영역을 계산하고 있다. 하지만 현재 국내 설치된 CCTV의 카메라 제원은 관리되고 있지 않은 경우가 대부분이며(PARK et al. 2016), 이러한 경우 실질적인 가시영역을 생성하는 데는 한계가 있다. Kim (2021)은 카메라 내부표정요소 초기값 없이 카메라 외부표정요소와 일부 내부표정요소를 추정하는 방법론을 비교·분석하였으며, 점 기반 투시투영모델(point-based perspective projection model)이 가장 안정적인 결과를 도출하는 것을 확인하였다. 카메라 센서 파라미터를 추정하는데 있어서 정확한 지상기준점은 필수적이나, 130만 개에 달하는 국내에 설치된 모든 CCTV에 대하여 지상기준점을 취득하는데 있어서는 많은 시간과 비용이 소요된다. 신속하고 효율적으로 지상기준점을 취득하기 위해 Wang et al. (2019)와 Kim et al. (2019)은 MMS로부터 수집된 점군 데이터를 활용하였으며, Park et al. (2020)은 지상기준점으로서 MMS 데이터의 활용성을 검증하였다.

따라서, 본 연구에선 넓은 범위에 대하여 신속하게 공간정보를 취득할 수 있는 MMS와 카메라의 센서정보 없이 CCTV의 위치, FOV와 방위각을 추정할 수 있는 점 기반 투시투영모델의 도입을 통해 방대한 양의 전국 CCTV의 실질적인 감시 영역을 효율적으로 구축할 수 있는 방안에 대해 제시하고자 하였다. 이를 위하여 MMS를 통해 얻은 점군 데이터와 CCTV 영상으로부터 지상 기준점을 취득하여 외·내부표정요소 요소를 취득한 후 이를 기반으로 CCTV의 방위각, FOV를 산출하였다. 해당 정보를 기반으로 공공데이터포털에서 제공하는 건물 높이 정보를 이용하여 폐색 영역을 계산하여 실제 감시 가능한 범위를 도출한 후 그리드 단위로 이를 시각화하였다.

2. 방법론

본 연구에서는 CCTV 영상을 이용하여 지도 상에 폐색영역을 고려한 CCTV 영상의 감시영역을 시각화하기 위한 방법을 Fig. 1과 같이 제안하였다. 제안한 방법은 크게 세 단계로 구분할 수 있다. 첫째, MMS로부터 신속하고 정확하게 광범위한 연구 지역에 대한 점군 데이터를 취득한다. 둘째, MMS로부터 취득한 점군 데이터를 CCTV 영상과 대응점이 되는 점을 지상기준점을 추출한 후 Kim (2021)이 제안한 점 기반 투시투영모델을 활용하여 카메라의 위치정보, FOV, 방위각을 추정하였다. 셋째, 추정된 카메라 센서정보를 기반으로 초기 가시 영역을 다각형 폴리곤 형태로 생성하였다. 이후 DEM과 건물 높이 정보를 기반으로 폐색영역이 제거된 그리드 크기 별 CCTV 감시 영역을 생성하였다.

OGCSBN_2021_v37n5_3_1361_f0001.png 이미지

Fig. 1. Research flow of the CCTV coverage generation using MMS data.

1) 점 기반 투시투영모델

카메라 외부표정요소 및 카메라 내부표정요소를 추정하기 위해서 다양한 알고리즘이 개발되었다(Bujnak et al., 2011; Josephson and Byröd, 2009; Kukelova et al., 2013; Larsson et al., 2018). 하지만, 대부분의 기하 모델은 카메라 내부표정요소에 대한 초기값을 필요로 하지만 카메라 내부표정요소 값의 초기값에 대한 정보는 일반적으로 카메라 모델별로 상의하여 카메라의 초기 센서 정보가 부재할 경우에는 적용에 한계가 있다. 이에 본 연구에선 Kim (2021)이 제안한 7개 이상의 지상기준점을 기반으로 한 투영모델에 특이값 분해(Singular Value Decomposition)를 도입하여 외부표정요소를 얻을 수 있는 기하 모델을 적용하였다. 식 (1)은 점 기반 투시투영모델의 기본 식으로 영상 좌표와 절대 좌표의 관계를 방사 왜곡 모델을 통해 수식으로 나타낸 것이다 (Fitzgibbon, 2001).

\(\lambda x_{l, j}=\left[\begin{array}{cccc} r_{11} & r_{12} & r_{13} & r_{14} \\ r_{21} & r_{22} & r_{23} & r_{24} \\ w r_{31} & w r_{32} & w r_{33} & w r_{34} \end{array}\right] X_{l, j}, w=\frac{1}{f}\)       (1)

대칭 매개변수는 0, 픽셀 비율은 1, 원점은 0으로 가정하고, 접선 왜곡 매개변수는 영향이 거의 없다고 가정하며 XI,j와 xI,j는 각각 절대좌표와, 이미지좌표를 나타내며 λ는 스케일 요소를 나타내고, f는 초점거리를 나타낸다(Hartley and Zisserman, 2004). 이를 동차좌표계(Homogeneous Coordinate)를 통해 나타낸다(Jeong et al. 2008).

식 (1) 양변에 벡터 x의 비대칭 행렬을 곱하고 방사 왜곡 매개변수를 도입하여 식 (2)의 세 번째 행을 통해서 보면 식 (3)과 같은 관계식을 가진다는 것을 알 수 있다(Fitzgibbon, 2001).

\(\begin{gathered} {\left[\begin{array}{ccc} 0 & & -\left(1+k_{1} r_{i}^{2}+k_{2} r_{i}^{4}+k_{3} r_{i}^{6}\right) & y_{i} \\ 1+k_{1} r_{i}^{2}+k_{2} r_{i}^{4}+k_{3} r_{i}^{6} && 0 & -x_{i} \\ -y_{i} & & x_{i} & 0 \end{array}\right]} \\ {\left[\begin{array}{cccc} r_{11} & r_{12} & r_{13} & r_{14} \\ r_{21} & r_{22} & r_{23} & r_{24} \\ w r_{31} & w r_{32} & w r_{33} & w r_{34} \end{array}\right]\left[\begin{array}{c} X_{i} \\ X_{i} \\ X_{i} \\ 1 \end{array}\right]=0} \end{gathered}\)       (2)

\(\begin{gathered} A x=\left(U \Sigma V^{T}\right) x= \\ {\left[\begin{array}{ccccc} -y_{1} X_{1}-y_{1} Y_{1}-y_{1} Z_{1}-y_{1} & x_{1} X_{1} & x_{1} Y_{1} & x_{1} Z_{1} & x_{1} \\ -y_{2} X_{2}-y_{2} Y_{2}-y_{2} Z_{2}-y_{2} & x_{2} X_{2} & x_{2} Y_{2} & x_{2} Z_{2} & x_{2} \\ \vdots & & & \\ -y_{n} X_{n}-y_{n} Y_{n}-y_{n} Z_{n}-y_{n} & x_{n} X_{n} & x_{n} Y_{n} & x_{n} Z_{n} & x_{n} \end{array}\right]\left[\begin{array}{c} p_{11} \\ p_{12} \\ p_{13} \\ p_{14} \\ p_{21} \\ p_{22} \\ p_{23} \\ p_{24} \end{array}\right]=0} \end{gathered}\)       (3)

행렬 A를 특이값 분해를 통해 분해하면 행렬 V를 통해서 식 (3)을 만족하는 벡터 x(p11, p12, …, p24)값을 얻을 수 있다(Tomasi, 2013). 방사 왜곡 계수 및 초점거리는 식 (2)의 두 번째 행을 통해서 관계식을 세운 후 LSM(Least Square Mean)을 통해서 구할 수 있다. 전체 지상기준점 중에서 최소 7개 이상으로 조합을 한 후 구성 중 지상기준점을 이미지 좌표계에 재투영하여 재투영 오차가 가장 작은 조합을 찾아 최종 투영 행렬을 결정한다.

CCTV 영상의 촬영 방향은 Fig. 2에서 볼 수 있듯이 Z축을 활용하여 확인할 수 있다. 이미지 상에서의 Z축을 점 기반 투시투영모델을 통해서 구한 회전행렬의 역행렬을 통해서 실제 좌표계에 투영시킨 후 X, Y 성분을 통해 Y축과의 각을 통해 카메라가 시야 방향의 방위각을 한다. 또한, 이전에 추정된 초점거리와 CCTV 영상의 해상도를 통해 FOV를 구하여 CCTV의 범위를 취득한다.

OGCSBN_2021_v37n5_3_1361_f0002.png 이미지

Fig. 2. The conceptual image of FOV and azimuth.

2) CCTV 실질적 감시 영역 생성

CCTV의 실질적 감시영역 계산을 위해 국토지리정보원에서 제공받은 5 m의 해상도를 가진 DEM에 국가 공간정보포털(https://www.nsdi.go.kr)에서 제공하는 공간(토지)기반의 건물 통합 정보 레이어의 높이 정보를 더하여 CCTV 감시 영역에 교차하는 부분을 확인하여 제한할 수 있는 데이터를 생성하였다.

2.1절에서 설명한 점 기반 투시투영 모델을 통해 각 CCTV의 위치, FOV, 방위각정보를 구축해 놓은 후 CCTV로부터 반경 100 m에 방위각을 중심으로 FOV 범위내에서 10°마다 포인트를 생성하고, CCTV 위치와 생성된 포인트들을 연결하여 다각형 폴리곤을 생성한다. Lim (2017)과 Lee and Lee (2005)의 연구에서 CCTV의 물체를 식별할 수 있는 반경은 100 m라고 지칭하였으며, 본 연구에서도 CCTV 가시거리를 100 m로 설정하여 분석을 수행하였다. 해당 과정은 오픈소스인 QGIS의 Python Console를 통해 자동화로 진행되도록 하였다. 폐색영역 고려 전 폴리곤을 1 m 간격 그리드 기반의 포인트로 변환하였으며, 카메라 위치로부터 각 포인트를 연결하는 선을 작성하였다(Fig. 3(a), (b)).

OGCSBN_2021_v37n5_3_1361_f0008.png 이미지

Fig. 3. (a) Grid point distribution, (b) line of sight to each grid point.

이후 건물 레이어의 각각의 건물 높이 정보를 통해 Fig. 3의 (b)에서 생성된 선과 교차를 수행하여 겹치는 포인트만 추출하는 과정을 진행한다. 가시분석 결과 Fig. 4와 같이 카메라와 건물의 높이 비교를 통해 폐색영역에 속한 포인트는 0값을 부여하고, 감시 가능 영역 내에 있는 포인트 1값을 부여하여 감시 가능한 가시영역 분석을 진행하였다(Meizhen et al., 2017). 1값을 부여받은 포인트만 버퍼 기능을 통해 그리드로 추출하여 감시 영역 폴리곤을 생성하게 된다.

OGCSBN_2021_v37n5_3_1361_f0003.png 이미지

Fig. 4. Concept of visualizing surveillance area.

3. 연구데이터 및 실험결과

1) 연구데이터

본 연구에서는 (주)스트리스에서 개발한 Insta 360, velodyne 16채널 2대, PowerPak GNSS/INS를 소형 SUV 현대 코나에 탑재한 차량플랫폼을 이용해서 점군 데이터를 구축하였다. 해당 플랫폼은 15 km/h 주행 시 10 cm 수준, 50 km/h 주행 시 30 cm 수준의 정확도를 나타낸다(MOIS, 2020). 이를 통해 얻은 데이터는 Fig. 5에 나타내었다.

OGCSBN_2021_v37n5_3_1361_f0004.png 이미지

Fig. 5. Portion of Point Cloud data acquired by MMS.

경북 울진군에서는 본 연구를 위하여 군 내에 위치한 5대의 CCTV 영상을 제공하였으며 본 연구에서는 이를 대상으로 연구를 진행하였다. MMS 플랫폼으로부터 수집한 점군 데이터와 CCTV 영상을 이용하여 지상기준점과 검사점을 추출하였다. 점 기반 투시투영모델 적용 시 사용된 각 영상의 해상도와 CCTV 영상의 정확도 평가를 위한 각 영상의 지상기준점, 검사점의 재투영오차는 Table 1에 나타내었다. 지상기준점의 평균 재투영 오차는 9.31 pixel이고, 검사점의 평균 재투영 오차는 9.88 pixel로 검사점을 재투영해도 일정한 정확도를 얻을 수 있음을 확인하였다. Fig. 6은 연구에 사용한 지상기준점과 검사점의 위치를 나타내고 있는 5개의 CCTV 중 하나의 예시이다.

Table 1. Accuracy assessment of point-based perspective projection model

OGCSBN_2021_v37n5_3_1361_t0001.png 이미지

OGCSBN_2021_v37n5_3_1361_f0005.png 이미지

Fig. 6. GCPs and check points obtained by comparing CCTV image and Point Cloud.

2) 카메라 센서 외·내부표정 요소 추정결과

점 기반 투시투영모델을 통해 추정한 카메라의 위치, 방위각, FOV는 Table 2와 같다. 공공데이터포털에서 2019년 9월 25일에 제공한 위·경도 좌표와는 약 10 m 이상의 거리 차이가 있음을 확인할 수 있다. 공공데이터 포털에 누락된 CCTV 위치정보에 대한 추정이 가능하였으며, 공공데이터포털에서 제공하는 위경도 좌표와 최대 19.31 m까지 차이가 발생하였다. 하지만, MMS를 통해 취득한 점군데이터 상의 CCTV 위치 좌표값과 취득되지 않은 CCTV 1개소를 제외하고, 다른 4개소의 위치를 점 기반 투시투영모델을 통해 추정한 위치 정보와 비교한 결과 평균 오차는 1.688 m였다. Park et al. (2020)에 의하면 MMS를 통해 지상기준점의 좌표값을 취득할 수 있을 만큼 MMS는 정확도가 높은 플랫폼이기 때문에 공공데이터포털에서 제공하는 위치 정보보다 점 기반 투시투영모델을 통해 추정한 위치 좌표값이 더 정확하다고 볼 수 있다.

Table 2. Acquired results of CCTV parameter and error

OGCSBN_2021_v37n5_3_1361_t0002.png 이미지

위치와 방향을 투영했을 때 CCTV 영상과 추론된 CCTV 외·내부표정요소를 비교한 결과 유효한 FOV와 방위각을 취득할 수 있음을 확인할 수 있었고, MMS를 통해 얻을 수 있는 점군 데이터만을 가지고, 취득한 지역 내 CCTV 감시 영역에 대한 모든 정보를 구축할 수 있음을 확인하였다. 이는 광범위하고, 제한적인 조건에서도 CCTV의 통합관리를 위한 데이터베이스를 구축하여 해당 데이터들을 충분히 활용할 수 있음을 입증한다고 할 수 있다.

3) CCTV감시 영역 생성 결과

2.2절에서 언급한 CCTV의 FOV, 방위각을 통해 가시 영역의 생성하여 QGIS 상에 폐색 영역을 고려하기 전 데이터를 업로드한 결과의 예시는 Fig. 7(a)와 같다. 참조 자료는 CCTV 영상과 MMS를 통해 얻은 점군 데이터를 비교하여 제작하였다. 점군 데이터와 CCTV 영상에서 확인할 수 있는 도로노면표시, 표지판, 건물 모서리 등의 좌표값을 기반으로 육안을 통해 CCTV의 가시영역의 참조 자료 레이어를 Fig. 7(b)와 같이 생성하고, Table 3과 같이 면적을 취득할 수 있다.

OGCSBN_2021_v37n5_3_1361_f0009.png 이미지

Fig. 7. (a) Polygon of CCTV1 before occluded, (b) Ground truth of CCTV1.

Table 3. Area of polygon before occluded and ground truth

OGCSBN_2021_v37n5_3_1361_t0003.png 이미지

본 연구에서 사용된 컴퓨터의 RAM은 32 GB, CPU는 Intel® Core™ i5-6600 CPU @3.30 GHz, 그래픽 카드는 NVDIA GeForce GTX 1050을 사용하였다. Fig. 8에 나타낸 것과 같이 그리드 한 변의 크기가 커질수록 해상도가 낮아져 겹치는 부분의 점의 개수가 줄어들어 코드를 진행하는데 소요되는 시간은 감소된다. 하지만, 해상도가 낮아질수록 단위 그리드의 크기가 증가하여 겹치는 영역의 정확도가 낮아진다. 그리드 사이즈의 크기가 2 m 이하일 경우 1분 이내로 감시 구역이 생성되었다.

OGCSBN_2021_v37n5_3_1361_f0006.png 이미지

Fig. 8. Time required by grid size.

Table 4는 CCTV와 그리드 별로 폐색영역 고려 전 가시 영역의 축소율과 참조 자료와 중첩되는 비율을 나타낸다. 그리드 사이즈가 3 m 일 경우 육안으로 취득한 실제 감시 구역의 참조 자료와 최소 70.21%에서 최대 93.82%까지 평균 80.92%의 중첩 되는 것을 통해 생성된 실질적 감시 구역 폴리곤이 유효함을 확인할 수 있으며 폐색영역이 고려될 시 가시 영역이 최대 85%까지 감소하고, 평균 68% 감소하는 것을 통해 폐색영역 고려의 필요성을 확인할 수 있다. 이를 통해 그리드의 크기가 3 m일 경우 생성하는데 소요되는 시간이 30 초 이내로 측정되고, 그리드의 크기가 1 m인 경우와 중첩되는 영역의 비율의 차이가 1% 내외로 측정되므로 가장 효율적임을 확인할 수 있다.

Table 4. Area reduction ratio and overlap ratio by grid size

OGCSBN_2021_v37n5_3_1361_t0004.png 이미지

최종적으로 Fig. 9에 나타낸 결과와 같이 취득한 CCTV의 실질적 감시 구역을 시각화하였다. 배경으로 선정된 항공사진은 국토지리정보원을 통해서 제공받았으며 공간해상도는 25 cm이고, 항공사진측량 작업규정 제56조에 따라 도화축척 1:1000인 경우 표준편차는 0.2 m, 최대 오차는 0.4 m라 명시되어 있다(Park et al., 2020). 원활한 시각적인 비교를 위해 CCTV의 실질적 감시 구역을 나타낸 폴리곤과 실제 CCTV 영상 상에서 동시에 확인할 수 있는 건물들을 CCTV의 오른쪽은 붉은색, 왼쪽은 파란색으로 육안을 통해 구분하여 도식하였다. 이를 통해 CCTV 화면에 촬영된 감시 구역상에서 겹쳐지는 부분을 확인할 수 있었다.

OGCSBN_2021_v37n5_3_1361_f0007.png 이미지

Fig. 9. Comparison of CCTV images and polygon of CCTV surveillance area.

4. 결론

CCTV는 재난모니터링 및 증거확보의 기본이 되고 있으며 재난 상황 발생 시 상황공유에 필수적인 플랫폼이다. 본 연구에서는 MMS 데이터를 기반으로 초기값 없이 정확한 CCTV 감시영역을 생성하기 위한 분석 프로세스를 제안하였다. 본 연구를 통해 다음과 같은 결과를 얻을 수 있다.

첫째, MMS를 통해 얻은 점군 데이터와 CCTV 영상을 점 기반 투시투영모델에 적용한 결과 공공데이터포털에서 제공된 CCTV 위·경도와 추정된 카메라의 위치 차이가 최대 20 m까지 발생하나 MMS를 통해 얻은 CCTV의 위치와는 약 1.688 m 차이가 난다. 이는 점 기반 투시투영모델의 정확도를 검증할 수 있으며 추가로 누락된 CCTV 정보도 확인할 수 있음을 검증한다.

둘째, 그리드 크기 3 m를 기준으로 중첩영역과 면적 감소율을 평가하였을 때, 소요시간은 약 26 초 였으며 중첩되는 넓이는 평균 약 81%임을 통해 유효한 감시 구역을 생성하였고, 폐색 영역 고려 시 평균 약 68% 줄어드는 것을 확인할 수 있다.

따라서, 신속하게 넓은 범위를 스캔할 수 있는 MMS 통해 카메라 내부표정요소의 초기값 없이 CCTV 감시 영역을 생성함으로써 GIS 상황관리시스템에 CCTV 감시 영역 데이터베이스를 구축할 수 있었다. 본 연구를 통하여 구축된 감시 영역을 활용하면 재난과 같은 정부에서 종합적으로 대응해야 할 상황 발생 시 발생 신속하게 확인할 수 있을 것이다. 현재 본 연구에서는 수평 FOV만을 고려하여 CCTV 감시 영역을 계산하였지만 수직 FOV를 추가로 고려한다면 더 정확한 CCTV 감시 영역을 표출할 수 있을 것이다.

사사

본 연구는 행정안전부 재난안전 산업육성지원 사업 (No.20009742)의 지원을 받아 수행된 연구이며 이에 감사드립니다.

References

  1. Aguado, M., E. Jacob, J. Matias, C. Conde, and M. Berbineau, 2009. Deploying CCTV as an ethernet service over the WiMAX mobile network in the public transport scenario, Proc. of 2009 IEEE International Conference on Communications Workshops, Dresden, DE, Jun. 14-18, pp.1-5.
  2. Bujnak, M., Z. Kukelova, and T. Pajdla, 2011. New efficient solution to the absolute pose problem for camera with unknown focal length and radial distortion, Proc. of Asian Conference on Computer Vision, Queenstown, NZ, Nov. 8-12, vol. 10, pp. 11-24.
  3. Chen, H.T., S.W. Wu, and S.H. Hsieh, 2013. Visualization of CCTV coverage in public building space using BIM technology, Visualization in Engineering, 1: 5. https://doi.org/10.1186/2213-7459-1-5
  4. Fitzgibbon, A.W., 2001. Simultaneous linear estimation of multiple view geometry and lens distortion, Proc. of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Kauai, HI, USA, Dec. 8-14, vol. 1, pp. 125-132.
  5. Fu, Y.G., J. Zhou, and L. Deng, 2014. Surveillance of a 2D plane area with 3D deployed cameras, Sensors, 14(2): 1988-2011. https://doi.org/10.3390/s140201988
  6. Hartley, R. and A. Zisserman, 2004. Multiple View Geometry in Computer Vision, University of Cambridge, Cambridge, GB.
  7. Heyns, A. M., 2021. Optimisation of surveillance camera site locations and viewing angles using a novel multi-attribute, multi-objective genetic algorithm: A day/night anti-poaching application, Computers, Environment and Urban Systems, 88: 101638. https://doi.org/10.1016/j.compenvurbsys.2021.101638
  8. Hong, J.H., Y.H. Lu, and C.H. Chen, 2019. The use of CCTV in the emergency response: A 3D GIS perspective, International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 42(4): 19-25. https://doi.org/10.5194/isprs-archives-XLII-4-W15-19-2019
  9. Jeong, S.S., J. Heo, and S.K. Woo, 2008. Empirical modeling of lens distortion in change of focal length, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 26(1): 93-100 (in Korean with English abstract).
  10. Josephson, K. and M. Byrod, 2009. Pose estimation with radial distortion and unknown focal length, Proc. of 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, Jun. 20-25, pp. 2419-2426.
  11. Kim, K.B., G.M. Geum, and C.B. Jang, 2017. Research on the Convergence of CCTV Video Information with Disaster Recognition and Real-time Crisis Response System, Journal of the Korea Convergence Society, 8(3): 15-22 (in Korean with English abstract). https://doi.org/10.15207/JKCS.2017.8.3.015
  12. Kim, N.H., 2021. Absolute Position / Orientation Estimation and Calibration Models Without Initial Information for Smart City Sensors (Ph. D dissertation), Yonsei Universitiy, Seoul, KR.
  13. Kim, N.H., J.S. Lee, J.S. Bae, and H.G. Sohn, 2019. Comparative analysis of exterior orientation parameters of smartphone images using quaternion-based SPR and PNP algorithms, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(6): 465-472 (in Korean with English abstract). https://doi.org/10.7848/KSGPC.2019.37.6.465
  14. Kukelova, Z., M. Bujnak, and T. Pajdla, 2013. Real-time solution to the absolute pose problem with unknown radial distortion and focal length, Proc. of the IEEE International Conference on Computer Vision, Sydney, NSW, AU, Dec. 1-8, vol. 1, pp. 2816-2823.
  15. Larsson, V., Z. Kukelova, and Y. Zheng, 2018. Camera Pose Estimation with Unknown Principal Point, Proc. of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Salt Lake City, UT, Jun. 18-23, vol. 1, pp. 2984-2992.
  16. Lee, S.W. and S.C. Lee, 2005. A Study on the Problems in the Use of CCTV by the Police and Some Proposals, Korean Security Journal, (10): 215-242 (in Korean with English abstract).
  17. Lim. H. J., 2017. The Crime-reduction Effects of Open-Street CCTV around Elementary Schools, Korean Security Journal, (51): 199-219 (in Korean with English abstract).
  18. Meizhen, W., X. Liu, Z. Yanan, and W. Ziran, 2017. Camera coverage estimation based on multistage grid subdivision, ISPRS International Journal of Geo-Information, 6(4): 110. https://doi.org/10.3390/ijgi6040110
  19. MOIS, 2020. Annual Performance Report of development of continuous disaster awareness and risk monitoring technology using multi-channel imagery information derived from satellites, UAVs and other sources, Ministry of the Interior and Safety, Sejong, KR.
  20. MOLIT (Ministry of Land, Infrastructure and Transport), 2019. The Third Smart City Comprehensive Plan (2019~2023), Ministry of Land, Infrastructure and Transport, Sejong, KR.
  21. NDMI (National Disaster Management Research Institute), 2019. Development of GIS-based Disaster Situation Recognition Technology, National Disaster Management Research Institute, Ulsan, KR.
  22. PARK, J.W., S.H. LEE, and K.W. NAM, 2016. Study on the Standardization of Management Form through Integrated Management of CCTV, Journal of the Korean Association of Geographic Information Studies, 19(2): 63-72 (in Korean with English abstract). https://doi.org/10.11108/KAGIS.2016.19.2.063
  23. Park, M., J. Luo, R.T. Collins, and Y. Liu, 2014. Estimating the camera direction of a geotagged image using reference images, Pattern Recognition, 47(9): 2880-2893. https://doi.org/10.1016/j.patcog.2014.03.002
  24. Park, S.Y., Y.J. Choi, J.S. Bae, S.H. Hong, and H.G. Sohn, 2020. Three-dimensional positional accuracy analysis of uav imagery using ground control points acquired from multisource geospatial data, Korean Journal of Remote Sensing, 36(5): 1013-1025 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.5.3.2
  25. Tomasi, C., 2013. Orthogonal Matrices and the Singular Value Decomposition, Duke University: 1-12.
  26. Wang, Y.H., S.H. Hong, J.S. Bae, Y.J. Choi, and H.G Sohn, 2019. Updating Smartphone's Exterior Orientation Parameters by Image-based Localization Method Using Geo-tagged Image Datasets and 3D Point Cloud as References, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(5): 331-341. https://doi.org/10.7848/ksgpc.2019.37.5.331
  27. Yaagoubi, R., M.E. Yarmani, A. Kamel, and W. Khemiri, 2015. HybVOR: A voronoi-based 3D GIS approach for camera surveillance network placement, ISPRS International Journal of Geo-Information, 4(2): 754-782. https://doi.org/10.3390/ijgi4020754