• 제목/요약/키워드: pixel

검색결과 3,977건 처리시간 0.034초

MMS 점군 데이터를 이용한 CCTV의 실질적 감시영역 추출 (Creation of Actual CCTV Surveillance Map Using Point Cloud Acquired by Mobile Mapping System)

  • 최원준;박소연;최윤조;홍승환;김남훈;손홍규
    • 대한원격탐사학회지
    • /
    • 제37권5_3호
    • /
    • pp.1361-1371
    • /
    • 2021
  • 스마트 시티 서비스 중 방범·방재 분야가 2018년 기준 가장 높은 24%를 차지하고 있으며, 실시간 상황정보제공에 가장 중요한 플랫폼은 CCTV(Closed-Circuit Television) 이다. 이러한 CCTV의 활용을 극대화 하기 위해서는 CCTV가 제공하는 실질적인 감시 영역을 파악하는 것이 필수적이다. 하지만 국내에 설치된 CCTV양은 지자체 관리대상 포함 100만대를 넘고 있다. 이러한 방대한 양의 CCTV의 가시영역을 수동적으로 파악해야 하는 것은 문제점으로 제기되고 있다. 이에 본 연구에서는 CCTV의 실질적 가시권 영역 데이터를 효율적으로 구축하고, 관리자가 상황 파악에 소요되는 시간을 단축하는 방안을 제시하고자 하였다. 이를 위하여 첫째, 접근이 어려운 기 설치된 CCTV 카메라의 외부표정요소와 초점 거리를 MMS(Mobile Mapping System)의 점군 데이터를 활용하여 계산하고, 이 결과를 활용하여 FOV(Field of View)를 계산하였다. 둘째, 첫 단계에서 계산된 FOV 결과를 이용하여 건물에 의하여 발생하는 폐색 영역을 고려하여 CCTV의 실질적 감시 영역을 그리드 단위 1 m, 2 m, 3 m, 5 m, 10 m 폴리곤 데이터로 구축하였다. 이 방법을 경상북도 울진군에 위치한 5개소의 CCTV 영상에 적용한 결과, 평균 재투영 오차는 약 9.31 pixel, 공공데이터포털(Data Portal)에서 제공하는 위·경도 좌표와의 거리는 평균 약 10 m의 거리 차이가 발생하였고, MMS를 통해 취득한 점군 데이터 상의 CCTV 위치 좌표 값과는 평균 약 1.688 m의 위치 차이를 나타냈다. 단위 그리드의 한 변의 크기가 3 m인 경우, 본 연구를 통하여 계산된 감시 영역 폴리곤은 육안으로 확인한 실제 감시 영역과 최소 70.21%에서 최대 93.82%까지 일치함을 확인할 수 있었다.

Sentinel-2A/B 위성영상의 주기합성을 위한 구름 및 구름 그림자 탐지 기법 개발 (Development of Cloud and Shadow Detection Algorithm for Periodic Composite of Sentinel-2A/B Satellite Images)

  • 김선화;은정
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.989-998
    • /
    • 2021
  • 구름의 영향을 크게 받는 광학위성영상의 활용에 있어 일정 주기 합성은 구름의 영향을 최소화할 수 있는 유용한 방법이다. 최근 주기 합성 시 구름과 구름 그림자 정보가 직접 입력되어 일정 주기 시 두 인자의 영향을 가장 덜 받는 최적의 화소를 선택하는 기법이 제시되었다. 최적의 합성 결과를 도출하기 위해서는 구름과 구름 그림자의 정확한 추출이 필수적이다. 또한 농작물과 같이 분광정보가 중요한 대상의 경우 주기 합성 시 분광정보의 손실이 최소화되어야 한다. 본 연구에서는 구름과 구름 그림자의 높은 탐지정확도를 유지하면서 분광정보의 손실이 적은 탐지 기법을 도출하기 위해, 강원도 고랭지 배추밭을 대상으로 두 분광척도(Haze Optimized Tranformation; HOT, MeanVis)를 이용한 방법과 Sentinel-2A/B에서 제공되는 구름 정보를 비교 분석하였다. 2019년~2021년까지 자료를 분석한 결과 Sentinel-2A/B위성의 구름 정보는 F1값이 0.91인 탐지 정확도를 보이나, 밝은 인공물이 구름으로 오탐지되었다. 이에 비해 HOT에 임계치(=0.05)를 적용해 획득한 구름 탐지 결과는 상대적으로 낮은 탐지 정확도(F1=0.72)를 보였으나, 오탐지가 적어 분광정보의 손실을 최소화하였다. 구름 그림자의 경우, Sentinel-2A/B 부가 레이어에서는 최소한의 그림자만이 탐지된 결과를 볼 수 있었으나, MeanVis에 임계치(= 0.015)를 적용했을 시 지형적으로 발생한 그림자와 구별 가능한 구름 그림자만을 탐지할 수 있었다. 분광척도 기반 구름 및 그림자 정보를 입력해 안정된 월별 합성된 식생지수결과를 획득하였으며, 향후 Sentinel-2A/B의 높은 정확도의 구름 정보를 주기 합성에 입력해 비교할 예정이다.

동아시아 지역의 위성 구름탐지 산출물 상호 비교를 통한 품질 평가 (Quality Evaluation through Inter-Comparison of Satellite Cloud Detection Products in East Asia)

  • 변유경;최성원;진동현;성노훈;정대성;심수영;우종호;전우진;한경수
    • 대한원격탐사학회지
    • /
    • 제37권6_2호
    • /
    • pp.1829-1836
    • /
    • 2021
  • 구름탐지란 위성영상내의 픽셀 혹은 화소에서의 구름 유무를 결정하는 것을 의미하며 해당 위성영상의 활용성과 정확도에 영향을 미치는 중요한 요소로 작용한다. 본 연구에서는 구름탐지 자료를 제공해주는 여러 선진기관들의 위성 중에서, GK-2A(GeoKompsat-2A)/AMI(Advanced Meteorological Imager)와 Terra(Earth Observation System-Terra)/MODIS(Moderate-Resolution Imaging Spectroradiometer), Suomi-NPP(The Suomi National Polar-orbiting Partnership)/VIIRS(Visible Infrared Imaging Radiometer Suite)의 구름탐지 자료의 차이에 대해서 정량적 및 정성적으로 비교 분석을 수행하고자 한다. 정량적으로 비교한 결과 1월의 Proportion Correct(PC)지수 값이 GK-2A & MODIS가 74.16%, GK-2A & VIIRS가 75.39%를 나타냈으며 4월의 GK-2A & MODIS는 87.35%, GK-2A & VIIRS는 87.71%로 4월이 1월보다 위성별로 큰 차이 없이 구름을 탐지한 것으로 나타났다. 정성적 비교 결과는 RGB영상과 비교하였을 때, 앞선 정량적 결과들의 경향과 동일하게 1월보다 4월에 해당하는 결과들이 구름을 잘 탐지한 것을 확인할 수 있었으나 얇은 구름이나 적설이 존재하는 경우에는 위성별로 구름탐지 결과에 다소 차이가 존재하였다.

영상품질별 학습기반 알고리즘 폐색영역 객체 검출 능력 분석 (Detection Ability of Occlusion Object in Deep Learning Algorithm depending on Image Qualities)

  • 이정민;함건우;배경호;박홍기
    • 한국지리정보학회지
    • /
    • 제22권3호
    • /
    • pp.82-98
    • /
    • 2019
  • 정보화 사회로 진입하면서 공간정보의 중요성은 급격하게 부각되고 있다. 특히 스마트시티, 디지털트윈과 같은 Real World Object의 3차원 공간정보 구축 및 모델링은 중요한 핵심기술로 자리매김하고 있다. 구축된 3차원 공간정보는 국토관리, 경관분석, 환경 및 복지 서비스 등 다양한 분야에서 활용된다. 영상기반의 3차원 모델링은 객체 벽면에 대한 텍스처링을 생성하여 객체의 가시성과 현실성을 높이고 있다. 하지만 이러한 텍스처링은 영상 취득 당시의 가로수, 인접 객체, 차량, 현수막 등의 물리적 적치물에 의해 필연적으로 폐색영역이 발생한다. 이러한 폐색영역은 구축된 3차원 모델링의 현실성과 정확성 저하의 주요원인이다. 폐색영역 해결을 위한 다양한 연구가 수행되고 있으며, 딥러닝을 이용한 폐색영역 검출 및 해결방안에 대한 연구가 수행되고 있다. 딥러닝 알고리즘 적용한 폐색영역 검출 및 해결을 위해서는 충분한 학습 데이터가 필요하며, 수집된 학습 데이터 품질은 딥러닝의 성능 및 결과에 직접적인 영향을 미친다. 따라서 본 연구에서는 이러한 학습 데이터의 품질에 따라 딥러닝의 성능 및 결과를 확인하기 위하여 다양한 영상품질을 이용하여 영상의 폐색영역 검출 능력을 분석하였다. 폐색을 유발하는 객체가 포함된 영상을 인위적이고 정량화된 영상품질별로 생성하여 구현된 딥러닝 알고리즘에 적용하였다. 연구결과, 밝기값 조절 영상품질은 밝은 영상일수록 0.56 검출비율로 낮게 나타났고 픽셀크기와 인위적 노이즈 조절 영상품질은 원본영상에서 중간단계의 비율로 조절된 영상부터 결과 검출비율이 급격히 낮아지는 것을 확인할 수 있었다. F-measure 성능평가 방법에서 노이즈 조절한 영상품질 변화가 0.53으로 가장 높게 나타났다. 연구결과로 획득된 영상품질별에 따른 폐색영역 검출 능력은 향후 딥러닝을 실제 적용을 위한 귀중한 기준으로 활용될 것이다. 영상 취득 단계에서 일정 수준의 영상 취득과 노이즈, 밝기값, 픽셀크기 등에 대한 기준을 마련함으로써 딥러닝을 실질적인 적용에 많은 기여가 예상된다.

효율적 의료영상정보교류를 위한 프로토콜 제안: 유방자기공명영상 (Suggested Protocol for Efficient Medical Image Information Exchange in Korea: Breast MRI)

  • 박지희;최선형;김성준;용환석;우현식;진광남;정우경;신나영;최문형;정승은
    • 대한영상의학회지
    • /
    • 제79권5호
    • /
    • pp.254-258
    • /
    • 2018
  • 목적: 보건의료정보화를 위한 진료정보교류 기반 구축 및 활성화 과제의 일부인 의료영상정보교류의 효용성을 높이기 위한 영상 품질 기준 연구에서 유방 자기공명영상검사의 적절한 프로토콜을 정립한다. 대상과 방법: 문헌 및 참고자료를 통한 국내외 유방 자기공명영상검사의 권고 프로토콜과 판독문 형식을 조사하고, 책임연구자가 설문지를 작성한 후, 국내 9명의 유방영상의학 전문가를 섭외하여 패널을 구성하였다. 전문가 패널은 총 3차례의 델파이 합의를 진행하여 유방자기공명영상 프로토콜의 합의안을 도출하였다. 결과: 합의된 유방자기공명영상 권고 프로토콜은 1.5 테슬라 이상의 기기로 유방 전용 코일을 사용하여 복와위 자세에서 영상을 획득하며, T2 강조영상과 조영 전 T1 강조영상을 포함한다. 조영증강영상은 적어도 2차례 이상 획득하며, 60~120초 사이 영상과 4분 이후 영상을 포함한다. 또한 조영증강 T1 강조영상의 절편 두께는 3 mm 이하, 측면 해상력은 120초 이하, 공간 내 평면 해상도는 $1.5mm^2$ 이하여야 한다. 결론: 국내 유방영상전문가 집단의 3차례에 걸친 델파이 합의를 통하여 효율적인 유방 자기공명영상검사의 검사 프로토콜 권고안을 정립하였다.

우리나라에서 AERONET 태양광도계 자료를 이용한 다종위성 AOD 산출물 비교평가: MODIS, VIIRS, Himawari-8, Sentinel-3의 사례연구 (A Comparison between Multiple Satellite AOD Products Using AERONET Sun Photometer Observations in South Korea: Case Study of MODIS,VIIRS, Himawari-8, and Sentinel-3)

  • 김서연;정예민;윤유정;조수빈;강종구;김근아;이양원
    • 대한원격탐사학회지
    • /
    • 제37권3호
    • /
    • pp.543-557
    • /
    • 2021
  • 에어로솔은 입자의 크기와 조성 및 관측센서에 따라 상이한 분광특성을 보이기 때문에, 다양한 센서의 에어로솔 산출물에 대한 비교분석이 반드시 필요하다. 그러나, 우리나라에서 다종위성의 공식적인 AOD (Aerosol Optical Depth) 산출물을 대상으로 수년간의 자료를 수집하여 정확도 비교평가를 수행한 사례는 아직 보고된 바가 없다. 이에, 본 연구에서는 2015년 1월부터 2019년 12월까지 MODIS (Moderate Resolution Imaging Spectroradiometer), VIIRS (Visible Infrared Imaging Radiometer Suite), Himawari-8, Sentinel-3 AOD 산출물과 AERONET (Aerosol Robotic Network) 지상 태양광도계 자료의 비교분석을 통하여 위성 AOD의 성능을 평가하고, 계절적 및 지리적 차이에 따른 정확도 특성을 분석하였다. 오랜 기간 축적되어온 산출 기술에 MAIAC (Multiangle Implementation of Atmospheric Correction) 알고리듬을 추가하여 최적화된 MODIS 산출물이 가장 높은 정확도를 나타냈고(CC=0.836), VIIRS와 Himawari-8이 그보다 약간 낮은 정도의 성능을 보였으며, Sentinel-3는 비교적 최근에 발사되어 알고리듬 최적화가 아직 덜 이루어진 관계로 정확도가 낮게 나타났다. MODIS, VIIRS, Himawari-8 AOD 산출물은 계절에 따라, 그리고 도시/비도시에 따라 별다른 정확도 차이를 보이지는 않았지만, 일부 해안지역에서는 혼합화소 문제로 인하여 약간 정확도가 떨어지는 경우도 존재했다. AOD는 위성영상 대기보정의 핵심 인자이기 때문에, 본 연구의 AOD 비교평가는 향후 국토위성, 농림위성 등의 대기보정 연구에도 중요한 참고자료가 될 것으로 사료된다.

조선후기 문학작품의 지옥 형상화와 그 성격 (Hell Formation and Character of Literary Works of the Late Joseon Dynasty)

  • 김기종
    • 동양고전연구
    • /
    • 제66호
    • /
    • pp.129-162
    • /
    • 2017
  • 이 글은 '저승길' '심판' '징벌'의 지옥 관련 화소를 포함하고 있는 조선후기 문학작품을 대상으로, 지옥 형상화의 양상과 그 성격에 대해 살펴보았다. <인과문> <권왕가> 등의 불교가사는 지옥에서의 징벌 양상을 상세하게 묘사하고 있으며, 징벌의 이유로 살생 망어 음주 사견 등의 5악 내지 10악을 제시하고 있다. 이들 가사에 나타난 '지옥'은 '불전 속의 지옥'과 큰 차이가 없다. '회심곡'의 경우는 시왕의 심판을 받는 죄인을 남자와 여자로 구분한 뒤, 남자에게는 선행의 덕목을, 여자에게는 악행의 항목을 제시하고 있다. 선행의 덕목과 악행의 항목들에는 불교적 윤리 규범과, '삼강오륜'을 포함한 유교적 윤리 규범이 공존하고 있다. 지옥 관련 야담과 한글소설은 징벌의 양상 및 그 이유가 작품에 따라 조금씩 차이가 있지만, 지옥행의 원인을 통해 '삼강오륜'을 중심으로 한 윤리적 덕목들을 강조하고 있는 공통점을 보인다. 그리고 대체로 지옥행의 원인에 비해 지옥의 징벌 화소가 축소되어 나타나 있다. 이러한 특징은 지옥 관련 조선후기 문학작품이 지옥의 고통을 환기시켜 불도수행에 힘쓸 것을 권하기보다는, 일반 대중에게 익숙한 '지옥 관념'을 활용하여 일상생활에서 지켜야 하는 윤리적 덕목들을 제공 또는 교육시키는데에 주된 목적이 있었음을 보여준다. 유교적 윤리 규범의 강조는 지옥 관련 문학작품에만 국한되는 현상은 아니다. 이들 작품이 창작 유통된 19세기에는 유교적 윤리 규범을 강조하는 교화서 교훈가사 권선서의 찬술 및 간행이 급증하고 있는 것이다. 이와 같은 유교적 윤리의식의 고양 내지 강화는 삼정(三政)의 문란, 잦은 민란의 발생, 천주교의 교세 확장 등 기존 체제를 위협하는 사회적 혼란에 대한 19세기 조선사회의 위기의식에서 기인한 것이라 할 수 있다. 특히 조선후기 지옥 관련 문학작품의 창작 유통은 천주교의 유포 및 확산과 관련이 있다. 당시의 일반 대중들 사이에서 천주교가 널리 확산되었던 이유 중의 하나는 '천당 지옥설'이었고, 집권층 및 유가 지식인들의 주요 공격 대상이 되었던 천주교의 교리 또한 천당 지옥설이었기 때문이다. 결국, 조선후기 문학작품의 지옥 형상화는 19세기 조선사회가 직면했던 사회적 혼란에 대한 위기의식을 반영한 것이자, 당시 널리 확산되고 있던 천주교의 지옥설에 대한 문학적 대응의 성격을 갖는다고 할 수 있다.

기계학습을 통한 주간 반투명 구름탐지 연구: GK-2A/AMI를 이용하여 (A Study on Daytime Transparent Cloud Detection through Machine Learning: Using GK-2A/AMI)

  • 변유경;진동현;성노훈;우종호;전우진;한경수
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1181-1189
    • /
    • 2022
  • 구름은 대기 중에 떠 있는 작은 물방울이나 얼음 알갱이들 또는 혼합물 등으로 구성되며 지구 표면의 약 2/3를 덮고 있다. 위성영상내에서의 구름은 일부 다른 지상 물체 또는 지표면과 유사한 반사도 특성으로 인해 구름과 구름이 아닌 영역을 분리하는 구름탐지는 매우 어려운 작업이다. 특히 뚜렷한 특징을 가지는 두꺼운 구름과 달리 얇은 반투명 구름은 위성영상내에서 구름과 배경의 대비가 약하고 지표면과 혼합되어져 나타나기 때문에 대부분 구름탐지에서 쉽게 놓쳐지고 많은 어려움을 주는 대상으로 작용한다. 이러한 구름탐지의 반투명 구름의 한계점을 극복하기 위해, 본 연구에서는 머신러닝 기법(Random Forest [RF], Convolutional Neural Networks [CNN])을 활용하여 반투명 구름을 중점으로 한 구름탐지 연구를 수행하였다. Reference자료로는 MOderate Resolution Imaging Spectroradiometer (MODIS)에서 제공하는 MOD35자료에서 Cloud Mask와 Cirrus Mask를 활용하였으며 반투명 구름 픽셀을 고려한 모델 훈련을 위해 훈련 데이터의 픽셀 비율을 구름, 반투명 구름, 청천이 약 1:1:1이 되도록 구성하였다. 연구의 정성적 비교 결과, RF와 CNN 모두 반투명 구름을 포함한 다양한 형태의 구름 등을 잘 탐지하였고, RF 모델 결과와 CNN 모델 결과를 혼합한 RF+CNN경우에는 개별 모델의 한계점을 개선시키며 구름탐지가 잘 수행되어진 것을 확인하였다. 연구의 정량적 결과 RF의 전체 정확도(OA) 값은 92%, CNN은 94.11%를 보였고, RF+CNN은 94.29%의 정확도를 보였다.

매장 문화재 공간 분포 결정을 위한 지하투과레이더 영상 분석 자동화 기법 탐색 (Automated Analyses of Ground-Penetrating Radar Images to Determine Spatial Distribution of Buried Cultural Heritage)

  • 권문희;김승섭
    • 자원환경지질
    • /
    • 제55권5호
    • /
    • pp.551-561
    • /
    • 2022
  • 지구물리탐사기법은 매장 문화재 조사에 필요한 높은 해상도의 지하 구조 영상 생성과 매장 유구의 정확한 위치 결정하는 데 매우 유용하다. 이 연구에서는 경주 신라왕경 중심방의 고해상도 지하투과레이더 영상에서 유구의 규칙적인 배열이나 선형 구조를 자동적으로 구분하기 위하여 영상처리 기법인 영상 특징 추출과 영상분할 기법을 적용하였다. 영상 특징 추출의 대상은 유구의 원형 적심과 선형의 도로 및 담장으로 캐니 윤곽선 검출(Canny edge detection)과 허프 변환(Hough Transform) 알고리듬을 적용하였다. 캐니 윤곽선 검출 알고리듬으로 검출된 윤곽선 이미지에 허프 변환을 적용하여 유구의 위치를 탐사 영상에서 자동 결정하고자 하였으나, 탐사 지역별로 매개변수를 달리해서 적용해야 한다는 제약이 있었다. 영상 분할 기법의 경우 연결요소 분석 알고리듬과 QGIS에서 제공하는 Orfeo Toolbox (OTB)를 이용한 객체기반 영상분석을 적용하였다. 연결 요소 분석 결과에서, 유구에 의한 신호들이 연결된 요소들로 효과적으로 인식되었지만 하나의 유구가 여러 요소로 분할되어 인식되는 경우도 발생함을 확인하였다. 객체기반 영상분석에서는 평균이동(Large-Scale Mean-Shift, LSMS) 영상 분할을 적용하여 각 분할 영역에 대한 화소 정보가 포함된 벡터 레이어를 우선 생성하였고, 유구를 포함하는 영역과 포함하지 않는 영역을 선별하여 훈련 모델을 생성하였다. 이 훈련모델에 기반한 랜덤포레스트 분류기를 이용해 LSMS 영상분할 벡터 레이어에서 유구를 포함하는 영역과 그렇지 않은 영역이 자동 분류 될 수 있음을 확인하였다. 이러한 자동 분류방법을 매장 문화재 지하투과레이더 영상에 적용한다면 유구 발굴 계획에 활용가능한 일관성 있는 결과를 얻을 것으로 기대한다.

딥러닝 기반 옥수수 포장의 잡초 면적 평가 (Deep Learning Approaches for Accurate Weed Area Assessment in Maize Fields)

  • 박혁진;권동원;상완규;반호영;장성율;백재경;이윤호;임우진;서명철;조정일
    • 한국농림기상학회지
    • /
    • 제25권1호
    • /
    • pp.17-27
    • /
    • 2023
  • 포장에서 잡초의 발생은 농작물의 생산량을 크게 떨어트리는 원인 중 하나이고 SSWM을 기반으로 잡초를 변량 방제하기 위해서 잡초의 발생 위치, 밀도 그리고 이를 정량화하는 것은 필수적이다. 본 연구에서는 2020년의 국립식량과학원에서 잡초 피해를 입은 옥수수 포장의 영상데이터를 무인항공기를 활용해서 수집하였고 이를 배경과 옥수수로 분리하여 딥러닝 기반 영상 분할 모델 제작을 위한 학습데이터를 획득하였다. DeepLabV3+, U-Net, Linknet, FPN의 4가지의 영상 분할 네트워크들의 옥수수의 검출 정확도를 평가하기 위해 픽셀정확도, mIOU, 정밀도, 재현성의 지표를 활용해서 정확도를 검증하였다. 검증 결과 DeepLabV3+ 모델이 0.76으로 가장 높은 mIOU를 나타냈고, 해당 모델과 식물체의 녹색 영역과 배경을 분리하는 지수인 ExGR을 활용해서 잡초의 면적을 정량화, 시각화하였다. 이러한 연구의 결과는 무인항공기로 촬영된 영상을 활용해서 넓은 면적의 옥수수 포장에서 빠르게 잡초의 위치와 밀도를 특정하고 정량화하는 것으로 잡초의 밀도에 따른 제초제의 변량 방제를 위한 의사결정에 도움이 될 것으로 기대한다.