• 제목/요약/키워드: World-View 2 images

검색결과 41건 처리시간 0.031초

공간정보를 이용한 옥상녹화 가용면적 추정 (Estimation of the Available Green Roof Area using Geo-Spatial Data)

  • 안지연;정태웅;구지희
    • 한국환경복원기술학회지
    • /
    • 제19권5호
    • /
    • pp.11-17
    • /
    • 2016
  • The purposes of this research are to estimate area of greenable roof and to monitor maintaining of green roofs using World-View 2 images. The contents of this research are development of World-View 2 application technologies for estimation of green roof area and development of monitoring and maintaining of green roofs using World-View 2 images. The available green roof areas in Gwangjin-gu Seoul, a case for this study, were estimated using digital maps and World-View 2 images. The available green roof area is approximately 12.17% ($2,153,700m^2$) of the total area, and the roof vegetation accounts for 0.46% ($80,660m^2$) of the total area. For verification of the extracted roof vegetation, Vworld 3D Desktop map service was applied. The study results may be used as a decision-making tool by the government and local governments in determining the feasibility of green roof projects. In addition, the project implementer may periodically monitor to see whether roof greening has maintained for efficient management of projects, and a vast amount of World-View 2 images may be regularly used before and after the projects to contribute to sharing of satellite images information.

자유시점 TV를 위한 다시점 비디오의 계층적 깊이 영상 표현과 H.264 부호화 (Layered Depth Image Representation And H.264 Encoding of Multi-view video For Free viewpoint TV)

  • 신종홍
    • 디지털산업정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.91-100
    • /
    • 2011
  • Free viewpoint TV can provide multi-angle view point images for viewer needs. In the real world, But all angle view point images can not be captured by camera. Only a few any angle view point images are captured by each camera. Group of the captured images is called multi-view image. Therefore free viewpoint TV wants to production of virtual sub angle view point images form captured any angle view point images. Interpolation methods are known of this problem general solution. To product interpolated view point image of correct angle need to depth image of multi-view image. Unfortunately, multi-view video including depth image is necessary to develop a new compression encoding technique for storage and transmission because of a huge amount of data. Layered depth image is an efficient representation method of multi-view video data. This method makes a data structure that is synthesis of multi-view color and depth image. This paper proposed enhanced compression method using layered depth image representation and H.264/AVC video coding technology. In experimental results, confirmed high compression performance and good quality reconstructed image.

WorldView-2 pan-sharpening by minimization of spectral distortion with least squares

  • Choi, Myung-Jin
    • 대한원격탐사학회지
    • /
    • 제27권3호
    • /
    • pp.353-357
    • /
    • 2011
  • Although the intensity-hue-saturation (IHS) method for pan-sharpening has a spectral distortion problem, it is a popular method in the remote sensing community and has been used as a standard procedure in many commercial packages due to its fast computing and easy implementation. Recently, IHS-like approaches have tried to overcome the spectral distortion problem inherited from the IHS method itself and yielded a good result. In this paper, a similar IHS-like method with least squares for WorldView-2 pan-sharpening is presented. In particular, unlike the previous methods with three or four-band multispectral images for pan-sharpening, six bands of WorldView-2 multispectral image located within the range of panchromatic spectral radiance responses are considered in order to reduce the spectral distortion during the merging process. As a result, the new approach provides a satisfactory result, both visually and quantitatively. Furthermore, this shows great value in spectral fidelity of WorldView-2 eight-band multispectral imagery.

Accuracy Comparison of TOA and TOC Reflectance Products of KOMPSAT-3, WorldView-2 and Pléiades-1A Image Sets Using RadCalNet BTCN and BSCN Data

  • Kim, Kwangseob;Lee, Kiwon
    • 대한원격탐사학회지
    • /
    • 제38권1호
    • /
    • pp.21-32
    • /
    • 2022
  • The importance of the classical theme of how the Top-of-Atmosphere (TOA) and Top-of-Canopy (TOC) reflectance of high-resolution satellite images match the actual atmospheric reflectance and surface reflectance has been emphasized. Based on the Radiometric Calibration Network (RadCalNet) BTCN and BSCN data, this study compared the accuracy of TOA and TOC reflectance products of the currently available optical satellites, including KOMPSAT-3, WorldView-2, and Pléiades-1A image sets calculated using the absolute atmospheric correction function of the Orfeo Toolbox (OTB) tool. The comparison experiment used data in 2018 and 2019, and the Landsat-8 image sets from the same period were applied together. The experiment results showed that the product of TOA and TOC reflectance obtained from the three sets of images were highly consistent with RadCalNet data. It implies that any imagery may be applied when high-resolution reflectance products are required for a certain application. Meanwhile, the processed results of the OTB tool and those by the Apparent Reflection method of another tool for WorldView-2 images were nearly identical. However, in some cases, the reflectance products of Landsat-8 images provided by USGS sometimes showed relatively low consistency than those computed by the OTB tool, with the reference of RadCalNet BTCN and BSCN data. Continuous experiments on active vegetation areas in addition to the RadCalNet sites are necessary to obtain generalized results.

고해상도 위성영상 GeoEye-1과 WorldView-2의 RPC 블록조정모델 정확도 분석 (Accuracy Investigation of RPC-based Block Adjustment Using High Resolution Satellite Images GeoEye-1 and WorldView-2)

  • 최선용;강준묵
    • 한국측량학회지
    • /
    • 제30권2호
    • /
    • pp.107-116
    • /
    • 2012
  • 본 논문에서는 서로 다른 두 종류의 위성센서로부터 획득한 네 개의 고해상도 위성영상에 대해 영상과 함께 제공되는 RPC 기반의 블록조정 모델을 구성하고 3차원 위치결정 정확도를 분석하였다. 실험자료로는 In-track 입체영상 획득방법으로 촬영된 두 개의 GeoEye-1 및 WorldView-2 입체 영상쌍과 DGPS 측량성과를 활용하였다. RPC 블록조정 모델 알고리즘을 이용하여 동종(同種) 영상으로 구성한 두 개의 입체영상 모델 및 이종(異種) 영상으로 구성한 네 개의 입체영상 모델과 세 개의 삼중영상 모델 및 하나의 사중영상 모델의 정확도를 분석하였다. 각 모델의 정확도는 유사하게 나타났으며, 지상기준점을 사용하지 않을 경우 CEP(90) 2.3m, LEP(90) 2.5m, 하나의 지상 기준점을 사용하였을 경우 CEP(90) 0.3m, LEP(90) 0.5m를 나타냈다.

COSMO-SkyMed 2 Image Color Mapping Using Random Forest Regression

  • Seo, Dae Kyo;Kim, Yong Hyun;Eo, Yang Dam;Park, Wan Yong
    • 한국측량학회지
    • /
    • 제35권4호
    • /
    • pp.319-326
    • /
    • 2017
  • SAR (Synthetic aperture radar) images are less affected by the weather compared to optical images and can be obtained at any time of the day. Therefore, SAR images are being actively utilized for military applications and natural disasters. However, because SAR data are in grayscale, it is difficult to perform visual analysis and to decipher details. In this study, we propose a color mapping method using RF (random forest) regression for enhancing the visual decipherability of SAR images. COSMO-SkyMed 2 and WorldView-3 images were obtained for the same area and RF regression was used to establish color configurations for performing color mapping. The results were compared with image fusion, a traditional color mapping method. The UIQI (universal image quality index), the SSIM (structural similarity) index, and CC (correlation coefficients) were used to evaluate the image quality. The color-mapped image based on the RF regression had a significantly higher quality than the images derived from the other methods. From the experimental result, the use of color mapping based on the RF regression for SAR images was confirmed.

고해상 광학센서의 스펙트럼 응답에 따른 영상융합 기법 비교분석 (Comparative Analysis of Image Fusion Methods According to Spectral Responses of High-Resolution Optical Sensors)

  • 이하성;오관영;정형섭
    • 대한원격탐사학회지
    • /
    • 제30권2호
    • /
    • pp.227-239
    • /
    • 2014
  • 본 연구는 서로 다른 센서 특성을 지닌 KOMPSAT-2, QuickBird 및 WorldView-2 고해상도 위성영상에 영상융합기법을 적용하여 그 결과를 비교평가 하는 것이다. 사용된 기법은 대표적인 CS 기반 융합기법인 GIHS, GIHSA, GS1 및 Adaptive IHS를 사용하였다. 영상융합 기법의 품질평가는 시각적 분석과 정량적 분석을 수행하였으며, 정량적 분석에는 SAM, Spectral ERGAS 및 Q4을 사용하였다. KOMPSAT-2 영상은 GHISA 기법의 경우 상대적으로 우수한 성능을 나타내는 반면, QuickBird와 WorldView-2영상은 GS1기법의 경우에 우수한 성능을 나타낸다.

웹 기반의 다이렉트 볼륨 렌더링 View 프로그램의 설계 및 구현 (A Design and Implementation of Direct Volume Rendering View Program based on Web)

  • 윤요섭;윤가림;김영봉
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.402-407
    • /
    • 2004
  • 인터넷은 사용이 매우 간편한 도구인 월드와이드웹의 등장으로 인하여 가장 독보적이면서도 강력한 지원을 제공하는 세계에서 가장 간편한 네트워크 자원이 되었다. 더 나아가 정적인 2차원을 넘어서 3차원 View 웹 서비스와 같은 동적인 서비스를 제공하는 많은 방법들이 제시되었다. 본 논문에서는 MRI, CT, PET 같은 2차원 의료 영상을 쌓아 만든 3차원 데이터를 웹에서 인터액티브하게 가시화 하는 볼륨 렌더링 View 프로그램을 제시할 것이다. 이를 위해 우리는 COM기술을 바탕으로 하는 ActiveX 컴포넌트인 OCX 컨트롤로 만들어 웹 페이지에서 실현 가능하도록 하였다. 또한 인터넷만 있으면 쉽게 원격에서도 3차원 가시화를 통한 영상 분석을 할 수 있는 기능을 제공하여 질병의 진단에 크게 기여 할 것으로 기대된다.

  • PDF

손실함수의 특성에 따른 UNet++ 모델에 의한 변화탐지 결과 분석 (Analysis of Change Detection Results by UNet++ Models According to the Characteristics of Loss Function)

  • 정미라;최호성;최재완
    • 대한원격탐사학회지
    • /
    • 제36권5_2호
    • /
    • pp.929-937
    • /
    • 2020
  • 본 논문에서는 의미론적 분할을 위한 딥러닝 기술 중의 하나인 UNet++ 모델을 이용하여 다시기 위성영상의 변화지역을 탐지하고자 하였다. 다양한 손실함수에 대한 학습결과를 분석하기 위하여, 이진 교차 엔트로피, 자카드 변수에 의하여 학습된 UNet++ 모델에 의한 변화탐지 결과를 평가하였다. 또한, 딥러닝 모델의 결과는 WorldView-3 위성영상을 활용하여 기존의 화소기반 변화탐지 기법의 결과와 비교하여 평가하였다. 실험결과, 손실함수의 특성에 따라서 딥러닝 모델의 성능이 달라질 수 있음을 확인하였으나, 기존 기법들과 비교하여 우수한 결과를 나타내는 것도 확인하였다.

구형 물체를 이용한 다중 RGB-D 카메라의 간편한 시점보정 (Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object)

  • 박순용;최성인
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권8호
    • /
    • pp.309-314
    • /
    • 2014
  • 물체의 360도 방향에서 다수의 RGB-D(RGB-Depth) 카메라를 이용하여 깊이영상을 획득하고 3차원 모델을 생성하기 위해서는 RGB-D 카메라 간의 3차원 변환관계를 구하여야 한다. 본 논문에서는 구형 물체를 이용하여 4대의 RGB-D 카메라 사이의 변환관계를 간편하게 구할 수 있는 시점보정(view calibration) 방법을 제안한다. 기존의 시점보정 방법들은 평면 형태의 체크보드나 코드화된 패턴을 가진 3차원 물체를 주로 사용함으로써 패턴의 특징이나 코드를 추출하고 정합하는 작업에 상당한 시간이 걸린다. 본 논문에서는 구형 물체의 깊이영상과 사진영상을 동시에 사용하여 간편하게 시점을 보정할 수 있는 방법을 제안한다. 우선 하나의 구를 모델링 공간에서 연속적으로 움직이는 동안 모든 RGB-D 카메라에서 구의 깊이영상과 사진영상을 동시에 획득한다. 다음으로 각 RGB-D 카메라의 좌표계에서 획득한 구의 3차원 중심좌표를 월드좌표계에서 일치되도록 각 카메라의 외부변수를 보정한다.