• 제목/요약/키워드: temporal fusion

검색결과 103건 처리시간 0.028초

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

Traffic Flow Prediction with Spatio-Temporal Information Fusion using Graph Neural Networks

  • Huijuan Ding;Giseop Noh
    • International journal of advanced smart convergence
    • /
    • 제12권4호
    • /
    • pp.88-97
    • /
    • 2023
  • Traffic flow prediction is of great significance in urban planning and traffic management. As the complexity of urban traffic increases, existing prediction methods still face challenges, especially for the fusion of spatiotemporal information and the capture of long-term dependencies. This study aims to use the fusion model of graph neural network to solve the spatio-temporal information fusion problem in traffic flow prediction. We propose a new deep learning model Spatio-Temporal Information Fusion using Graph Neural Networks (STFGNN). We use GCN module, TCN module and LSTM module alternately to carry out spatiotemporal information fusion. GCN and multi-core TCN capture the temporal and spatial dependencies of traffic flow respectively, and LSTM connects multiple fusion modules to carry out spatiotemporal information fusion. In the experimental evaluation of real traffic flow data, STFGNN showed better performance than other models.

퓨전 한식 레스토랑에 나타난 실내공간과 음식관련요소의 표현특성에 관한 연구 (A Study on Expression Characteristics of Indoor Spaces and Food related Elements in Fusion Korean Restaurants)

  • 이지현;오혜경
    • 한국식생활문화학회지
    • /
    • 제23권2호
    • /
    • pp.204-213
    • /
    • 2008
  • In this age of information ruled by new technologies and knowledge, the world is interconnected as a single community, and within this trend of globalization, new cultural codes are emerging through temporal fusion between the past and the present and spatial fusion between different regions and countries. In this situation, it seems meaningful to review Korean fusion foods and restaurants serving such foods, as well as to consider their future directions. Thus, the objective of the present study was to survey and analyze Korean fusion restaurants representing Korean culture not only in Korea, but also in foreign cities, and to identify the expression characteristics of such restaurants. Based on restaurants recommended in relevant magazines and on Internet sites, 18 spaces were selected, visited, and surveyed, in which tradition and modernism were well-mixed. Data on the shapes, materials, colors, and patterns of spatial elements and food-related elements, including photographs, were collected and analyzed. The results are as follows. Of the 18 restaurants, 13 (72%) showed temporal fusion in both spatial and food-related elements, 4 showed temporal fusion in spatial elements and cultural fusion in food-related elements, and 1 showed cultural fusion in both spatial and food-related elements. In general, the spaces were mainly designed with modern elements and partially with traditional elements (ceilings, windows, furniture, articles), and the fusion of food-related elements was made in diverse forms that included temporal fusion restructuring traditional menus contemporarily, and cultural fusion harmonizing traditional food with Western cookery.

식생 모니터링을 위한 다중 위성영상의 시공간 융합 모델 비교 (Comparison of Spatio-temporal Fusion Models of Multiple Satellite Images for Vegetation Monitoring)

  • 김예슬;박노욱
    • 대한원격탐사학회지
    • /
    • 제35권6_3호
    • /
    • pp.1209-1219
    • /
    • 2019
  • 지속적인 식생 모니터링을 위해서는 다중 위성자료의 시간 및 공간해상도의 상호 보완적 특성을 융합한 높은 시공간해상도에서의 식생지수 생성이 필요하다. 이 연구에서는 식생 모니터링에서 다중 위성자료의 시공간 융합 모델에 따른 시계열 변화 정보의 예측 정확도를 정성적, 정량적으로 분석하였다. 융합 모델로는 식생 모니터링 연구에 많이 적용되었던 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM)과 Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model(ESTARFM)을 비교하였다. 예측 정확도의 정량적 평가를 위해 시간해상도가 높은 MODIS 자료를 이용해 모의자료를 생성하고, 이를 입력자료로 사용하였다. 실험 결과, ESTARFM에서 시계열 변화 정보에 대한 예측 정확성이 STARFM보다 높은 것으로 나타났다. 그러나 예측시기와 다중 위성자료의 동시 획득시기의 차이가 커질수록 STARFM과 ESTARFM 모두 예측 정확성이 저하되었다. 이러한 결과는 예측 정확성을 향상시키기 위해서는 예측시기와 가까운 시기의 다중 위성자료를 이용해야 함을 의미한다. 광학영상의 제한적 이용을 고려한다면, 식생 모니터링을 위해 이 연구의 제안점을 반영한 개선된 시공간 융합 모델 개발이 필요하다.

고해상도 광학 위성영상을 이용한 시공간 자료 융합의 적용성 평가: KOMPSAT-3A 및 Sentinel-2 위성영상의 융합 연구 (Applicability Evaluation of Spatio-Temporal Data Fusion Using Fine-scale Optical Satellite Image: A Study on Fusion of KOMPSAT-3A and Sentinel-2 Satellite Images)

  • 김예슬;이광재;이선구
    • 대한원격탐사학회지
    • /
    • 제37권6_3호
    • /
    • pp.1931-1942
    • /
    • 2021
  • 최근 고해상도 광학 위성영상의 활용성이 강조되면서 이를 이용한 지표 모니터링 연구가 활발히 수행되고 있다. 그러나 고해상도 위성영상은 낮은 시간 해상도에서 획득되기 때문에 그 활용성에 한계가 있다. 이러한 한계를 보완하기 위해 서로 다른 시간 및 공간 해상도를 갖는 다중 위성영상을 융합해 높은 시공간 해상도의 합성 영상을 생성하는 시공간 자료 융합을 적용할 수 있다. 기존 연구에서는 중저해상도의 위성영상을 대상으로 시공간 융합 모델이 개발되어 왔기 때문에 고해상도 위성영상에 대한 기개발된 융합 모델의 적용성을 평가할 필요가 있다. 이를 위해 이 연구에서는 KOMPSAT-3A 영상과 Sentinel-2 영상을 대상으로 기개발된 시공간 융합 모델의 적용성을 평가하였다. 여기에는 예측을 위해 사용하는 정보가 다른 Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model (ESTARFM)과 Spatial Time-series Geostatistical Deconvolution/Fusion Model (STGDFM)을 적용하였다. 연구 결과, 시간적으로 연속적인 반사율 값을 결합하는 STGDFM의 예측 성능이 ESTARFM 보다 높은 것으로 나타났다. 특히 KOMPSAT 영상의 낮은 시간 해상도로 같은 시기에서 KOMPSAT 및 Sentinel-2 영상을 동시에 획득하기 어려운 경우, STGDFM의 예측 성능 향상이 더욱 크게 나타났다. 본 실험 결과를 통해 연속적인 시간 정보를 결합해 상대적으로 높은 예측 성능을 가지는 STGDFM을 이용해 낮은 재방문 주기로 인한 고해상도 위성영상의 한계를 보완할 수 있음을 확인하였다.

THE STUDY OF SPATIAL AND TEMPORAL VARIABILITY OF THE KUROSHIO EXTENSION USING REMOTE SENSING DATA WITH APPLICATION OF DATA-FUSION METHODS

  • Kim Woo-Jin;Park Gil- Yong;Lim Se-Han;OH Im-Sang
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.434-436
    • /
    • 2005
  • Analysis method using remote sensing data is one of the effective ways to research a spatial and temporal variability of the mesoscale oceanic motions. During past several decades, many researchers have been getting comprehensive results using remote sensing data with application of data fusion methods in many parts of geo-science. For this study, we took the integration and fusion of several remote sensing data, which are different data resolution, timescale and characteristics, for improving accurate analysis of variation of the Kuroshio Extension. Furthermore, we might get advanced ways to understand the variability of the Kuroshio Extension, has close relation to the spatial and temporal variation of the Kuroshio and Oyashio Current.

  • PDF

다중 시기 SAR 자료를 이용한 토지 피복 구분을 위한 특징 추출과 융합 (Feature Extraction and Fusion for land-Cover Discrimination with Multi-Temporal SAR Data)

  • 박노욱;이훈열;지광훈
    • 대한원격탐사학회지
    • /
    • 제21권2호
    • /
    • pp.145-162
    • /
    • 2005
  • SAR 자료의 분류에서 토지 피복 구분 분류 정확도의 향상을 위해 이 논문은 다중 시기 SAR 자료를 이용한 분류에서의 특징 추출과 정보 융합 방법론을 제시하였다. 다중 시기 SAR 센서의 산란 특성을 고려하여 평균 후방 산란계수, 시간적 변이도와 긴밀도를 특징으로서 추출하였다. 이렇게 추출된 특징의 효율적인 응합을 위해 Dempster-Shafer theory of evidence(D-S 이론)와 퍼지 논리를 적용하였다. 특히 D-S 이론의 적용시 특징 기반 mass function 할당을 제안하였고, 퍼지 논리의 적용시 다양한 퍼지 결합 연산자의 결과를 비교하였다. 다중 시기 Radarsat-1 자료에의 적용 결과, 추출된 특징들은 서로 상호 보완적인 정보를 제공할 수 있으며 수계, 논과 도심지를 효율적으로 구분할 수 있었다. 그러나 산림과 밭은 구분이 애매한 경우가 나타났다. 정보 융합 방법론 측면에서, D-S 이론과 퍼지 Max와 Algebraic Sum 연산자를 제외한 다른 퍼지 연산자는 서로 유사한 분류 정확도를 나타내었다.

입력 영상의 방사학적 불일치 보정이 다중 센서 고해상도 위성영상의 시공간 융합에 미치는 영향 (Effect of Correcting Radiometric Inconsistency between Input Images on Spatio-temporal Fusion of Multi-sensor High-resolution Satellite Images)

  • 박소연;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.999-1011
    • /
    • 2021
  • 다중 센서 영상으로부터 공간 및 시간해상도가 모두 높은 영상을 예측하는 시공간 융합에서 다중 센서 영상의 방사학적 불일치는 예측 성능에 영향을 미칠 수 있다. 이 연구에서는 다중 센서 위성영상의 서로 다른 분광학적 특성을 보정하는 방사보정이 융합 결과에 미치는 영향을 분석하였다. 두 농경지에서 얻어진 Sentinel-2, PlanetScope 및 RapidEye 영상을 이용한 사례연구를 통해 상대 방사보정의 효과를 정량적으로 분석하였다. 사례연구 결과, 상대 방사보정을 적용한 다중 센서 영상을 사용하였을 때 융합의 예측 정확도가 향상되었다. 특히 입력 자료 간 상관성이 낮은 경우에 상대 방사보정에 의한 예측 정확도 향상이 두드러졌다. 분광 특성의 차이를 보이는 다중 센서 자료를 서로 유사하게 변환함으로써 예측 성능이 향상된 것으로 보인다. 이 결과를 통해 상대 방사보정은 상관성이 낮은 다중 센서 위성영상의 시공간 융합에서 예측 능력을 향상시키기 위해 필요할 것으로 판단된다.

Temporal Fusion Transformers와 심층 학습 방법을 사용한 다층 수평 시계열 데이터 분석 (Temporal Fusion Transformers and Deep Learning Methods for Multi-Horizon Time Series Forecasting)

  • 김인경;김대희;이재구
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권2호
    • /
    • pp.81-86
    • /
    • 2022
  • 시계열 데이터는 주식, IoT, 공장 자동화와 같은 다양한 실생활에서 수집되고 활용되고 있으며, 정확한 시계열 예측은 해당 분야에서 운영 효율성을 높일 수 있어서 전통적으로 중요한 연구 주제이다. 전반적인 시계열 데이터의 향상된 특징을 추출할 수 있는 대표적인 시계열 데이터 분석 방법인 다층 수평 예측은 최근 부가적 정보를 포함하는 시계열 데이터에 내재한 이질성(heterogeneity)까지 포괄적으로 분석에 활용하여 향상된 시계열 예측한다. 하지만 대부분의 심층 학습 기반 시계열 분석 모델들은 시계열 데이터의 이질성을 반영하지 못했다. 따라서 우리는 잘 알려진 temporal fusion transformers 방법을 사용하여 실생활과 밀접한 실제 데이터를 이질성을 고려한 다층 수평 예측에 적용하였다. 결과적으로 주식, 미세먼지, 전기 소비량과 같은 실생활 시계열 데이터에 적용한 방법이 기존 예측 모델보다 향상된 정확도를 가짐을 확인할 수 있었다.

공간과 시간적 특징 융합 기반 유해 비디오 분류에 관한 연구 (Using the fusion of spatial and temporal features for malicious video classification)

  • 전재현;김세민;한승완;노용만
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.365-374
    • /
    • 2011
  • 최근 인터넷, IPTV/SMART TV, 소셜 네트워크 (social network)와 같은 정보 유통 채널의 다양화로 유해 비디오 분류 및 차단 기술 연구에 대한 요구가 높아가고 있으나, 현재까지는 비디오에 대한 유해성을 판단하는 연구는 부족한 실정이다. 기존 유해 이미지 분류 연구에서는 이미지에서의 피부 영역의 비율이나 Bag of Visual Words (BoVW)와 같은 공간적 특징들 (spatial features)을 이용하고 있다. 그러나, 비디오에서는 공간적 특징 이외에도 모션 반복성 특징이나 시간적 상관성 (temporal correlation)과 같은 시간적 특징들 (temporal features)을 추가적으로 이용하여 유해성을 판단할 수 있다. 기존의 유해 비디오 분류 연구에서는 공간적 특징과 시간적 특징들에서 하나의 특징만을 사용하거나 두 개의 특징들을 단순히 결정 단계에서 데이터 융합하여 사용하고 있다. 일반적으로 결정 단계 데이터 융합 방법은 특징 단계 데이터 융합 방법보다 높은 성능을 가지지 못한다. 본 논문에서는 기존의 유해 비디오 분류 연구에서 사용되고 있는 공간적 특징과 시간적 특징들을 특징 단계 융합 방법을 이용하여 융합하여 유해 비디오를 분류하는 방법을 제안한다. 실험에서는 사용되는 특징이 늘어남에 따른 분류 성능 변화와 데이터 융합 방법의 변화에 따른 분류 성능 변화를 보였다. 공간적 특징만을 이용하였을 때에는 92.25%의 유해 비디오 분류 성능을 보이는데 반해, 모션 반복성 특징을 이용하고 특징 단계 데이터 융합 방법을 이용하게 되면 96%의 향상된 분류 성능을 보였다.