• 제목/요약/키워드: Spatiotemporal image

검색결과 47건 처리시간 0.03초

Landsat TM 자료를 이용한 서남해 연안 습지의 시공간 변화 분석에 관하여 (An Analysis of Spatiotemporal Change of Southwestern Coastal Wetlands Using Landsat Thematic Mapper Data)

  • 이기철;임병선;우창호;조영환
    • 환경영향평가
    • /
    • 제6권1호
    • /
    • pp.55-66
    • /
    • 1997
  • This study summarizes the use of satellite data to detect the change of southwestern coastal wetlands in Korea. The images used for this study were two Landsat Thematic Mapper(TM) images (June 12, 1984 & June 2, 1992). TM images were used to classify such different types of wetlands as aquatic bed, nonaquatic bed and other land use in the region. Then it, was possible to a) determine the status of wetlands using image classification products, and b) detect the changes of various types of wetlands influenced by both human and nature. The results from spatiotemporal analysis showed that approximately 120 lad of coastal wetlands were lost from the year of 1984 to 1992. 71 % of the lost wetlands were converted to the reclaimed land. This loss of wetlands has been causing the profound environmental impacts. It has been successfully proved that satellite data are very effective for spatiatemporal change analysis, especially for that of coastal wetlands.

  • PDF

A Video Expression Recognition Method Based on Multi-mode Convolution Neural Network and Multiplicative Feature Fusion

  • Ren, Qun
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.556-570
    • /
    • 2021
  • The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.

비디오 영상에서 시공간적 문자영역 제거방법 (Spatiotemporal Removal of Text in Image Sequences)

  • 이창우;강현;정기철;김항준
    • 전자공학회논문지CI
    • /
    • 제41권2호
    • /
    • pp.113-130
    • /
    • 2004
  • 많은 시각적 정보를 포함한 비디오 데이터들의 자동화된 처리 기술 중, 비디오 데이터들의 시청자적인 정보를 보강시키고, 부가적인 정보를 첨가하기 위한 일환으로 자막을 삽입하는 경우가 많다. 이러한 자막은 때로 영상자료의 재사용성(reusability)을 저해하고, 원 영상을 훼손하는 경우가 발생한다. 본 논문에서는 영상의 재사용성을 높이고 원 영상 복원을 위해 Support Vector Machines(SVM)과 시공간적 영상복원 방법(spatiotemporal restoration)을 이용한 비디오 영상에서의 자동 문자 검출과 제거 방법을 제안한다. 연속적인 두 프레임 이상의 영상을 입력받아, 현재 프레임 영상에서 SVM을 이용하여 문자 영역을 검출한 다음, 검출된 문자 영역을 제거하고, 문자 영역에 의해 가려졌던 원 영상을 복원하기 위한 두 단계- 시간적 복원(temporal restoration)과 공간적 복원(spatial restoration)접근방법을 제안한다. 제안된 복원 방법은 글자 모션(text motion) 정보와 두 영상의 배경 차이(background difference)를 이용하여 영상을 그 특징에 따라 분류하고, 각 영상의 특징에 맞는 복원 방법을 적용한다. 제안된 방법은 다양한 종류의 영상에서 문자뿐만 아니라 관심의 대상이 되는 객체의 자동 검출 및 복원 등 다양한 응용분야를 포함한다.

3D-CNN에서 동적 손 제스처의 시공간적 특징이 학습 정확성에 미치는 영향 (Effects of Spatio-temporal Features of Dynamic Hand Gestures on Learning Accuracy in 3D-CNN)

  • 정영지
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.145-151
    • /
    • 2023
  • 3D-CNN은 시계열 데이터 학습을 위한 딥 러닝 기법 중 하나이다. 이러한 3차원 학습은 많은 매개변수를 생성할 수 있으므로 고성능 기계학습이 필요하거나 학습 속도에 커다란 영향을 미칠 수 있다. 본 연구에서는 손의 동적인 제스처 동작을 시공간적으로 학습할 때, 3D-CNN 모델의 구조적 변화 없이 입력 영상 데이터의 시공간적 변화에 따른 학습 정확성을 분석함으로써, 3D-CNN을 이용한 동적 제스처 학습의 효율성을 높이기 위한 입력 영상 데이터의 최적 조건을 찾고자 한다. 첫 번째로 동적 손 제스처 영상 데이터에서 동적 이미지 프레임의 학습구간을 설정함으로써 제스처 동작간 시간 비율을 조정한다. 둘째로는 클래스간 2차원 교차 상관 분석을 통해 영상 데이터의 이미지 프레임간 유사도를 측정하여 정규화 함으로써 프레임간 평균값을 얻고 학습 정확성을 분석한다. 이러한 분석을 통하여, 동적 손 제스처의 3D-CNN 딥 러닝을 위한 입력 영상 데이터를 효과적으로 선택하는 두 가지 방법을 제안한다. 실험 결과는 영상 데이터 프레임의 학습구간과 클래스간 이미지 프레임간 유사도가 학습 모델의 정확성에 영향을 미칠 수 있음을 보여준다.

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

Tracking of Multiple Vehicles Using Occlusion Segmentation Based on Spatio-Temporal Association

  • Lim, Jun-Sik;Kim, Soo-Hyung;Lee, Guee-Sang;Yang, Hyung-Jeong;Na, In-Seop
    • International Journal of Contents
    • /
    • 제7권4호
    • /
    • pp.19-23
    • /
    • 2011
  • This paper proposes a segmentation method for overlapped vehicles based on analysis of the vehicle location and the spatiotemporal association information. This method can be used in an intelligent transport system. In the proposed method, occlusion is detected by analyzing the association information based on a vehicle's location in continuous images, and occlusion segmentation is carried out by using the vehicle information prior to occlusion. In addition, the size variations of the vehicle to which association tracking is applied can be anticipated by learning the variations according to the overlapped vehicles' movements. To assess the performance of the suggested method, image data collected from CCTVs recording traffic information is used, and average success rate of occlusion segmentation is 96.9%.

방향성 계층적 시공간 필터에 의한 움직이는 물체의 검출 (Moving target detection by using the hierarchical spatiotemporal filters with orientation selectivity)

  • 최태완;김재창;윤태훈;남기곤
    • 전자공학회논문지B
    • /
    • 제33B권9호
    • /
    • pp.135-143
    • /
    • 1996
  • In this paper, we popose a neural network that detects edges of moving objects in an image using a neural network of hierarchical spatial filter with orientation selectivity. We modify the temporal difference network by adding a self loop to each neuraon cell to reduce the problems of phantom edge detected by the neural network proposed by kwon yool et al.. The modified neural network alleviates the phantom edges of moving objects, and also can detect edges of miving objects even for the noisy input. By computer simulation with real images, the proposed neural netowrk can extract edges of different orientation efficiently and also can reduce the phantom edges of moving objects.

  • PDF

문헌 및 위성영상에 기초한 북한의 산지토사재해 발생경향 및 복구사례 분석 (Analyzing the Occurrence Trend of Sediment-Related Disasters and Post-Disaster Recovery Cases in Mountain Regions in N orth Korea Based on a Literature Review and Satellite Image Observations)

  • 김기대;강민정;김석우
    • 한국산림과학회지
    • /
    • 제110권3호
    • /
    • pp.419-430
    • /
    • 2021
  • 이 연구는 1960년부터 2019년까지 북한에서 발생한 산지토사재해의 시공간적 발생경향과 일부 발생 및 복구 사례를 분석하기 위하여 실시하였다. 북한의 산지토사재해 발생이력은 1995년(김정일 집권시기)부터 대외적으로 보고되기 시작하였고, 여름철 호우가 주된 유발요인으로 나타났다. 산림황폐율은 인구밀도와 밀접한 관련성(R2 = 0.4347, p = 0.02)을 보이며, 산림황폐율이 높은 서해안에서 산지토사재해 발생 보고건수가 많은 것으로 나타났다. 이는 인위적 산림훼손이 산림황폐화의 주된 원인이며, 나아가 산지토사재해 발생에도 현저한 영향을 끼쳤음을 시사한다. 위성영상을 통해 표층붕괴, 토석류 및 땅밀림 발생이 확인되었으며, 이러한 산지토사재해는 일반산지뿐만 아니라 다락밭, 채석장, 임도, 산불피해지 등 산림훼손지에서도 발생한 것으로 나타났다. 대부분의 피해지역은 복구사업의 시행 없이 존치되었지만, 일부 지역에서 산복 녹화공 등의 산지사방사업 또는 사방댐, 유도둑 등의 야계사방사업을 시행한 것으로 확인되었다. 이 연구의 결과는 향후 산림복구 및 사방사업 분야의 남북 교류협력 확대에 필요한 기초정보를 제공할 수 있을 것으로 기대된다.

Application of deep convolutional neural network for short-term precipitation forecasting using weather radar-based images

  • Le, Xuan-Hien;Jung, Sungho;Lee, Giha
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2021년도 학술발표회
    • /
    • pp.136-136
    • /
    • 2021
  • In this study, a deep convolutional neural network (DCNN) model is proposed for short-term precipitation forecasting using weather radar-based images. The DCNN model is a combination of convolutional neural networks, autoencoder neural networks, and U-net architecture. The weather radar-based image data used here are retrieved from competition for rainfall forecasting in Korea (AI Contest for Rainfall Prediction of Hydroelectric Dam Using Public Data), organized by Dacon under the sponsorship of the Korean Water Resources Association in October 2020. This data is collected from rainy events during the rainy season (April - October) from 2010 to 2017. These images have undergone a preprocessing step to convert from weather radar data to grayscale image data before they are exploited for the competition. Accordingly, each of these gray images covers a spatial dimension of 120×120 pixels and has a corresponding temporal resolution of 10 minutes. Here, each pixel corresponds to a grid of size 4km×4km. The DCNN model is designed in this study to provide 10-minute predictive images in advance. Then, precipitation information can be obtained from these forecast images through empirical conversion formulas. Model performance is assessed by comparing the Score index, which is defined based on the ratio of MAE (mean absolute error) to CSI (critical success index) values. The competition results have demonstrated the impressive performance of the DCNN model, where the Score value is 0.530 compared to the best value from the competition of 0.500, ranking 16th out of 463 participating teams. This study's findings exhibit the potential of applying the DCNN model to short-term rainfall prediction using weather radar-based images. As a result, this model can be applied to other areas with different spatiotemporal resolutions.

  • PDF

복식에 표현된 노출 (Exposure Expressed in Dress)

  • 정연자
    • 한국의상디자인학회지
    • /
    • 제1권1호
    • /
    • pp.91-107
    • /
    • 1999
  • The primary purpose of this study is to inquire into the characteristic of exposure presented in fashion, identify the correct concept of exposure from an aesthetic perspective, and grasp the contemporary meaning of exposure presented in fashion. As a result of study, the following findings were obtained: First, the surrealist style of fashion exhibited representations such as the relocation of the partial details, the harmonization of the natural and the artificial, the emphasis or expansion of each part of the body, and the like. It used highlighted the genital region with ornamentations or used the technique of paradoxically exposing the part of the body always covered. And it exbibited the paradoxical relationship of exposure and concealment by exposing the concealed part of the human body. Second, the post-modern style showed the complicated phenomenon that the values of several meanings such as the historic, the folk, and the like appeared in its fashion. It shares in spatiotemporal eclecticism, pluralistic characteristics and the like found in the post-modern culture. Third, the deconstructive style gets rid of the distinction between the external space and the private space by translating underwears into outer garments. It destroys clothing by tearing or perforating clothing whereby it represents the poor image. Coupled with women‘s psychology of exposure and the new generation’s way of thinking indifferent to others‘ eyes, this fashion of deconstruction occupies the great current of fashion. Deconstructive fashion gets away with the rule of ‘having to wear clothing to suit TPO(Time, Place and Occasion), the traditional norm of wearing clothing.

  • PDF