• 제목/요약/키워드: spatio-temporal image

검색결과 103건 처리시간 0.026초

고속푸리에변환을 이용한 시공간 체적 표면유속 산정 기법 개발 (Calculation of surface image velocity fields by analyzing spatio-temporal volumes with the fast Fourier transform)

  • 류권규;유병호
    • 한국수자원학회논문집
    • /
    • 제54권11호
    • /
    • pp.933-942
    • /
    • 2021
  • 홍수시 하천의 유속을 효율적이고 안전하게 측정할 수 있는 방법의 하나로 제시된 것이 표면 영상유속측정법이다. 표면영상유속측정법에는 영상분석 기법에 따라 다양한 종류가 있으나, 이 중에서도 최근 일정시간 동안의 유속의 시간평균을 한 번에 산정할 수 있는 시공간영상 유속계측법이 하천의 표면유속 측정에 대한 연구가 활발히 진행되고 있다. 시공간영상 유속계측법은 일정 시간 동안의 시공간 영상을 한 번에 분석하기 때문에, 유속산정 시간을 획기적으로 줄일 수 있는 장점이 있다. 그러나 시공간영상 유속계측법은 주흐름방향을 정확히 알지 못하면 오차를 유발할 수 있다. 본 연구는 표면영상을 시간적으로 누적한 시공간체적을 구성하고, 이 시공간체적에서 시간축 방향으로 최대값 영상을 만든 뒤 이를 고속푸리에변환하여 주흐름방향을 탐색하는 새로운 기법을 제안하였다. 이 방법은 공간영상에서 주흐름방향을 찾는 첫단계와 주흐름방향의 시공간영상에서 유속의 크기를 산정하는 두번째 단계로 구성되어 있다. 첫번째 단계에서 찾아낸 주흐름방향으로 시공간영상을 작성하고, 이 시공간영상의 고속푸리에변환을 이용하여 유속을 산정하였다. 제안된 방법은 주흐름방향을 정확하게 추정하여 시공간영상을 생성하고 분석하므로, 기존 방법들이 취약했던 이차원 흐름에 대해서도 신속하고 정확한 유속분석이 가능하다. 개발된 방법을 공동흐름에 대한 인공영상에 적용한 결과 비교적 정확하게 2차원 유속분포 측정이 가능한 것으로 나타났다.

Spatio-temporal Semantic Features for Human Action Recognition

  • Liu, Jia;Wang, Xiaonian;Li, Tianyu;Yang, Jie
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권10호
    • /
    • pp.2632-2649
    • /
    • 2012
  • Most approaches to human action recognition is limited due to the use of simple action datasets under controlled environments or focus on excessively localized features without sufficiently exploring the spatio-temporal information. This paper proposed a framework for recognizing realistic human actions. Specifically, a new action representation is proposed based on computing a rich set of descriptors from keypoint trajectories. To obtain efficient and compact representations for actions, we develop a feature fusion method to combine spatial-temporal local motion descriptors by the movement of the camera which is detected by the distribution of spatio-temporal interest points in the clips. A new topic model called Markov Semantic Model is proposed for semantic feature selection which relies on the different kinds of dependencies between words produced by "syntactic " and "semantic" constraints. The informative features are selected collaboratively based on the different types of dependencies between words produced by short range and long range constraints. Building on the nonlinear SVMs, we validate this proposed hierarchical framework on several realistic action datasets.

시공간 영상 분석에 의한 강건한 교통 모니터링 시스템 (Robust Traffic Monitoring System by Spatio-Temporal Image Analysis)

  • 이대호;박영태
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권11호
    • /
    • pp.1534-1542
    • /
    • 2004
  • 본 논문에서는 교통 영상에서 실시간 교통 정보를 산출하는 새로운 기법을 소개한다. 각 차선의 검지 영역은 통계적 특징과 형상적 특징을 이용하여 도로, 차량, 그리고 그림자 영역으로 분류한다. 한 프레임에서의 오류는 연속된 프레임에서의 차량 영역의 상관적 특징을 이용하여 시공간 영상에서 교정된다. 국부 검지 영역만을 처리하므로 전용의 병렬 처리기 없이도 초당 30 프레임 이상의 실시간 처리가 가능하며 기상조건, 그림자, 교통량의 변화에도 강건한 성능을 보장할 수 있다.

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

3차원 비디오 압축에서의 다시점 부호화를 위한 적응적 시공간적 예측 부호화 (Adaptive Spatio-Temporal Prediction for Multi-view Coding in 3D-Video)

  • 성우철;이영렬
    • 방송공학회논문지
    • /
    • 제9권3호
    • /
    • pp.214-224
    • /
    • 2004
  • 본 논문에서는 차세대 실감형 3차원 영상 처리와 3차원 TV 3차원 화상회의 등과 같은 3차원 실감 미디어의 부호화에 적합한 H.264 기반의 적응적 시공간적 예측 부호화를 제안한다. 첫 번째로, 두 가지의 IPPP와 IBBP GOP(group of picture) 구조에서 기존의 동시방송(simulcast) 방식과 다르게 same-view와 inter-view 영상의 적응적 시공간적 예측 부호화를 제안한다. 두 번째로, GOP 구조가 IBBP에서 제안된 inter-view 방식의 예측 부호화시 B(hi-predictive) 화면이 MB(macroblock) 모드중 하나인 시간적 직접방식(temporal direct mode)을 수행하려고 할 때 참조 화면이 inter-view 영상을 참조하는 경우 현재의 시간적 직접 방식을 효율적으로 수행하기 위해서 2차원 inter-view 직접 방식을 제안한다. 제안된 방식은 실험결과에서 기존의 동시방송 방식과 비교되었으며 각각의 GOP 구조 모두 화질 면에서 우수한 결과를 확인할 수 있었다.

시공간 템플릿과 컨볼루션 신경망을 사용한 깊이 영상 기반의 사람 행동 인식 (Depth Image-Based Human Action Recognition Using Convolution Neural Network and Spatio-Temporal Templates)

  • 음혁민;윤창용
    • 전기학회논문지
    • /
    • 제65권10호
    • /
    • pp.1731-1737
    • /
    • 2016
  • In this paper, a method is proposed to recognize human actions as nonverbal expression; the proposed method is composed of two steps which are action representation and action recognition. First, MHI(Motion History Image) is used in the action representation step. This method includes segmentation based on depth information and generates spatio-temporal templates to describe actions. Second, CNN(Convolution Neural Network) which includes feature extraction and classification is employed in the action recognition step. It extracts convolution feature vectors and then uses a classifier to recognize actions. The recognition performance of the proposed method is demonstrated by comparing other action recognition methods in experimental results.

Human Motion Recognition Based on Spatio-temporal Convolutional Neural Network

  • Hu, Zeyuan;Park, Sange-yun;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제23권8호
    • /
    • pp.977-985
    • /
    • 2020
  • Aiming at the problem of complex feature extraction and low accuracy in human action recognition, this paper proposed a network structure combining batch normalization algorithm with GoogLeNet network model. Applying Batch Normalization idea in the field of image classification to action recognition field, it improved the algorithm by normalizing the network input training sample by mini-batch. For convolutional network, RGB image was the spatial input, and stacked optical flows was the temporal input. Then, it fused the spatio-temporal networks to get the final action recognition result. It trained and evaluated the architecture on the standard video actions benchmarks of UCF101 and HMDB51, which achieved the accuracy of 93.42% and 67.82%. The results show that the improved convolutional neural network has a significant improvement in improving the recognition rate and has obvious advantages in action recognition.

인공시공간영상을 이용한 시공간영상분석법의 정확도 평가와 혼합분석법의 제안 (Evaluation of Accuracy of Spatio-Temporal Image Analysis Methods Using Artificial Images and Proposal of a Hybrid Method)

  • 류권규
    • Ecology and Resilient Infrastructure
    • /
    • 제11권3호
    • /
    • pp.100-109
    • /
    • 2024
  • 하천표면의 동영상을 이용하여 하천표면유속을 측정하는 표면영상유속계에는 다양한 방법들이 있으며, 그 중 시공간영상(STI)을 이용한 분석법(STIV)이 널리 쓰이고 있다. 본고는 저자들이 개발한 두 가지 방법인 상호상관법기반 시공간영상분석법(C-STIV)과 FFT-기반 시공간영상분석법(F-STIV)의 장단점을 분석하고, 이를 조합하여 두 방법의 장단점을 보완할 수 있는 혼합형 시공간영상분석법(H-STIV)을 제안하였다. 분석을 위해 영상변위 0.1 px/fr부터 19.0 px/fr에 이르는 20종의 인공 시공간영상을 작성하였다. 이 인공시공간영상을 분석한 결과 영상변위가 작은 영역은 F-STIV가 정확하고, 영상변위가 큰 영역은 C-STIV가 정확하며, 중간 정도의 영상변위를 가진 영상들은 두 방법 모두 비슷한 경향을 보였다. 이 결과에 기반하여 2.0 px/fr(줄무늬기울기 63.4°) 보다 작은 범위에서는 F-STIV의 결과를, 이보다 큰 범위에서는 C-STIV의 결과를 채택하는 H-STIV를 제안하였다. 제안된 방법을 인수천에 적용한 결과, H-STIV가 상황에 맞게 효율적으로 유속을 산정함을 입증하였다.

시공간 정합을 이용한 비디오 시퀀스에서의 가려진 객체의 복원 (Completion of Occluded Objects in a Video Sequence using Spatio-Temporal Matching)

  • 허미경;문재경;박순용
    • 정보처리학회논문지B
    • /
    • 제14B권5호
    • /
    • pp.351-360
    • /
    • 2007
  • 비디오 복원(video completion) 기술은 비디오 영상에서 색상 정보가 없는 픽셀에 적절한 색을 채워 영상을 복원하는 기술이다. 본 논문에서는 움직이는 물체가 서로 교차하는 비디오 영상에서 원하지 않는 물체를 제거하고 이때 발생한 영상 홀(image hole)을 채우는 비디오 복원 기술을 제안한다. 움직이는 카메라에서 획득한 비디오 영상에서 이동하는 두 물체 중 카메라와 가까운 물체를 제거함으로써 가려진 이동물체와 배경에 홀이 발생하게 되고, 이 홀온 다른 프레임들의 정보를 이용하여 채움으로써 새로운 비디오를 생성한다. 입력 영상의 모든 프레임에 대해 각 물체의 중심을 추정하여 물체의 중심을 기준으로 시-공간 볼륨(spatio-temporal volume)을 생성하고, 복셀 매칭(voxel matching)을 통한 시간적 탐색(temporal search)을 수행한 후 두 물체를 분리한다. 가리는 물체 영역으로 판단된 부분을 삭제하고 공간적 탐색(spatial search) 방법을 이용하여 홀을 채워 가려짐이 있는 이동 물체 및 배경을 복원한다. 복원된 영상에서 블렌딩을 통해 솔기(seam)를 제거한다. 비디오카메라로 획득한 두 실영상을 이용하여 실험을 수행한 결과 가려진 물체를 복원한 새로운 비디오 영상을 생성할 수 있었다.

밝기 및 움직임 정보에 기반한 시공간 영상 분할 (Spatio-Temporal Image Segmentation Based on Intensity and Motion Information)

  • 최재각;이시웅김성대
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 추계종합학술대회 논문집
    • /
    • pp.871-874
    • /
    • 1998
  • This paper presents a new morphological spatio-temporal segmentation algorithm. The algorithm incorporates intensity and motion information simultaneously, and uses morphological tools such as morphological filters and watershed algorithm. The procedure toward complete segmetnation consists of three steps: joint marker extraction, boundary decision, and motion-based region fusion. By incorporating spatial and temporal information simultaneously, we can obtain visually meaningful segmentation results. Simulation results demonstrates the efficiency of the proposed method.

  • PDF