유비쿼터스 안전관리(U-Safety) 상에서의 상황인지를 위한 계층적 영상 처리 시스템

Hierarchical Image Processing Method For Context-Awareness On Ubiquitous-Safety(U-Safety)

  • 발행 : 2009.10.29

초록

USS(Ubiquitous Smart Space)는 공간내에서 벌어지는 다양한 상황을 인지하고, 사물이나 서비스들이 자율적으로 협업함으로써 사용자의 목표에 맞는 서비스를 제공한다. U-Safety는 USS 상에서 다중센서를 통해 좀더 정확한 상황을 인지하고 이에 대처하여 조처를 취하는 시스템이다. U-Safety 에서 사용되는 다양한 센서들이 수집한 데이터 중에 영상데이터는 사람이 객관적으로 상황을 추론하기에 가장 이상적이다. 센터는 다양한 곳에 설치된 영상입력 장치로 부터 많은 양의 영상 데이터를 수집하여 이를 바탕으로 다중의 상황인지 및 추론을 수행하게 된다. 이에 센터는 방대한 양의 데이터를 처리하기 위해 매우 많은 자원을 소비하게 된다. 본 논문에서는 제안하는 계층적 영상 처리 방법은 영상입력 장치에서 1차 상황인지를 하고 전체 영상중 상황인지의 가능성이 높은 부분만을 블럭화하여 센터로 전송하는 방법을 제안한다. 이는 센터가 영상처리를 위해 소비하는 자원을 줄여 원활한 상황인지의 효율을 높이고 U-Safety 망에 영상데이터가 차지하는 비율을 줄인다.

USS(Ubiquitous Smart Space) give services, that fit in with customer's goal, by cognizing various situations that happens in a space and cooperating autonomously objects or services in a space. In USS, U-Safety is a system that cognizes more exact situations with multiple sensors in USS, deals with this and take proper actions. When men reason on situations objectively, it is most ideal that image data among collected data with used various sensors in U-Safety. A senter collects a lot of image data from image input devices equipped in various points and work a multiple situation cognition and inference that are based on this. So, senters spend many resources for processing massive data. This paper proposes hierarchical image processing method that does the first situation cognization in image input devices, blocks only points that situation cognization possibility is high among a total image, and transfers to senters. It improves the efficiency of smooth situation cognization by reducing resources that a senter spends on image processing. So, it reduces proportion of image data in U-Safety.

키워드