Abstract
With the increase of multimedia information such as images, researches have been realized on how to extract the high-level semantic information from low-level visual information, and a variety of techniques have been proposed to generate this information automatically. However, most of these technologies extract the semantic information between single images, it's difficult to extract semantic information when a combination of multiple objects within the image. In this paper, we extract the visual features of objects within the image and training images stored in the DB and the features of each object are defined by measuring the similarity. Using ontology reasoner, each object feature within images infers the semantic information by positional relation and associative relation. With this, it's possible to infer semantic information between objects within images, we proposed a method for inferring more complicated and a variety of high-level semantic information.
이미지와 같은 멀티미디어 정보들의 증가로 저수준의 시각 정보에서 고수준의 의미 정보를 추출하는 방법에 대한 연구가 이루어지고 있으며, 이러한 정보를 자동으로 생성하는 다양한 기술들이 연구되고 있다. 그러나 이러한 기술들은 대부분 한 장의 이미지와 이미지 사이의 의미 정보를 추출하므로 이미지내에 여러 객체가 같이 있는 경우 의미 정보를 추출하기 어렵다. 본 논문에서는 이미지내의 객체들을 시각적 특징 정보들을 추출하여 트레이닝 이미지를 DB에 저장하고 유사도를 측정하여 각 객체의 특징들을 정의한다. 이미지내의 각 객체 특징들은 온톨로지로 이용하여 위치 관계와 연관 관계를 추론엔진을 통해 의미 정보를 추론한다. 이로써 이미지내 객체들 사이의 의미 정보 추론이 가능하고, 좀 더 복잡하고 다양한 고수준의 의미 정보를 추론하는 방법을 제안한다.