• Title/Summary/Keyword: Video Scene Retrieval

Search Result 67, Processing Time 0.018 seconds

Extraction of Features in key frames of News Video for Content-based Retrieval (내용 기반 검색을 위한 뉴스 비디오 키 프레임의 특징 정보 추출)

  • Jung, Yung-Eun;Lee, Dong-Seop;Jeon, Keun-Hwan;Lee, Yang-Weon
    • The Transactions of the Korea Information Processing Society
    • /
    • v.5 no.9
    • /
    • pp.2294-2301
    • /
    • 1998
  • The aim of this paper is to extract features from each news scenes for example, symbol icon which can be distinct each broadcasting corp, icon and caption which are has feature and important information for the scene in respectively, In this paper, we propose extraction methods of caption that has important prohlem of news videos and it can be classified in three steps, First of al!, we converted that input images from video frame to YIQ color vector in first stage. And then, we divide input image into regions in clear hy using equalized color histogram of input image, In last, we extracts caption using edge histogram based on vertical and horizontal line, We also propose the method which can extract news icon in selected key frames by the difference of inter-histogram and can divide each scene by the extracted icon. In this paper, we used comparison method of edge histogram instead of complex methcxls based on color histogram or wavelet or moving objects, so we shorten computation through using simpler algorithm. and we shown good result of feature's extraction.

  • PDF

A Study on the Scene Chang Detection Retrieval of Video Using MSE (MSE를 이용한 비디오의 장면전환 검색에 관한 연구)

  • 김단환;김형균;고석만;오무송
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05d
    • /
    • pp.1052-1055
    • /
    • 2002
  • 동영상 정보는 영상정보뿐만이 아니라 음성정보, 문자정보 및 각종 의미있는 정보들을 포함하고 있어서 기존의 검색 방법으로는 사용자가 원하는 이미지를 찾는데 어려움이 따른다. 따라서, 본 연구에서는 동영상 정보의 효율적인 활용을 위한 색인 방법으로 MSE(Mean Square Error) 도입하여 동영상의 장면전환 검색하는 방법을 제안한다. 이것은 영상 데이터를 대각선 방향으로 일정픽셀의 칼라 값을 추출하여 행렬A에 i×j행렬로 i는 프레임 수, j는 프레임의 영상 높이로 저장하고 동영상의 전체 구조를 파악할 수 있도록 정지영상으로 샘플링 하였다. 샘플링 된 데이터는 대용량 동영상 데이터 이용에 있어서 사용자가 전체 동영상의 장면전환점을 한눈으로 파악할 수 있고, 각 프레임의 MSE와 임계값을 초과하면 그 프레임이 장면전환점으로 검색한다.

  • PDF

Electrooculogram-based Scene Transition Detection for Interactive Video Retrieval (인터랙티브 비디오 검색을 위한 EOG 기반 장면 전환 검출)

  • Lee, Chung-Yeon;Lee, Beom-Jin;Zhang, Byoung-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.408-410
    • /
    • 2012
  • 기존의 비디오 검색 방법들은 관련 주석이나 영상 정보에 기반하며 사용자의 반응과 관련하여서는 많은 정보를 활용하고 있지 않다. 비디오 시청시 사용자의 뇌신호나 시선추적 정보 등의 인지적 반응을 이용하여 연속적인 비디오 스트림의 각 부분에 대하여 사용자들이 나타내는 관심이나 감성 정보를 추출한다면 보다 인터랙티브한 비디오 데이터 검색 및 추천이 가능하다. 본 논문에서는 비디오를 시청하는 사용자의 안구전도(electrooculogram)를 기록한 후, 장면 전환이 발생한 부분에서의 사건관련전위 분석을 통해 해당 부분에서 나타나는 특징적 반응을 찾고 이에 대한 인지적 해석을 도출했다. 실험 결과 장면 전환 이후200~700ms 부분에서 P300 성분과 유사한 피크가 발생하는 것을 확인하였으며, 이러한 결과는 장면 전환에 따른 피험자의 비디오 내용 인지에 대한 의도 불일치 및 주의력 증가로 해석된다.

An Efficient Object Extraction Scheme for Low Depth-of-Field Images (낮은 피사계 심도 영상에서 관심 물체의 효율적인 추출 방법)

  • Park Jung-Woo;Lee Jae-Ho;Kim Chang-Ick
    • Journal of Korea Multimedia Society
    • /
    • v.9 no.9
    • /
    • pp.1139-1149
    • /
    • 2006
  • This paper describes a novel and efficient algorithm, which extracts focused objects from still images with low depth-of-field (DOF). The algorithm unfolds into four modules. In the first module, a HOS map, in which the spatial distribution of the high-frequency components is represented, is obtained from an input low DOF image [1]. The second module finds OOI candidate by using characteristics of the HOS. Since it is possible to contain some holes in the region, the third module detects and fills them. In order to obtain an OOI, the last module gets rid of background pixels in the OOI candidate. The experimental results show that the proposed method is highly useful in various applications, such as image indexing for content-based retrieval from huge amounts of image database, image analysis for digital cameras, and video analysis for virtual reality, immersive video system, photo-realistic video scene generation and video indexing system.

  • PDF

A motion descriptor design combining the global feature of an image and the local one of an moving object (영상의 전역 특징과 이동객체의 지역 특징을 융합한 움직임 디스크립터 설계)

  • Jung, Byeong-Man;Lee, Kyu-Won
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2012.10a
    • /
    • pp.898-902
    • /
    • 2012
  • A descriptor which is suitable for motion analysis by using the motion features of moving objects from the real time image sequence is proposed. To segment moving objects from the background, the background learning is performed. We extract motion trajectories of individual objects by using the sequence of the $1^{st}$ order moment of moving objects. The center points of each object are managed by linked list. The descriptor includes the $1^{st}$ order coordinates of moving object belong to neighbor of the per-defined position in grid pattern, the start frame number which a moving object appeared in the scene and the end frame number which it disappeared. A video retrieval by the proposed descriptor combining global and local feature is more effective than conventional methods which adopt a single feature among global and local features.

  • PDF

A Scene-based Tree Browsing Technique for Video Retrieval and Visual Summary (비디오 검색과 시각적 요약을 위한 장면 기반 계층적 브라우징 기법)

  • Im, Dong-Hyeok;Lee, Seok-Ryong;Jeong, Jin-Wan
    • Journal of KIISE:Databases
    • /
    • v.28 no.2
    • /
    • pp.181-187
    • /
    • 2001
  • 디지털 비디오의 사용이 일반화되어감에 따라 비디오 브라우징에 대한 연구가 더욱 요구되 어 지고 있다. 과거에 연구된 바 있는 VCR식 순차탐색기법은 아날로그 비디오 브라우징에 서 사용되던 고전적 방식을 다지털 비디오에 적용한 것이며, 키프레임 정적표현법은 비디오 를 구성하는 프레임을 보이는 방식이다. 이 두 방식이 디지털 비디오의 특성을 충분히 사용 하지 못하기 때문에, 최근에는 비디오 샷산의 계층적 관계를 기반으로 하는 계층적 브라우 징과 장면 간의 관계를 기반으로 하는 장면 기반 브라우징이 주목을 받고 있다. 본 논문에 서는 기존의 비디오 브라우징에 대한 연구들을 자세히 알아보고, 계층적 브라우징과 장면 기반 브라우징에서처럼 비디오 내의 각 장면에 바로 접근할 수 있을 뿐만 아니라, 계층적 브라우징처럼 비디오의 전체구조를 알기 쉽게 보여준다. 또한 브라우징의 결과는 시각적 요 약으로 사용될 수 있다.

  • PDF

Content based Video Segmentation Algorithm using Comparison of Pattern Similarity (장면의 유사도 패턴 비교를 이용한 내용기반 동영상 분할 알고리즘)

  • Won, In-Su;Cho, Ju-Hee;Na, Sang-Il;Jin, Ju-Kyong;Jeong, Jae-Hyup;Jeong, Dong-Seok
    • Journal of Korea Multimedia Society
    • /
    • v.14 no.10
    • /
    • pp.1252-1261
    • /
    • 2011
  • In this paper, we propose the comparison method of pattern similarity for video segmentation algorithm. The shot boundary type is categorized as 2 types, abrupt change and gradual change. The representative examples of gradual change are dissolve, fade-in, fade-out or wipe transition. The proposed method consider the problem to detect shot boundary as 2-class problem. We concentrated if the shot boundary event happens or not. It is essential to define similarity between frames for shot boundary detection. We proposed 2 similarity measures, within similarity and between similarity. The within similarity is defined by feature comparison between frames belong to same shot. The between similarity is defined by feature comparison between frames belong to different scene. Finally we calculated the statistical patterns comparison between the within similarity and between similarity. Because this measure is robust to flash light or object movement, our proposed algorithm make contribution towards reducing false positive rate. We employed color histogram and mean of sub-block on frame image as frame feature. We performed the experimental evaluation with video dataset including set of TREC-2001 and TREC-2002. The proposed algorithm shows the performance, 91.84% recall and 86.43% precision in experimental circumstance.