• Title/Summary/Keyword: 자막추출

Search Result 82, Processing Time 0.026 seconds

Connected Component-based Regardless of Caption Size Caption Extraction with Neural Network (신경망을 이용한 자막 크기에 무관한 연결 객체 기반의 자막 추출)

  • Jeong, Je-Hui;Yun, Tae-Bok;Kim, Dong-Mun;Lee, Ji-Hyeong
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.172-175
    • /
    • 2007
  • 영상에 나타나는 자막은 영상과 관계가 있는 정보를 포함한다. 이러한 자막의 정보를 이용하기 위해 영상으로부터 자막을 추출하는 연구는 근래에 들어 활발히 진행되고 있다. 기존의 연구는 일정한 높이의 자막이나 획의 두께를 가진 자막만을 추출하였다. 본 논문에서는 일정 크기 이상의 크기에 무관한 자막을 추출하는 방법을 제안한다. 먼저, 자막 추출을 위해서 영상에 포함된 픽셀들의 연결 객체를 생성하였다. 그리고 연결 객체 중에서 자막의 형태적인 특정의 패턴을 분석하고, 패턴을 이용하여 자막을 추출하였다. 실험에 사용된 영상은 다큐멘터리, 쇼 프로그램과 같은 대중 방송에서 획득하였으며, 실험 결과는 다양한 크기의 자막을 포함한 영상을 사용하여 실험하였고, 자막 추출의 결과는 찾아진 연결객체 중에 자막의 비율과 자막 중에 찾아진 자막의 비율로 분석하였다. 제안한 방법에 의해 다양한 크기의 자막을 추출할 수 있었다.

  • PDF

Robust text segmentation algorithm for automatic text extraction (자막 자동 추출을 위한 강건한 자막 분리 알고리즘)

  • Jeong, Je-Hui;Jeong, Jong-Myeon
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.04a
    • /
    • pp.444-447
    • /
    • 2007
  • 본 논문에서는 비디오에서 자막을 자동 추출하기 위한 강건한 자막 분리 알고리즘을 제안한다. 주어진 비디오에서 자막이 존재할 가능성이 있는 프레임에 대해 자막 후보 영역의 위치를 찾은 다음, 자막 후보 영역으로부터 강건하게 자막을 추출한다. 추출된 자막 후보 영역에 대해 Dampoint labeling을 수행하여 자막과 비슷한 색상을 갖는 배경을 제거하고, 마지막으로 기하학적 검증을 통해 최종적으로 자막 여부를 판별한다. 제안된 방법을 여러 장르의 비디오에 대해 적용 결과 복잡한 배경을 갖는 비디오에서 자막을 강건하게 추출함을 실험을 통해 확인하였다.

  • PDF

Korean Caption Extraction with Decision Tree (의사결정 트리를 이용한 한글 자막 추출)

  • Jung, Je-Hee;Lee, Seun-Hoon;Kim, Jae-Kwang;Lee, Jee-Hyong
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.527-532
    • /
    • 2008
  • 자막은 영상과 관련이 있는 정보를 포함한다. 이러한 영상의 정보를 이용하기 위해서 자막을 추출하는 연구가 진행되고 있다. 기존의 자막 추출 연구는 언어 독립적인 특징으로 자막을 이루는 획의 에지는 일정한 간격을 유지하거나 수평라인으로 존재하는 글자의 분포를 이용한 방법을 제안하였다. 이러한 방법들은 획의 간격이 일정한 자막이나 하나의 글자가 하나의 획으로 이루어진 글자에서만 정상적인 동작을 보장하였다. 본 논문에서는 한글 자막 특징을 고려한 자막 추출 방법을 제안한다. 먼저, 한글 자막의 특징인 가로 획의 다수 분포를 고려한 적응형 에지 이진화를 수행하여 에지 영상을 생성하고 에지 연결 객체를 생성한다. 그 후에 생성한 연결 객체를 특징을 추출하여 사전에 생성한 의사결정 트리로 연결 객체를 자막과 비자막 연결객체로 분류한다. 의사결정 트리를 생성하기 위해서 사용한 연결 객체는 뉴스, 다큐멘터리 프로그램에서 획득하였으며, 성능 평가를 위해서 뉴스, 다큐멘터리, 스포츠 프로그램과 같은 대중 방송에서 획득한 영상에서 자막을 추출하였다. 평가 방법은 찾아진 연결 객체 중에 자막 연결 객체의 비율과 전체 자막 중에서 찾아진 자막 연결 객체의 비율로 분석하였다. 실험 결과에서는 제안한 방법이 한글 자막의 추출에 적용 가능함을 보여준다.

  • PDF

Connected Component-Based and Size-Independent Caption Extraction with Neural Networks (신경망을 이용한 자막 크기에 무관한 연결 객체 기반의 자막 추출)

  • Jung, Je-Hee;Yoon, Tae-Bok;Kim, Dong-Moon;Lee, Jee-Hyong
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.7
    • /
    • pp.924-929
    • /
    • 2007
  • Captions which appear in images include information that relates to the images. In order to obtain the information carried by captions, the methods for text extraction from images have been developed. However, most existing methods can be applied to captions with fixed height of stroke's width. We propose a method which can be applied to various caption size. Our method is based on connected components. And then the edge pixels are detected and grouped into connected components. We analyze the properties of connected components and build a neural network which discriminates connected components which include captions from ones which do not. Experimental data is collected from broadcast programs such as news, documentaries, and show programs which include various height caption. Experimental result is evaluated by two criteria : recall and precision. Recall is the ratio of the identified captions in all the captions in images and the precision is the ratio of the captions in the objects identified as captions. The experiment shows that the proposed method can efficiently extract captions various in size.

Video Caption Extraction in MPEG compressed video (압축 MPEG 비디오 상에서의 자막 검출 및 추출)

  • 전승수;김정림;오상욱;설상훈
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.985-988
    • /
    • 2001
  • 본 논문은 DCT를 기반으로 하여 비디오 내에서 자막을 I-frame들로부터 추출하였다. 본 논문에서 제안하는 자막 검출 및 추출 방법은 자막이 주위 배경 화면과 그 대비 값이 크다는 점과 화면상에 일정한 시간동안 유지된다는 점을 이용하였다. 먼저 비디오 내에서 I-frame들의 DCT 값들로부터 주위 배경화면과 비교하여 그 대비 값이 큰 영역들을 표시하였다. 이로부터 자막의 시간적 특성과 공간적 특성을 이용하여 자막을 포함하는 프레임을 검출하여, 그 내에 있는 자막 영역을 추출하였다.

  • PDF

Caption Detection and Recognition for Video Image Information Retrieval (비디오 영상 정보 검색을 위한 문자 추출 및 인식)

  • 구건서
    • Journal of the Korea Computer Industry Society
    • /
    • v.3 no.7
    • /
    • pp.901-914
    • /
    • 2002
  • In this paper, We propose an efficient automatic caption detection and location method, caption recognition using FE-MCBP(Feature Extraction based Multichained BackPropagation) neural network for content based retrieval of video. Frames are selected at fixed time interval from video and key frames are selected by gray scale histogram method. for each key frames, segmentation is performed and caption lines are detected using line scan method. lastly each characters are separated. This research improves speed and efficiency by color segmentation using local maximum analysis method before line scanning. Caption detection is a first stage of multimedia database organization and detected captions are used as input of text recognition system. Recognized captions can be searched by content based retrieval method.

  • PDF

Control of Time-varying and Nonstationary Stochastic Systems using a Neural Network Controller and Dynamic Bayesian Network Modeling (신경회로망 제어기와 동적 베이시안 네트워크를 이용한 시변 및 비정치 확률시스템의 제어)

  • Cho, Hyun-Cheol;Lee, Jin-Woo;Lee, Young-Jin;Lee, Kwon-Soon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.7
    • /
    • pp.930-938
    • /
    • 2007
  • Captions which appear in images include information that relates to the images. In order to obtain the information carried by captions, the methods for text extraction from images have been developed. However, most existing methods can be applied to captions with fixed height of stroke's width. We propose a method which can be applied to various caption size. Our method is based on connected components. And then the edge pixels are detected and grouped into connected components. We analyze the properties of connected components and build a neural network which discriminates connected components which include captions from ones which do not. Experimental data is collected from broadcast programs such as news, documentaries, and show programs which include various height caption. Experimental result is evaluated by two criteria : recall and precision. Recall is the ratio of the identified captions in all the captions in images and the precision is the ratio of the captions in the objects identified as captions. The experiment shows that the proposed method can efficiently extract captions various in size.

Text Region Extraction from Videos using the Harris Corner Detector (해리스 코너 검출기를 이용한 비디오 자막 영역 추출)

  • Kim, Won-Jun;Kim, Chang-Ick
    • Journal of KIISE:Software and Applications
    • /
    • v.34 no.7
    • /
    • pp.646-654
    • /
    • 2007
  • In recent years, the use of text inserted into TV contents has grown to provide viewers with better visual understanding. In this paper, video text is defined as superimposed text region located of the bottom of video. Video text extraction is the first step for video information retrieval and video indexing. Most of video text detection and extraction methods in the previous work are based on text color, contrast between text and background, edge, character filter, and so on. However, the video text extraction has big problems due to low resolution of video and complex background. To solve these problems, we propose a method to extract text from videos using the Harris corner detector. The proposed algorithm consists of four steps: corer map generation using the Harris corner detector, extraction of text candidates considering density of comers, text region determination using labeling, and post-processing. The proposed algorithm is language independent and can be applied to texts with various colors. Text region update between frames is also exploited to reduce the processing time. Experiments are performed on diverse videos to confirm the efficiency of the proposed method.

Caption Region Extraction of Sports Video Using Multiple Frame Merge (다중 프레임 병합을 이용한 스포츠 비디오 자막 영역 추출)

  • 강오형;황대훈;이양원
    • Journal of Korea Multimedia Society
    • /
    • v.7 no.4
    • /
    • pp.467-473
    • /
    • 2004
  • Caption in video plays an important role that delivers video content. Existing caption region extraction methods are difficult to extract caption region from background because they are sensitive to noise. This paper proposes the method to extract caption region in sports video using multiple frame merge and MBR(Minimum Bounding Rectangles). As preprocessing, adaptive threshold can be extracted using contrast stretching and Othu Method. Caption frame interval is extracted by multiple frame merge and caption region is efficiently extracted by median filtering, morphological dilation, region labeling, candidate character region filtering, and MBR extraction.

  • PDF

A Stroke-Based Text Extraction Algorithm for Digital Videos (디지털 비디오를 위한 획기반 자막 추출 알고리즘)

  • Jeong, Jong-Myeon;Cha, Ji-Hun;Kim, Kyu-Heon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.3
    • /
    • pp.297-303
    • /
    • 2007
  • In this paper, the stroke-based text extraction algorithm for digital video is proposed. The proposed algorithm consists of four stages such as text detection, text localization, text segmentation and geometric verification. The text detection stage ascertains that a given frame in a video sequence contains text. This procedure is accomplished by morphological operations for the pixels with higher possibility of being stroke-based text, which is called as seed points. For the text localization stage, morphological operations for the edges including seed points ate adopted followed by horizontal and vortical projections. Text segmentation stage is to classify projected areas into text and background regions according to their intensity distribution. Finally, in the geometric verification stage, the segmented area are verified by using prior knowledge of video text characteristics.