• Title/Summary/Keyword: 자막 추출

Search Result 82, Processing Time 0.029 seconds

Video Caption Extraction and Image Enhancement (비디오 자막 추출 및 이미지 향상에 관한 연구)

  • 김소명;최영우;정규식
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.359-361
    • /
    • 2000
  • 본 논문에서는 비디오 자막 이미지를 인식하기 위해 필요한 영상 향상의 단계로서 다중 결합을 적용한다. 또한 다중 결합을 위한 동일한 자막의 판단 및 결합된 결과를 재평가하기 위한 방법을 제안한다. 입력된 칼라 이미지로부터 RLS(Run Length Smearing)가 적용된 에지 이미지를 얻고, 수직 및 수평 히스토그램 분포를 이용하여 자막과 자막 영역에 대한 정보를 추출한다. 프레임 내의 자막 영역의 중첩 정도를 이용하여 동일 자막을 판단하고, 동일한 자막을 갖는 프레임들끼리 다중 결합을 수행함으로써 향상된 이미지를 얻는다. 끝으로 결합된 영상에 대한 평가를 수행하여 잘못 결합된 이미지들로 인한 오류를 해결하고 재평가한다. 제안한 방법을 통해, 배경 부분의 잡영이 완화된 자막 이미지를 추출하여 인식의 정확성과 신뢰성을 높일 수 있었다. 또한 동일한 자막의 시작 프레임과 끝 프레임의 위치 파악은 디지털 비디오의 색인 및 검색에 효과적으로 이용될 수 있을 것이다.

  • PDF

Automatic News Caption Segmentation Using Region Growing (영역확장을 이용한 뉴스 비디오 자막 자동 추출)

  • 이상호;손광훈;박철남
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1998.06a
    • /
    • pp.67-70
    • /
    • 1998
  • 본 논문에서는 뉴스 비디오 자막의 구조적 문자 특성을 이용한 자동 자막추출방법을 기술하였다. 기존의 방법들은 경계 추출이나 이진화 과정 후에 화소값의 변화 profile에 나타나는 문자의 굵기, 간격 등의 문자 특징을 이용하는데 반해 본 논문에서 제안한 방식은 뉴스 비디오 자막에서 문자와 배경을 구분하는 테두리선을 배경과 문자를 구분하는 경계로 하여, 적절한 이진화 과정과 영역확장 기법을 이용하여 문자를 추출하였다. 제안한 방법은 문자에 대하 사전지식이 없어도 되며, 사용한 영역확장 기법은 기존의 방법에서의 경계 추출기법보다 간단하면서도 효과적인 문자추출 결과를 나타낸다.

  • PDF

Methods for Video Caption Extraction and Extracted Caption Image Enhancement (영화 비디오 자막 추출 및 추출된 자막 이미지 향상 방법)

  • Kim, So-Myung;Kwak, Sang-Shin;Choi, Yeong-Woo;Chung, Kyu-Sik
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.4
    • /
    • pp.235-247
    • /
    • 2002
  • For an efficient indexing and retrieval of digital video data, research on video caption extraction and recognition is required. This paper proposes methods for extracting artificial captions from video data and enhancing their image quality for an accurate Hangul and English character recognition. In the proposed methods, we first find locations of beginning and ending frames of the same caption contents and combine those multiple frames in each group by logical operation to remove background noises. During this process an evaluation is performed for detecting the integrated results with different caption images. After the multiple video frames are integrated, four different image enhancement techniques are applied to the image: resolution enhancement, contrast enhancement, stroke-based binarization, and morphological smoothing operations. By applying these operations to the video frames we can even improve the image quality of phonemes with complex strokes. Finding the beginning and ending locations of the frames with the same caption contents can be effectively used for the digital video indexing and browsing. We have tested the proposed methods with the video caption images containing both Hangul and English characters from cinema, and obtained the improved results of the character recognition.

Study on News Video Character Extraction and Recognition (뉴스 비디오 자막 추출 및 인식 기법에 관한 연구)

  • 김종열;김성섭;문영식
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.40 no.1
    • /
    • pp.10-19
    • /
    • 2003
  • Caption information in news videos can be useful for video indexing and retrieval since it usually suggests or implies the contents of the video very well. In this paper, a new algorithm for extracting and recognizing characters from news video is proposed, without a priori knowledge such as font type, color, size of character. In the process of text region extraction, in order to improve the recognition rate for videos with complex background at low resolution, continuous frames with identical text regions are automatically detected to compose an average frame. The image of the averaged frame is projected to horizontal and vertical direction, and we apply region filling to remove backgrounds to produce the character. Then, K-means color clustering is applied to remove remaining backgrounds to produce the final text image. In the process of character recognition, simple features such as white run and zero-one transition from the center, are extracted from unknown characters. These feature are compared with the pre-composed character feature set to recognize the characters. Experimental results tested on various news videos show that the proposed method is superior in terms of caption extraction ability and character recognition rate.

A Study on Multimedia Application Service using DTV Closed Caption Data (디지털방송 자막데이터를 이용한 멀티미디어 응용 서비스 연구)

  • Kim, Jung-Youn;Nam, Je-Ho
    • Journal of Broadcast Engineering
    • /
    • v.14 no.4
    • /
    • pp.488-500
    • /
    • 2009
  • In this paper, we study on making a use of value-added services using DTV closed caption data. Note that Closed-Captioning service helps to bridge "digital divide" through extending broadcasting accessibility of a neglected class such as hearing-impaired person and foreigner. In Korea, DTV Closed Captioning standard was developed in June 2007, and Closed Captioning service should be provided by an enforcing law in all broadcasting services in April 2008. Here, we describe the method of extracting a caption data from MPEG-2 Transport Stream of ATSC-based digital TV signal and generating a caption file using the extracted caption data and time information. In addition, we present the segmentation method of broadcasting content using caption file. Experimental results show that implemented S/W tool provides the feasibility of the proposed methods and the usability of closed caption for a variety of data application service.

Image Caption Area extraction using Saliency Map and Max Filter (중요도 맵과 최댓값 필터를 이용한 영상 자막 영역 추출)

  • Kim, Youngjin;Kim, Manbae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.63-64
    • /
    • 2014
  • 본 논문에서는 Saliency map과 Max Filter를 이용한 영상의 자막영역을 추출 한다. Saliency map은 눈에 띄는 영역, 즉 영상에서 주변영역에 비해 밝기 차이가 심한 영역과 윤곽선에 대한 특징이 강한 영역을 돌출하는 것을 말하며, MaxFilter는 중심 픽셀을 최대 윈도우 값을 사용하는 것으로 극단적인 Impulse Noise를 제거하는데 효과적이며 특히 어두운 스파이크를 제거하는데 유용하게 사용된다. 이 두 가지의 특징들을 이용하여 영상의 자막 영역을 추출한다.

  • PDF

A Study on Skimming of News Article for an Efficient Browsing (효과적인 브라우징을 위한 뉴스 기사 요약에 관한 연구)

  • 이주호;정승도;조정원;최병욱
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.219-222
    • /
    • 2000
  • 수많은 종류의 비디오 데이터를 효율적으로 검색하기 위해서는 데이터를 분석하여 사용자에게 먼저 전체 비디오의 요약을 제시하는 것이 효과적이다. 본 논문에서는 기사 단위로 분할된 뉴스 기사 전체를 보여주지 않으면서도 기사의 내용을 왜곡됨이 없이 요약하여 효과적으로 사용자에게 보여주기 위한 방법을 제안한다. 본 논문에서는 사용자에게 시각적인 요약 정보를 앵커 프레임 추출 및 대표 프레임 추출을 통해 필름 스트림(film trip)의 형태로 제시하고, 기사를 소개하는 앵커의 첫 대사를 폐쇄 자막(closed-caption)을 이용하여 추출하여, 이를 기사의 내용에 대한 요약으로 필름 스트립과 같이 제시하도록 하였다. 앵커 프레임을 추출하기 위해 본 논문에서는 폐쇄 자막에서의 "앵커:" 태그가 존재하는 시간 구간과 동기된 프레임을 선정한다. 또한 대표 프레임은 공개형 자막(open-cpation)이 존재하는 프레임과 빈도에 기반한 가중치가 높은 .폐쇄 자막에서의 키워드와 동기된 프레임을 선정하도록 하였다. 본 논문의 뉴스 기사 요약 시스템은 시각적인 프레임제시와 함께 기사의 내용을 바탕으로 하는 기사 요약문을 같이 사용자에게 제공함으로써 기존의 필름 스트립형태만 제공하던 시스템에 비하여 사용자 중심의 지능형 요약 서비스가 가능함을 실험을 통해 보인다.

  • PDF

4D event extraction from subtitles and scenario information (자막과 시나리오 정보로부터 4D 이벤트 추출)

  • Lee, Jin-Kyu;Jang, In-Seon;Kang, Hang-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1510-1512
    • /
    • 2013
  • 3D 영화 산업 발전과 함께 4D 영화에 관한 수요가 증가했지만, 4D 영화 제작은 복잡한 시스템과 오랜 제작 시간을 요구한다. 본 논문에서는 기존의 4D 영화 제작 방식의 문제점을 해결하기 위해 자막과 시나리오 정보를 이용한 4D 이벤트 추출 방법을 제안한다. 자막과 시나리오의 문장으로 부터 4D 이벤트와 관련된 특징을 추출하고 4D 사전과 비교하여 4D 이벤트를 분류한다. 또한, 자막과 시나리오 각각의 4D 이벤트 추출 성능을 비교한다.

A new approach for overlay text detection from complex video scene (새로운 비디오 자막 영역 검출 기법)

  • Kim, Won-Jun;Kim, Chang-Ick
    • Journal of Broadcast Engineering
    • /
    • v.13 no.4
    • /
    • pp.544-553
    • /
    • 2008
  • With the development of video editing technology, there are growing uses of overlay text inserted into video contents to provide viewers with better visual understanding. Since the content of the scene or the editor's intention can be well represented by using inserted text, it is useful for video information retrieval and indexing. Most of the previous approaches are based on low-level features, such as edge, color, and texture information. However, existing methods experience difficulties in handling texts with various contrasts or inserted in a complex background. In this paper, we propose a novel framework to localize the overlay text in a video scene. Based on our observation that there exist transient colors between inserted text and its adjacent background a transition map is generated. Then candidate regions are extracted by using the transition map and overlay text is finally determined based on the density of state in each candidate. The proposed method is robust to color, size, position, style, and contrast of overlay text. It is also language free. Text region update between frames is also exploited to reduce the processing time. Experiments are performed on diverse videos to confirm the efficiency of the proposed method.

Extraction of Superimposed-Caption Frame Scopes and Its Regions for Analyzing Digital Video (비디오 분석을 위한 자막프레임구간과 자막영역 추출)

  • Lim, Moon-Cheol;Kim, Woo-Saeng
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.11
    • /
    • pp.3333-3340
    • /
    • 2000
  • Recently, Requnremeni for video data have been increased rapidly by high progress of both hardware and cornpression technique. Because digital video data are unformed and mass capacity, it needs various retrieval techniquesjust as contednt-based rehieval Superimposed-caption ina digital video can help us to analyze the video story easier and be used as indexing information for many retrieval techniques In this research we propose a new method that segments the caption as analyzing texture eature of caption regions in each video frame, and that extracts the accurate scope of superimposed-caption frame and its key regions and color by measunng cominuity of caption regions between frames

  • PDF