• 제목/요약/키워드: caption extraction

검색결과 33건 처리시간 0.025초

위치적 연관성과 어휘적 유사성을 이용한 웹 이미지 캡션 추출 (Web Image Caption Extraction using Positional Relation and Lexical Similarity)

  • 이형규;김민정;홍금원;임해창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권4호
    • /
    • pp.335-345
    • /
    • 2009
  • 이 논문은 웹 문서의 이미지 캡션 추출을 위한 방법으로서 이미지와 캡션의 위치적 연관성과 본문과 캡션의 어휘적 유사성을 동시에 고려한 방법을 제안한다. 이미지와 캡션의 위치적 연관성은 거리와 방향 관점에서 캡션이 이미지에 상대적으로 어떻게 위치하고 있는지를 나타내며, 본문과 캡션의 어휘적 유사성은 이미지를 설명하고 있는 캡션이 어휘적으로 본문과 어느 정도 유사한지를 나타낸다. 이미지와 캡션을 독립적으로 고려한 자질만을 사용한 캡션 추출 방법을 기저 방법으로 놓고 제안하는 방법들을 추가적인 자질로 사용하여 캡션을 추출하였을 때, 캡션 추출 정확률과 캡션 추출 재현율이 모두 향상되며, 캡션 추출 F-measure가 약 28% 향상되었다.

다중 프레임 병합을 이용한 스포츠 비디오 자막 영역 추출 (Caption Region Extraction of Sports Video Using Multiple Frame Merge)

  • 강오형;황대훈;이양원
    • 한국멀티미디어학회논문지
    • /
    • 제7권4호
    • /
    • pp.467-473
    • /
    • 2004
  • 비디오내에서의 자막은 비디오 내용을 전달하는 중요한 역할을 수행한다. 기존의 자막 영 역 추출방법들은 잡음에 민감하여 배경에서 자막 영역의 추출이 어려웠다. 본 논문에서는 다중 프레임 병합과 영역 최소 사각형을 이용하여 스포츠 비디오에서 자막 영역을 추출하는 방법을 제안한다. 전처리과정으로서 명암 대비 스트래칭과 Othu Method를 이용하여 적응적 임계치를 추출할 수 있다. 다중 프레임 병합에 의하여 자막 프레임 구간을 추출하고, 자막 영역은 미디언 필터링, 형태학적 불림, 영역 레이블링, 후보 문자영역 필터링, 영역 최소 사각형 검출에 의하여 효율적으로 추출된다.

  • PDF

Size-Independent Caption Extraction for Korean Captions with Edge Connected Components

  • Jung, Je-Hee;Kim, Jaekwang;Lee, Jee-Hyong
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제12권4호
    • /
    • pp.308-318
    • /
    • 2012
  • Captions include information which relates to the images. In order to obtain the information in the captions, text extraction methods from images have been developed. However, most existing methods can be applied to captions with a fixed height or stroke width using fixed pixel-size or block-size operators which are derived from morphological supposition. We propose an edge connected components based method that can extract Korean captions that are composed of various sizes and fonts. We analyze the properties of edge connected components embedding captions and build a decision tree which discriminates edge connected components which include captions from ones which do not. The images for the experiment are collected from broadcast programs such as documentaries and news programs which include captions with various heights and fonts. We evaluate our proposed method by comparing the performance of the latent caption area extraction. The experiment shows that the proposed method can efficiently extract various sizes of Korean captions.

EXTRACTION OF DTV CLOSED CAPTION STREAM AND GENERATION OF VIDEO CAPTION FILE

  • Kim, Jung-Youn;Nam, Je-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.364-367
    • /
    • 2009
  • This paper presents a scheme that generates a caption file by extracting a Closed Caption stream from DTV signal. Note that Closed-Captioning service helps to bridge "digital divide" through extending broadcasting accessibility of a neglected class such as hearing-impaired person and foreigner. In Korea, DTV Closed Captioning standard was developed in June 2007, and Closed Captioning service should be supported by an enforcing law in all broadcasting services in 2008. In this paper, we describe the method of extracting a caption data from MPEG-2 Transport Stream of ATSC-based digital TV signal and generating a caption file (SAMI and SRT) using the extracted caption data and time information. Experimental results verify the feasibility of a generated caption file using a PC-based media player which is widely used in multimedia service.

  • PDF

A Method for Caption Segmentation using Minimum Spanning Tree

  • Chun, Byung-Tae;Kim, Kyuheon;Lee, Jae-Yeon
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.906-909
    • /
    • 2000
  • Conventional caption extraction methods use the difference between frames or color segmentation methods from the whole image. Because these methods depend heavily on heuristics, we should have a priori knowledge of the captions to be extracted. Also they are difficult to implement. In this paper, we propose a method that uses little heuristics and simplified algorithm. We use topographical features of characters to extract the character points and use KMST(Kruskal minimum spanning tree) to extract the candidate regions for captions. Character regions are determined by testing several conditions and verifying those candidate regions. Experimental results show that the candidate region extraction rate is 100%, and the character region extraction rate is 98.2%. And then we can see the results that caption area in complex images is well extracted.

  • PDF

신경망을 이용한 자막 크기에 무관한 연결 객체 기반의 자막 추출 (Connected Component-Based and Size-Independent Caption Extraction with Neural Networks)

  • 정제희;윤태복;김동문;이지형
    • 한국지능시스템학회논문지
    • /
    • 제17권7호
    • /
    • pp.924-929
    • /
    • 2007
  • 영상에 나타나는 자막은 영상과 관계가 있는 정보를 포함한다. 이러한 영상과 관련 있는 정보를 이용하기 위해 영상으로부터 자막을 추출하는 연구는 근래에 들어 활발히 진행되고 있다. 기존의 연구는 일정한 높이의 자막이나 획의 두께를 지닌 자막에서만 정상적인 작동을 한다. 본 논문에서는 일정 크기 이상의 자막에 대해서 적용할 수 있는 크기에 무관한 자막 추출 방법을 제안한다. 먼저, 자막 연결 객체의 패턴 추출을 위해서 자막이 포함된 영상을 수집하고, 신경망을 이용해서 자막의 패턴을 분석한다. 그 후로는 사전에 추출한 패턴을 이용하여 입력 영상에서 자막을 추출한다. 실험에 사용된 영상은 뉴스, 다큐멘터리, 쇼 프로그램과 같은 대중 방송에서 수집하였다. 실험 결과는 다양한 크기의 자막을 포함한 영상을 사용하여 실험하였고, 자막 추출의 결과는 찾아진 연결객체 중에 자막의 비율과 자막 중에 찾아진 자막의 비율로 분석하였다. 실험 결과를 보면 제안한 방법에 의해 다양한 크기의 자막을 추출할 수 있음을 보여준다.

비디오 자막 문자의 효과적인 교환 방법 (An Effective Method for Replacing Caption in Video Images)

  • 전병태;김숙연
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권2호
    • /
    • pp.97-104
    • /
    • 2005
  • 자막 문자는 시청자의 이해를 돕기 위하여 제작된 비디오 영상에 종종 삽입한다. 영화의 경우 영상과 자막과 영상의 트랙이 달라 자막 교환이 영상에 손실을 주지 않고 이루어 질 수 있다. 자막이 삽입된 비디오 영상의 경우, 기존의 자막 교환 방법은 자막이 존재하는 부분 박스 형태로 일정 영역을 색칠한 후 그위에 새로운 자막을 삽입한다. 이러한 자막 교환 방법은 문자 영역을 포함한 주변 영역의 원영상의 손실을 초래함으로써 시청자에 시청의 불편을 초래하는 문제가 있다. 본 논문에서는 기존 방법의 문제점을 해결하기 위한 효과적인 자막 교환 방법을 제안하고자 한다 효과적인 교환 방법은 자막 영역을 원영상으로 복원한 복원된 문자 영역에 교환될 문자를 삽입하는 방법이다. 실험결과 대부분 자막이 복원이 잘 되어 효과적인 자막 교환이 이루어짐을 볼 수 있었다. 일부 복잡한 영상의 경우 복원 결과 약간의 왜곡 현상은 보여주나 왜곡된 위치에 새로운 자막을 삽입은 복원의 오류를 보완하는 역할을 함으로써 자연스런 자막 교환이 이루어짐을 볼 수 있었다.

  • PDF

영화 비디오 자막 추출 및 추출된 자막 이미지 향상 방법 (Methods for Video Caption Extraction and Extracted Caption Image Enhancement)

  • 김소명;곽상신;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권4호
    • /
    • pp.235-247
    • /
    • 2002
  • 디지털 비디오 영상을 효과적으로 색인하고 검색하기 위해서 비디오의 내용을 함축적으로 표현하고 있는 비디오 자막을 추출하여 인식하는 연구가 필요하다. 본 논문에서는 압축되지 않은 비디오 영화 영상에 인위적으로 삽입한 한글 및 영어 자막을 대상으로 자막 영역을 추출하고, 추출된 자막 이미지를 향상시키는 방법을 제안한다. 제안한 방법의 특징은 동일한 내용의 자막을 갖는 프레임들의 위치를 자동으로 찾아서 동일 자막 프레임들을 다중 결합하여 배경에 포함되어 있는 잡영의 일부 또는 전부를 우선 제거한다. 또한, 이 결과 이미지에 해상도 중대, 히스토그램 평활화, 획 기반 이진화, 스무딩의 이미지 향상 방법을 단계적으로 적용하여 인식 가능한 수준의 이미지로 향상시킨다. 제안한 방법을 비디오 영상에 적용하여 동일한 내용의 자막 그룹 단위로 자막 이미지를 추출하는 것이 가능해졌으며, 잡영이 제거되고 복잡한 자소의 획이 보존된 자막 이미지를 추출할 수 있었다. 동일한 내용의 자막 프레임의 시작 및 글위치를 파악하는 것은 비디오 영상의 색인과 검색에 유용하게 활용될 수 있다. 한글 및 영어 비디오 영화 자막에 제안한 방법을 적용하여 향상된 문자 인식 결과를 얻었다.

비디오 분석을 위한 자막프레임구간과 자막영역 추출 (Extraction of Superimposed-Caption Frame Scopes and Its Regions for Analyzing Digital Video)

  • 임문철;김우생
    • 한국정보처리학회논문지
    • /
    • 제7권11호
    • /
    • pp.3333-3340
    • /
    • 2000
  • 최근 하드웨어와 압축기술의 발달로 비디오 데이터에 대한 요구가 급증하고 있다. 비디오 데이터는 비정형으로 되어있고 용량이 커서 내용기반 등 다양한 검색 기법이 요구된다. 비디오에 인위적으로 추가된 자막(Superimposed caption)은 비디오 내용을 분석하는데 중요한 역할을 하며 다양한 검색을 위한 색인 정보로 사용될 수 있다. 본 연구에서는 비디오 프레임 내의 자막영역이 가지고 있는 텍스처 특성을 분석하여 자막영역을 분할하고 프레임들 간에 자막영역의 연속성을 이용하여 정확한 자막프레임구간과 대표자막영역 및 색상을 추출하는 방법을 기술한다.

  • PDF

시·공간 정보를 이용한 동영상의 인공 캡션 검출 (Detection of Artificial Caption using Temporal and Spatial Information in Video)

  • 주성일;원선희;최형일
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권2호
    • /
    • pp.115-126
    • /
    • 2012
  • 동영상에 포함되는 인공 캡션은 영상과 관계있는 의미정보를 포함한다. 이러한 영상을 표현하는 정보를 이용하기 위해 캡션을 추출하는 연구는 근래에 들어 활발히 진행되고 있다. 기존 방법들은 대부분 정지영상에서 캡션을 검출하였다. 하지만 동영상의 경우에는 유용한 시간정보가 있다. 따라서 본 연구는 이러한 시간정보를 사용한 캡션영역 검출방법을 제안한다. 먼저, 캡션후보영역 검출을 위해 문자출현맵을 생성하고, 후보영역 매칭 과정에서 지속후보영역을 검출한다. 검출된 지속후보영역의 소멸성 검사를 통해 캡션의 소멸 여부를 검출하고 소멸된 캡션 일 경우 시 공간정보에 의한 병합과정을 통해 캡션후보영역을 결정한다. 마지막으로 결정된 캡션후보영역을 검증하기 위하여 에지 방향 히스토그램을 이용한 신경망 인식기를 통하여 최종캡션영역을 검출한다. 실험을 위해 다양한 크기와 형태, 위치의 캡션을 포함하는 동영상에 대해 영역검출의 성능을 평가하고자 Recall과 Precision을 이용하여 제안하는 방법의 영역검출에 대한 효율성을 입증한다.