• 제목/요약/키워드: Caption extraction

검색결과 33건 처리시간 0.022초

비디오 영상 정보 검색을 위한 문자 추출 및 인식 (Caption Detection and Recognition for Video Image Information Retrieval)

  • 구건서
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권7호
    • /
    • pp.901-914
    • /
    • 2002
  • 본 논문에서는 비디오에서 입력된 영상으로부터 내용기반 검색을 위해 자동으로 자막을 추출하여 특징 추출을 기반의 단층 연결 신경망 인식기(FE-MCBP)에 의해 자막 문자를 인식하여 영상 자막의 내용을 검출하는 방법을 제시하였다. 비디오에서 자막 추출은 먼저, 비디오에서 일정한 시간 간격으로 획득한 프레임 중에서 히스토그램 분석을 통하여 키 프레임을 찾는 과정을 수행하며, 그 다음에 각각의 키 프레임에 대하여 칼라 세그먼테이션 후 라인 검사 방법 통하여 자막 영역을 추출하도록 하였다. 마지막으로 추출된 자막영역에서 개별문자를 분리하였다. 본 연구에서는 칼라 히스토그램을 분석 후 지역 최대값을 이용하여 세그먼테이션 후 라인 검사를 수행함으로써 처리 속도와 자막영역 검출의 정확도를 개선하였다. 비디오에서 자막 추출은 비디오 정보를 멀티미디어 데이터베이스화하는 초기 단계로 추출된 자막은 바로 문자 인식기의 입력이 된다. 또한 인식된 자막정보는 데이터베이스로 구축되며 내용기반 검색 기법에 의해 검색되도록 하였다.

  • PDF

뉴스 비디오 자막 추출 및 인식 기법에 관한 연구 (Study on News Video Character Extraction and Recognition)

  • 김종열;김성섭;문영식
    • 대한전자공학회논문지SP
    • /
    • 제40권1호
    • /
    • pp.10-19
    • /
    • 2003
  • 비디오 영상에 포함되어 있는 자막은 비디오의 내용을 함축적으로 표현하고 있기 때문에 비디오 색인 및 검색에 중요하게 사용될 수 시다. 본 논문에서는 뉴스 비디오로부터 폰트, 색상, 자막의 크기 등과 같은 사전 지식 없이도 자막을 효율적으로 추출하여 인식하는 방법을 제안한다. 문자 영역의 추출과정에서 문자영역은 뉴스 비디오의 여러 프레임에 걸쳐나 나오기 때문에 인길 프레임의 차영상을 통해서 동일한 자막 영역이 존재하는 프레임을 자동적으로 추출한 후, 이들의 시간적 평균영상을 만들어 인식에 사용함으로써 인식률을 향상한다. 또한, 평균 영상의 외각선 영상을 수평, 수직방향으로 투영한 값을 통해 문자 영역을 찾아 Region filling, K-means clustering을 적용하여 배경들을 완벽하게 제거함으로써 최종적인 자막 영상을 추출한다. 자막 인식과정에서는 문사 영역 추출과정에서 추출된 글자영상을 사용하여 white run, zero-one transition과 같은 비교적 간단한 특징 값을 추출하여 이를 비교함으로써 인식과정을 수행한다. 제한된 방법을 다양한 뉴스 비디오에 적용하여 문자영역 추출 능력과 인식률을 측정한 결과 우수함을 확인하였다.

MPEG-2 뉴스영상에서 문자영역 추출 및 문자 인식 (Extraction and Recognition of Character from MPEG-2 news Video Images)

  • 박영규;김성국;유원영;김준철;이준환
    • 한국정보처리학회논문지
    • /
    • 제6권5호
    • /
    • pp.1410-1417
    • /
    • 1999
  • In this paper, we propose the method of extracting the caption regions from news video and the method of recognizing the captions that can be used mainly for content-based indexing and retrieving the MPEG-2 compressed news for NOD(News On Demand). The proposed method can reduce the searching time on detecting caption frames with minimum MPEG-2 decoding, and effectively eliminate the noise in caption regions by deliberately devised preprocessing. Because the kind of fonts that are used for captions is not various in the news video, an enhanced template matching method is used for recognizing characters. We could obtain good recognition result in the experiment of sports news video by the proposed methods.

  • PDF

한국어 폐쇄자막을 이용한 지식기반 비디오 검색 시스템 (Knowledge-based Video Retrieval System Using Korean Closed-caption)

  • 조정원;정승도;최병욱
    • 전자공학회논문지CI
    • /
    • 제41권3호
    • /
    • pp.115-124
    • /
    • 2004
  • 저 수준의 특징정보를 사용하는 내용기반 검색만으로 지능형 정보검색을 위한 사용자의 개념적인 요구에 부합하는 검색결과를 제공하기 어렵다. 일반적으로 비디오 데이터에는 동영상 정보와 함께 음성, 음향 등의 오디오 정보와 폐쇄자막 등의 정보가 포함되어 있다. 지식기반 비디오 검색은 그러한 다양한 정보를 사용하여 자동색인을 수행하고 색인 데이터베이스를 구축한다. 이로써 사용자는 보다 개념적인 검색 요구에 부합하는 검색 결과를 얻을 수 있다. 본 논문에서는 비디오 내의 한국어 폐쇄자막을 이용한 지식기반 비디오 검색 시스템을 제안한다. 한국어 폐쇄자막은 형태소 분석 수준에서 자동색인되며, 색인 데이터베이스를 이용하여 키워드 질의를 통해 비디오를 검색할 수 있다. 실험에서 한국어 속기시스템으로 제작된 폐쇄자막이 포함된 뉴스비디오에 적용하여, 제안하는 방법이 사용자의 보다 의미 있는 개념적인 요구에 부합하는 검색 결과를 얻을 수 있음을 확인하였다.

내용 기반 검색을 위한 뉴스 비디오 키 프레임의 특징 정보 추출 (Extraction of Features in key frames of News Video for Content-based Retrieval)

  • 정영은;이동섭;전근환;이양원
    • 한국정보처리학회논문지
    • /
    • 제5권9호
    • /
    • pp.2294-2301
    • /
    • 1998
  • 본 논문은 방송사별 각 장면의 중요한 내용의 성격을 갖고 있는 특징을 방송사별 뉴스 비디오에서 추출하기 위한 것이다. 추출하고자 하는 특징의 요소는 방송사 구별을 위한 방송사 아이콘과 각 장면의 대표적 성격을 갖고 있는 아이콘, 각 장면내의 주요 내용을 대표하는 정보인 자막의 문장 추출이다. 본 논문에서 제안하는 방법은, 비디오 프레임으로 입력되는 영상을 YIQ칼라 공간으로 전환한 뒤 히스토그램 평활화 방법을 이용하여 입력 영상의 영역 구분을 명확하게 한 후에, 영상의 에지를 추출하고 수직과 수평선에 기반한 에지 히스토그램의 비교에 의하여 원하는 특징을 추출하는 것이다. 또한 히스토그램 차이값에 의해서 선택된 키 프레임들 중에서 뉴스 아이콘을 추출하고 아이콘에 의하여 각 장면을 분할 할 수 있는 방법을 제안하였다. 본 논문에서는 칼라 히스토그램이나 웨이블릿, 또는 객체의 움직임에 기반한 복잡한 방법대신 에지 히스토그램 비교 방법을 사용하여, 알고리즘을 간소화함으로써 계산 시간을 단축하였으며 특징 추출에도 좋은 결과를 나타냈다.

  • PDF

교육용 도서 영상을 위한 효과적인 객체 자동 분류 기술 (Efficient Object Classification Scheme for Scanned Educational Book Image)

  • 최영주;김지해;이영운;이종혁;홍광수;김병규
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권7호
    • /
    • pp.1323-1331
    • /
    • 2017
  • 오늘날 저작권 관련 산업이 사회, 경제적으로 큰 영향을 미치는 대규모 산업으로 성장하였음에도 불구하고 저작물에 대한 소유권 및 저작권에 대한 문제가 끊임없이 발생하고 있으며 특히 이미지 저작권과 관련된 연구는 거의 진행되지 않는 상태이다. 본 연구에서는 기존의 문서 영상처리 기술과 딥 러닝 기술을 융합하여 교육용 도서 영상에서의 객체 자동 추출 및 분류 기술 시스템을 제안한다. 제안된 기술은 먼저 잡음을 제거한 후, 시각적 주의(visual attention) 기반 영역 추출 과정을 수행한다. 추출된 영역을 기반으로 블록화 작업을 수행하고, 각 블록을 그림인지 아니면 문자 영역인지를 분류한다. 마지막으로 추출된 그림 영역 주위를 검색하여 캡션 영역을 추출한다. 본 연구에서 진행한 성능 평가 결과, 그림 영역은 최대 97% 정확도를 보이며, 그림 및 캡션 영역 추출에 있어서는 평균 83%의 정확도를 보여 준다.

MST를 이용한 문자 영역 분할 방법 (A Method for Character Segmentation using MST(Minimum Spanning Tree))

  • 전병태;김영인
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.73-78
    • /
    • 2006
  • 기존의 문자 영역 추출 방법은 전체 영상으로부터 컬러 영역 분할이나 프레임 차 방법을 이용하였다. 이들 방법은 휴리스틱에 많이 의존하므로 추출하려는 문자의 사전 정보를 가지고 있어야한다는 점과 구현에 많은 어려움이 존재한다. 본 논문에서는 휴리스틱한 부분을 줄이고 알고리즘을 단순화한 방법을 제안하고자 한다 문자의 지형학적 특징점을 추출하고 이 점들을 MST(Minimum Spanning Tree)를 형성하여 문자의 후보 영역을 추출한다. 문자 영역을 후보 영역의 검증을 통하여 추출한다. 실험 결과 문자의 후보 영역 추출율은 100%이었으며 최종 문자 영역 추출율은 98.2%이었다. 또한 복잡한 영상에서 존재하는 문자 영역도 잘 추출됨을 볼 수 있다.

  • PDF

신경망을 이용한 자막 크기에 무관한 연결 객체 기반의 자막 추출 (Connected Component-based Regardless of Caption Size Caption Extraction with Neural Network)

  • 정제희;윤태복;김동문;이지형
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.172-175
    • /
    • 2007
  • 영상에 나타나는 자막은 영상과 관계가 있는 정보를 포함한다. 이러한 자막의 정보를 이용하기 위해 영상으로부터 자막을 추출하는 연구는 근래에 들어 활발히 진행되고 있다. 기존의 연구는 일정한 높이의 자막이나 획의 두께를 가진 자막만을 추출하였다. 본 논문에서는 일정 크기 이상의 크기에 무관한 자막을 추출하는 방법을 제안한다. 먼저, 자막 추출을 위해서 영상에 포함된 픽셀들의 연결 객체를 생성하였다. 그리고 연결 객체 중에서 자막의 형태적인 특정의 패턴을 분석하고, 패턴을 이용하여 자막을 추출하였다. 실험에 사용된 영상은 다큐멘터리, 쇼 프로그램과 같은 대중 방송에서 획득하였으며, 실험 결과는 다양한 크기의 자막을 포함한 영상을 사용하여 실험하였고, 자막 추출의 결과는 찾아진 연결객체 중에 자막의 비율과 자막 중에 찾아진 자막의 비율로 분석하였다. 제안한 방법에 의해 다양한 크기의 자막을 추출할 수 있었다.

  • PDF

Video Captioning with Visual and Semantic Features

  • Lee, Sujin;Kim, Incheol
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1318-1330
    • /
    • 2018
  • Video captioning refers to the process of extracting features from a video and generating video captions using the extracted features. This paper introduces a deep neural network model and its learning method for effective video captioning. In this study, visual features as well as semantic features, which effectively express the video, are also used. The visual features of the video are extracted using convolutional neural networks, such as C3D and ResNet, while the semantic features are extracted using a semantic feature extraction network proposed in this paper. Further, an attention-based caption generation network is proposed for effective generation of video captions using the extracted features. The performance and effectiveness of the proposed model is verified through various experiments using two large-scale video benchmarks such as the Microsoft Video Description (MSVD) and the Microsoft Research Video-To-Text (MSR-VTT).

Caption Extraction in News Video Sequence using Frequency Characteristic

  • Youglae Bae;Chun, Byung-Tae;Seyoon Jeong
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.835-838
    • /
    • 2000
  • Popular methods for extracting a text region in video images are in general based on analysis of a whole image such as merge and split method, and comparison of two frames. Thus, they take long computing time due to the use of a whole image. Therefore, this paper suggests the faster method of extracting a text region without processing a whole image. The proposed method uses line sampling methods, FFT and neural networks in order to extract texts in real time. In general, text areas are found in the higher frequency domain, thus, can be characterized using FFT The candidate text areas can be thus found by applying the higher frequency characteristics to neural network. Therefore, the final text area is extracted by verifying the candidate areas. Experimental results show a perfect candidate extraction rate and about 92% text extraction rate. The strength of the proposed algorithm is its simplicity, real-time processing by not processing the entire image, and fast skipping of the images that do not contain a text.

  • PDF