• 제목/요약/키워드: Caption Region Extraction

검색결과 12건 처리시간 0.02초

다중 프레임 병합을 이용한 스포츠 비디오 자막 영역 추출 (Caption Region Extraction of Sports Video Using Multiple Frame Merge)

  • 강오형;황대훈;이양원
    • 한국멀티미디어학회논문지
    • /
    • 제7권4호
    • /
    • pp.467-473
    • /
    • 2004
  • 비디오내에서의 자막은 비디오 내용을 전달하는 중요한 역할을 수행한다. 기존의 자막 영 역 추출방법들은 잡음에 민감하여 배경에서 자막 영역의 추출이 어려웠다. 본 논문에서는 다중 프레임 병합과 영역 최소 사각형을 이용하여 스포츠 비디오에서 자막 영역을 추출하는 방법을 제안한다. 전처리과정으로서 명암 대비 스트래칭과 Othu Method를 이용하여 적응적 임계치를 추출할 수 있다. 다중 프레임 병합에 의하여 자막 프레임 구간을 추출하고, 자막 영역은 미디언 필터링, 형태학적 불림, 영역 레이블링, 후보 문자영역 필터링, 영역 최소 사각형 검출에 의하여 효율적으로 추출된다.

  • PDF

A Method for Caption Segmentation using Minimum Spanning Tree

  • Chun, Byung-Tae;Kim, Kyuheon;Lee, Jae-Yeon
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.906-909
    • /
    • 2000
  • Conventional caption extraction methods use the difference between frames or color segmentation methods from the whole image. Because these methods depend heavily on heuristics, we should have a priori knowledge of the captions to be extracted. Also they are difficult to implement. In this paper, we propose a method that uses little heuristics and simplified algorithm. We use topographical features of characters to extract the character points and use KMST(Kruskal minimum spanning tree) to extract the candidate regions for captions. Character regions are determined by testing several conditions and verifying those candidate regions. Experimental results show that the candidate region extraction rate is 100%, and the character region extraction rate is 98.2%. And then we can see the results that caption area in complex images is well extracted.

  • PDF

뉴스 비디오 자막 추출 및 인식 기법에 관한 연구 (Study on News Video Character Extraction and Recognition)

  • 김종열;김성섭;문영식
    • 대한전자공학회논문지SP
    • /
    • 제40권1호
    • /
    • pp.10-19
    • /
    • 2003
  • 비디오 영상에 포함되어 있는 자막은 비디오의 내용을 함축적으로 표현하고 있기 때문에 비디오 색인 및 검색에 중요하게 사용될 수 시다. 본 논문에서는 뉴스 비디오로부터 폰트, 색상, 자막의 크기 등과 같은 사전 지식 없이도 자막을 효율적으로 추출하여 인식하는 방법을 제안한다. 문자 영역의 추출과정에서 문자영역은 뉴스 비디오의 여러 프레임에 걸쳐나 나오기 때문에 인길 프레임의 차영상을 통해서 동일한 자막 영역이 존재하는 프레임을 자동적으로 추출한 후, 이들의 시간적 평균영상을 만들어 인식에 사용함으로써 인식률을 향상한다. 또한, 평균 영상의 외각선 영상을 수평, 수직방향으로 투영한 값을 통해 문자 영역을 찾아 Region filling, K-means clustering을 적용하여 배경들을 완벽하게 제거함으로써 최종적인 자막 영상을 추출한다. 자막 인식과정에서는 문사 영역 추출과정에서 추출된 글자영상을 사용하여 white run, zero-one transition과 같은 비교적 간단한 특징 값을 추출하여 이를 비교함으로써 인식과정을 수행한다. 제한된 방법을 다양한 뉴스 비디오에 적용하여 문자영역 추출 능력과 인식률을 측정한 결과 우수함을 확인하였다.

시·공간 정보를 이용한 동영상의 인공 캡션 검출 (Detection of Artificial Caption using Temporal and Spatial Information in Video)

  • 주성일;원선희;최형일
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권2호
    • /
    • pp.115-126
    • /
    • 2012
  • 동영상에 포함되는 인공 캡션은 영상과 관계있는 의미정보를 포함한다. 이러한 영상을 표현하는 정보를 이용하기 위해 캡션을 추출하는 연구는 근래에 들어 활발히 진행되고 있다. 기존 방법들은 대부분 정지영상에서 캡션을 검출하였다. 하지만 동영상의 경우에는 유용한 시간정보가 있다. 따라서 본 연구는 이러한 시간정보를 사용한 캡션영역 검출방법을 제안한다. 먼저, 캡션후보영역 검출을 위해 문자출현맵을 생성하고, 후보영역 매칭 과정에서 지속후보영역을 검출한다. 검출된 지속후보영역의 소멸성 검사를 통해 캡션의 소멸 여부를 검출하고 소멸된 캡션 일 경우 시 공간정보에 의한 병합과정을 통해 캡션후보영역을 결정한다. 마지막으로 결정된 캡션후보영역을 검증하기 위하여 에지 방향 히스토그램을 이용한 신경망 인식기를 통하여 최종캡션영역을 검출한다. 실험을 위해 다양한 크기와 형태, 위치의 캡션을 포함하는 동영상에 대해 영역검출의 성능을 평가하고자 Recall과 Precision을 이용하여 제안하는 방법의 영역검출에 대한 효율성을 입증한다.

비디오 자막 문자의 효과적인 교환 방법 (An Effective Method for Replacing Caption in Video Images)

  • 전병태;김숙연
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권2호
    • /
    • pp.97-104
    • /
    • 2005
  • 자막 문자는 시청자의 이해를 돕기 위하여 제작된 비디오 영상에 종종 삽입한다. 영화의 경우 영상과 자막과 영상의 트랙이 달라 자막 교환이 영상에 손실을 주지 않고 이루어 질 수 있다. 자막이 삽입된 비디오 영상의 경우, 기존의 자막 교환 방법은 자막이 존재하는 부분 박스 형태로 일정 영역을 색칠한 후 그위에 새로운 자막을 삽입한다. 이러한 자막 교환 방법은 문자 영역을 포함한 주변 영역의 원영상의 손실을 초래함으로써 시청자에 시청의 불편을 초래하는 문제가 있다. 본 논문에서는 기존 방법의 문제점을 해결하기 위한 효과적인 자막 교환 방법을 제안하고자 한다 효과적인 교환 방법은 자막 영역을 원영상으로 복원한 복원된 문자 영역에 교환될 문자를 삽입하는 방법이다. 실험결과 대부분 자막이 복원이 잘 되어 효과적인 자막 교환이 이루어짐을 볼 수 있었다. 일부 복잡한 영상의 경우 복원 결과 약간의 왜곡 현상은 보여주나 왜곡된 위치에 새로운 자막을 삽입은 복원의 오류를 보완하는 역할을 함으로써 자연스런 자막 교환이 이루어짐을 볼 수 있었다.

  • PDF

MST를 이용한 문자 영역 분할 방법 (A Method for Character Segmentation using MST(Minimum Spanning Tree))

  • 전병태;김영인
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.73-78
    • /
    • 2006
  • 기존의 문자 영역 추출 방법은 전체 영상으로부터 컬러 영역 분할이나 프레임 차 방법을 이용하였다. 이들 방법은 휴리스틱에 많이 의존하므로 추출하려는 문자의 사전 정보를 가지고 있어야한다는 점과 구현에 많은 어려움이 존재한다. 본 논문에서는 휴리스틱한 부분을 줄이고 알고리즘을 단순화한 방법을 제안하고자 한다 문자의 지형학적 특징점을 추출하고 이 점들을 MST(Minimum Spanning Tree)를 형성하여 문자의 후보 영역을 추출한다. 문자 영역을 후보 영역의 검증을 통하여 추출한다. 실험 결과 문자의 후보 영역 추출율은 100%이었으며 최종 문자 영역 추출율은 98.2%이었다. 또한 복잡한 영상에서 존재하는 문자 영역도 잘 추출됨을 볼 수 있다.

  • PDF

교육용 도서 영상을 위한 효과적인 객체 자동 분류 기술 (Efficient Object Classification Scheme for Scanned Educational Book Image)

  • 최영주;김지해;이영운;이종혁;홍광수;김병규
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권7호
    • /
    • pp.1323-1331
    • /
    • 2017
  • 오늘날 저작권 관련 산업이 사회, 경제적으로 큰 영향을 미치는 대규모 산업으로 성장하였음에도 불구하고 저작물에 대한 소유권 및 저작권에 대한 문제가 끊임없이 발생하고 있으며 특히 이미지 저작권과 관련된 연구는 거의 진행되지 않는 상태이다. 본 연구에서는 기존의 문서 영상처리 기술과 딥 러닝 기술을 융합하여 교육용 도서 영상에서의 객체 자동 추출 및 분류 기술 시스템을 제안한다. 제안된 기술은 먼저 잡음을 제거한 후, 시각적 주의(visual attention) 기반 영역 추출 과정을 수행한다. 추출된 영역을 기반으로 블록화 작업을 수행하고, 각 블록을 그림인지 아니면 문자 영역인지를 분류한다. 마지막으로 추출된 그림 영역 주위를 검색하여 캡션 영역을 추출한다. 본 연구에서 진행한 성능 평가 결과, 그림 영역은 최대 97% 정확도를 보이며, 그림 및 캡션 영역 추출에 있어서는 평균 83%의 정확도를 보여 준다.

Caption Extraction in News Video Sequence using Frequency Characteristic

  • Youglae Bae;Chun, Byung-Tae;Seyoon Jeong
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.835-838
    • /
    • 2000
  • Popular methods for extracting a text region in video images are in general based on analysis of a whole image such as merge and split method, and comparison of two frames. Thus, they take long computing time due to the use of a whole image. Therefore, this paper suggests the faster method of extracting a text region without processing a whole image. The proposed method uses line sampling methods, FFT and neural networks in order to extract texts in real time. In general, text areas are found in the higher frequency domain, thus, can be characterized using FFT The candidate text areas can be thus found by applying the higher frequency characteristics to neural network. Therefore, the final text area is extracted by verifying the candidate areas. Experimental results show a perfect candidate extraction rate and about 92% text extraction rate. The strength of the proposed algorithm is its simplicity, real-time processing by not processing the entire image, and fast skipping of the images that do not contain a text.

  • PDF

확장적 블록 정합 방법과 영역 보상법을 이용한 비디오 문자 영역 복원 방법 (A Method for Recovering Text Regions in Video using Extended Block Matching and Region Compensation)

  • 전병태;배영래
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권11호
    • /
    • pp.767-774
    • /
    • 2002
  • 기존의 원영상 복원 기술은 주로 신호 처리 분야에서 영상의 형성(formation), 저장 및 통신상에서 발생되는 왜곡 현상을 복원하는 연구가 많이 이루어 졌다. 원 영상 복원과 관련된 기존의 연구는 블록 정합(block matching algorithm)을 이용한 원영상 복원 방법이 있다. 이 방법은 오 정합(incorrect matching)이 발생하기 쉽고, 오 정합 시 에러가 전파되는 문제점이 있다. 그리고 장면 전환이 2회 이상 발생될 경우 장면 전환 지점과 지점 사이의 복원이 불가능하다는 문제점이 있다. 본 논문에서는 기존의 문제점들을 해결하기 위하여 확장적 블록 정합 방법(EBMA: Extended Block Matching Algorithm)과 영역 보상법(Region compensation method)을 이용한 원영상 복원 방법을 제안하고자 한다. 원영상 복원에 사용하기 위하여 비디오 사전 정보(장면 전환 정보, 카메라 모션 정보, 캡션 영역 정보)를 추출한다. 추출된 캡션 영역 정보를 이용하여 캡션 문자의 구성 요소 정보를 추출한다. 추출된 비디오 사전 정보를 이용하여 복원의 방향성을 결정하고, 복원의 방향성에 따라 문자의 구성 요소 단위로 확장적 블록 정합 방법과 영역 보상법을 이용하여 원영상 복원을 수행한다. 실험결과 확장적 블록 정합 방법은 빠른 물체의 움직임이나 복잡한 배경에 영향을 받지 않고 복원이 잘 되는 것을 알 수 있었다. 참조할 원영상이 없이 원영상 복원을 수행하는 영역 보상법의 복원 결과 또한 좋음을 볼 수 있었다.

비디오 자막 추출 기법에 관한 연구 (Extraction of open-caption from video)

  • 김성섭;문영식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (B)
    • /
    • pp.481-483
    • /
    • 2001
  • 본 논문에서는 동영상으로부터 색상, 서체, 크기와 같은 사전 지식 없이도 글자/자막을 효율적으로 추출하는 방법을 제안한다. 해상도가 낮고 복잡한 배경을 포함할 수 있는 비디오에서 글자 인식률 향상을 위해 먼저 동일한 텍스트 영역의 존재하는 프레임들을 자동적으로 추출한 후 이들의 시간적 평균영상을 만들어 향상된 영상을 얻는다. 평균영상의 외각선 영상의 투영 값을 통해 문자영역을 찾고 각 텍스트 영역에 대해 1차 배경제거 과정인 region filling을 적용하여 글자의 배경들을 제거 함으로써 글자를 추출한다. 1차 배경제거의 결과를 검증하고 추가적으로 k-means를 이용한 color clustering을 적용하여 남아있는 배경들을 효율적으로 제거 함으로써 최종 글자영상을 추출한다.

  • PDF