• 제목/요약/키워드: Caption Replacing

검색결과 3건 처리시간 0.015초

비디오 자막 문자의 효과적인 교환 방법 (An Effective Method for Replacing Caption in Video Images)

  • 전병태;김숙연
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권2호
    • /
    • pp.97-104
    • /
    • 2005
  • 자막 문자는 시청자의 이해를 돕기 위하여 제작된 비디오 영상에 종종 삽입한다. 영화의 경우 영상과 자막과 영상의 트랙이 달라 자막 교환이 영상에 손실을 주지 않고 이루어 질 수 있다. 자막이 삽입된 비디오 영상의 경우, 기존의 자막 교환 방법은 자막이 존재하는 부분 박스 형태로 일정 영역을 색칠한 후 그위에 새로운 자막을 삽입한다. 이러한 자막 교환 방법은 문자 영역을 포함한 주변 영역의 원영상의 손실을 초래함으로써 시청자에 시청의 불편을 초래하는 문제가 있다. 본 논문에서는 기존 방법의 문제점을 해결하기 위한 효과적인 자막 교환 방법을 제안하고자 한다 효과적인 교환 방법은 자막 영역을 원영상으로 복원한 복원된 문자 영역에 교환될 문자를 삽입하는 방법이다. 실험결과 대부분 자막이 복원이 잘 되어 효과적인 자막 교환이 이루어짐을 볼 수 있었다. 일부 복잡한 영상의 경우 복원 결과 약간의 왜곡 현상은 보여주나 왜곡된 위치에 새로운 자막을 삽입은 복원의 오류를 보완하는 역할을 함으로써 자연스런 자막 교환이 이루어짐을 볼 수 있었다.

  • PDF

비디오 자막 영역 원영상 복원 후 자막 교환 방법 (A Method for Recovering Image Data for Caption Regions and Replacing Caption Text)

  • 전병태;한규서;배영래
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 추계학술발표논문집 (상)
    • /
    • pp.743-746
    • /
    • 2001
  • 멀티미디어 정보 중 비디오 데이터는 정보량이 많기 때문에 자동화된 비디오 영상 처리 기술이 필요하다. 시청자의 이해와 시청의 편의성을 제공하기 위하여 대부분 비디오에 자막을 삽입하게 된다. 외국 방송물 및 영화에 삽입된 다른 언어 자막을 편집 과정에서 자막으로 교환 할 필요성이 종종 있게 된다. 기존의 방법들은 자막 부분을 충분히 포함하는 일정 영역에 특정 색상을 채운 후 새로운 자막을 삽입하게 된다. 기존 방법의 문제점은 많은 영역에 대해 비디오 영상 정보를 손실 시킴으로써 시청자에게 시청의 불편을 초래하고 자막 교환의 비 효율성과 부 자연스러움을 발생시킨다. 본 논문에서는 기존 방법의 문제점을 극복하기 위하여 자막 영역을 원영상으로 복원한 후 다른 자막으로 교환하는 방법을 제안하고자 한다. 원영상 복원을 위하여 비디오 정보와 BMA(Block Matching Algorithm)를 이용한 원영상 복원 방법을 제안하고, 복원된 영역에 다른 자막으로 교환함으로써 효과적인 자막 교환 방법을 제안하고자 한다. 실험 결과 원영상 복원을 이용한 자막 교환 방법은 기존 방법에 비해 자연스럽고 효과적인 교환 방법임을 볼 수 있었다.

  • PDF

텍스트-비디오 검색 모델에서의 캡션을 활용한 비디오 특성 대체 방안 연구 (A Study on the Alternative Method of Video Characteristics Using Captioning in Text-Video Retrieval Model)

  • 이동훈;허찬;박혜영;박상효
    • 대한임베디드공학회논문지
    • /
    • 제17권6호
    • /
    • pp.347-353
    • /
    • 2022
  • In this paper, we propose a method that performs a text-video retrieval model by replacing video properties using captions. In general, the exisiting embedding-based models consist of both joint embedding space construction and the CNN-based video encoding process, which requires a lot of computation in the training as well as the inference process. To overcome this problem, we introduce a video-captioning module to replace the visual property of video with captions generated by the video-captioning module. To be specific, we adopt the caption generator that converts candidate videos into captions in the inference process, thereby enabling direct comparison between the text given as a query and candidate videos without joint embedding space. Through the experiment, the proposed model successfully reduces the amount of computation and inference time by skipping the visual processing process and joint embedding space construction on two benchmark dataset, MSR-VTT and VATEX.