• 제목/요약/키워드: Image Caption

검색결과 51건 처리시간 0.024초

위치적 연관성과 어휘적 유사성을 이용한 웹 이미지 캡션 추출 (Web Image Caption Extraction using Positional Relation and Lexical Similarity)

  • 이형규;김민정;홍금원;임해창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권4호
    • /
    • pp.335-345
    • /
    • 2009
  • 이 논문은 웹 문서의 이미지 캡션 추출을 위한 방법으로서 이미지와 캡션의 위치적 연관성과 본문과 캡션의 어휘적 유사성을 동시에 고려한 방법을 제안한다. 이미지와 캡션의 위치적 연관성은 거리와 방향 관점에서 캡션이 이미지에 상대적으로 어떻게 위치하고 있는지를 나타내며, 본문과 캡션의 어휘적 유사성은 이미지를 설명하고 있는 캡션이 어휘적으로 본문과 어느 정도 유사한지를 나타낸다. 이미지와 캡션을 독립적으로 고려한 자질만을 사용한 캡션 추출 방법을 기저 방법으로 놓고 제안하는 방법들을 추가적인 자질로 사용하여 캡션을 추출하였을 때, 캡션 추출 정확률과 캡션 추출 재현율이 모두 향상되며, 캡션 추출 F-measure가 약 28% 향상되었다.

비디오 자막 문자의 효과적인 교환 방법 (An Effective Method for Replacing Caption in Video Images)

  • 전병태;김숙연
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권2호
    • /
    • pp.97-104
    • /
    • 2005
  • 자막 문자는 시청자의 이해를 돕기 위하여 제작된 비디오 영상에 종종 삽입한다. 영화의 경우 영상과 자막과 영상의 트랙이 달라 자막 교환이 영상에 손실을 주지 않고 이루어 질 수 있다. 자막이 삽입된 비디오 영상의 경우, 기존의 자막 교환 방법은 자막이 존재하는 부분 박스 형태로 일정 영역을 색칠한 후 그위에 새로운 자막을 삽입한다. 이러한 자막 교환 방법은 문자 영역을 포함한 주변 영역의 원영상의 손실을 초래함으로써 시청자에 시청의 불편을 초래하는 문제가 있다. 본 논문에서는 기존 방법의 문제점을 해결하기 위한 효과적인 자막 교환 방법을 제안하고자 한다 효과적인 교환 방법은 자막 영역을 원영상으로 복원한 복원된 문자 영역에 교환될 문자를 삽입하는 방법이다. 실험결과 대부분 자막이 복원이 잘 되어 효과적인 자막 교환이 이루어짐을 볼 수 있었다. 일부 복잡한 영상의 경우 복원 결과 약간의 왜곡 현상은 보여주나 왜곡된 위치에 새로운 자막을 삽입은 복원의 오류를 보완하는 역할을 함으로써 자연스런 자막 교환이 이루어짐을 볼 수 있었다.

  • PDF

Recurrent Neural Network를 이용한 이미지 캡션 생성 (Image Caption Generation using Recurrent Neural Network)

  • 이창기
    • 정보과학회 논문지
    • /
    • 제43권8호
    • /
    • pp.878-882
    • /
    • 2016
  • 이미지의 내용을 설명하는 캡션을 자동으로 생성하는 기술은 이미지 인식과 자연어처리 기술을 필요로 하는 매우 어려운 기술이지만, 유아 교육이나 이미지 검색, 맹인들을 위한 네비게이션 등에 사용될 수 있는 중요한 기술이다. 본 논문에서는 이미지 캡션 생성을 위해 Convolutional Neural Network(CNN)으로 인코딩된 이미지 정보를 입력으로 갖는 이미지 캡션 생성에 최적화된 Recurrent Neural Network(RNN) 모델을 제안하고, 실험을 통해 본 논문에서 제안한 모델이 Flickr 8K와 Flickr 30K, MS COCO 데이터 셋에서 기존의 연구들보다 높은 성능을 얻음을 보인다.

스포츠 중계 화면 내 숫자영역에 대한 실시간 문자인식 시스템 구현 (Implement of Realtime Character Recognition System for Numeric Region of Sportscast)

  • 성시훈;전우성
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(4)
    • /
    • pp.5-8
    • /
    • 2001
  • We propose a realtime numeric caption recognition algorithm that automatically recognizes the numeric caption generated by computer graphics (CG) and displays the modified caption using the recognized resource only when a valuable numeric caption appears in the aimed specific region of the live sportscast scene produced by other broadcasting stations. We extract the mesh feature from the enhanced binary image as a feature vector after acquiring the sports broadcast scenes using a frame grabber in realtime and then recover the valuable resource from just a numeric image by perceiving the character using the neural network. Finally, the result is verified by the knowledge-based rule set designed for more stable and reliable output and is displayed on a screen as the converted CC caption serving our purpose. At present, we have actually provided the realtime automatic mile-to-kilometer caption conversion system taking up our algorithm f3r the regular Major League Baseball (MLB) program being broadcasted live throughout Korea over our nationwide network. This caption conversion system is able to automatically convert the caption in mile universally used in the United States into that in kilometer in realtime, which is familiar to almost Koreans, and makes us get a favorable criticism from the TV audience.

  • PDF

Knowledge-Based Numeric Open Caption Recognition for Live Sportscast

  • Sung, Si-Hun
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.1871-1874
    • /
    • 2003
  • Knowledge-based numeric open caption recognition is proposed that can recognize numeric captions generated by character generator (CG) and automatically superimpose a modified caption using the recognized text only when a valid numeric caption appears in the aimed specific region of a live sportscast scene produced by other broadcasting stations. in the proposed method, mesh features are extracted from an enhanced binary image as feature vectors, then a valuable information is recovered from a numeric image by perceiving the character using a multiplayer perceptron (MLP) network. The result is verified using knowledge-based hie set designed for a more stable and reliable output and then the modified information is displayed on a screen by CG. MLB Eye Caption based on the proposed algorithm has already been used for regular Major League Base-ball (MLB) programs broadcast five over a Korean nationwide TV network and has produced a favorable response from Korean viewer.

  • PDF

영화 비디오 자막 추출 및 추출된 자막 이미지 향상 방법 (Methods for Video Caption Extraction and Extracted Caption Image Enhancement)

  • 김소명;곽상신;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권4호
    • /
    • pp.235-247
    • /
    • 2002
  • 디지털 비디오 영상을 효과적으로 색인하고 검색하기 위해서 비디오의 내용을 함축적으로 표현하고 있는 비디오 자막을 추출하여 인식하는 연구가 필요하다. 본 논문에서는 압축되지 않은 비디오 영화 영상에 인위적으로 삽입한 한글 및 영어 자막을 대상으로 자막 영역을 추출하고, 추출된 자막 이미지를 향상시키는 방법을 제안한다. 제안한 방법의 특징은 동일한 내용의 자막을 갖는 프레임들의 위치를 자동으로 찾아서 동일 자막 프레임들을 다중 결합하여 배경에 포함되어 있는 잡영의 일부 또는 전부를 우선 제거한다. 또한, 이 결과 이미지에 해상도 중대, 히스토그램 평활화, 획 기반 이진화, 스무딩의 이미지 향상 방법을 단계적으로 적용하여 인식 가능한 수준의 이미지로 향상시킨다. 제안한 방법을 비디오 영상에 적용하여 동일한 내용의 자막 그룹 단위로 자막 이미지를 추출하는 것이 가능해졌으며, 잡영이 제거되고 복잡한 자소의 획이 보존된 자막 이미지를 추출할 수 있었다. 동일한 내용의 자막 프레임의 시작 및 글위치를 파악하는 것은 비디오 영상의 색인과 검색에 유용하게 활용될 수 있다. 한글 및 영어 비디오 영화 자막에 제안한 방법을 적용하여 향상된 문자 인식 결과를 얻었다.

정지자막 영역의 움직임 보상 보간 기법 (Motion-Compensated Interpolation for Non-moving Caption Region)

  • 이정훈;한동일
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2007년도 하계종합학술대회 논문집
    • /
    • pp.363-364
    • /
    • 2007
  • In this paper, we present a novel motion-compensated interpolation technique for non-moving caption region to prevent the block artifacts due to the failure of conventional block-based motion estimation algorithm on the block is consist of non-moving caption and moving object. Experimental results indicate good performance of the proposed scheme with significantly reduced block artifacts on image sequence that include non-moving caption. Also the proposed method is simple and adequate for hardware implementation.

  • PDF

SNS 쇼핑정보의 레이아웃 프레이밍 연구: A-D 관점에서 (The Effect of Layout Framing on SNS Shopping Information: A-D Perspective)

  • ;;이동석;김귀곤
    • 산업융합연구
    • /
    • 제21권11호
    • /
    • pp.1-12
    • /
    • 2023
  • 최근 SNS의 폭발적인 인기에 힘입어 SNS 마케팅의 활용이 중요해지고 있으며, 이 과정에서 SNS 레이아웃의 Image 와 Caption 순서의 중요성도 커지고 있다. 이에 본 연구는 SNS 레이아웃의 이미지와 텍스트 순서가 사용자 태도에 어떠한 영향을 미치는지를 살펴보기 위해 진행되었다. 본 연구를 위해 대구·경북에 거주하는 일반인과 대학(원)생들 350명을 대상으로 설문조사를 실시하였다. SPSS 21.0 프로그램을 이용하여 PROCESS, 회귀분석, t-test를 진행하였다. 연구 결과, Image First 레이아웃이 Caption First 레이아웃에 비해 접근성이 높은 것으로 확인되었으며, Caption First 레이아웃이 Image First 레이아웃에 비해 진단성이 높은 것으로 확인되었다. SNS 레이아웃이 사용자 태도에 미치는 영향에 대한 3가지 경로의 매개효과를 검증하였다. SNS 레이아웃이 사용자 태도에 미치는 영향에 진단성과 유용성이 매개하는 경우와 접근성, 진단성 및 유용성이 매개하는 경우의 간접효과를 확인하였다. 두 경우 중 진단성과 유용성의 매개효과가 더 높게 나타났다. 또한 접근성이 진단성에 미치는 영향은 관여도가 낮은 경우보다 높은 경우 더 높게 나타났다.

A Method for Caption Segmentation using Minimum Spanning Tree

  • Chun, Byung-Tae;Kim, Kyuheon;Lee, Jae-Yeon
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.906-909
    • /
    • 2000
  • Conventional caption extraction methods use the difference between frames or color segmentation methods from the whole image. Because these methods depend heavily on heuristics, we should have a priori knowledge of the captions to be extracted. Also they are difficult to implement. In this paper, we propose a method that uses little heuristics and simplified algorithm. We use topographical features of characters to extract the character points and use KMST(Kruskal minimum spanning tree) to extract the candidate regions for captions. Character regions are determined by testing several conditions and verifying those candidate regions. Experimental results show that the candidate region extraction rate is 100%, and the character region extraction rate is 98.2%. And then we can see the results that caption area in complex images is well extracted.

  • PDF

Bi-GRU 이미지 캡션의 서술 성능 향상을 위한 Parallel Injection 기법 연구 (Parallel Injection Method for Improving Descriptive Performance of Bi-GRU Image Captions)

  • 이준희;이수환;태수호;서동환
    • 한국멀티미디어학회논문지
    • /
    • 제22권11호
    • /
    • pp.1223-1232
    • /
    • 2019
  • The injection is the input method of the image feature vector from the encoder to the decoder. Since the image feature vector contains object details such as color and texture, it is essential to generate image captions. However, the bidirectional decoder model using the existing injection method only inputs the image feature vector in the first step, so image feature vectors of the backward sequence are vanishing. This problem makes it difficult to describe the context in detail. Therefore, in this paper, we propose the parallel injection method to improve the description performance of image captions. The proposed Injection method fuses all embeddings and image vectors to preserve the context. Also, We optimize our image caption model with Bidirectional Gated Recurrent Unit (Bi-GRU) to reduce the amount of computation of the decoder. To validate the proposed model, experiments were conducted with a certified image caption dataset, demonstrating excellence in comparison with the latest models using BLEU and METEOR scores. The proposed model improved the BLEU score up to 20.2 points and the METEOR score up to 3.65 points compared to the existing caption model.