• 제목/요약/키워드: Captions

검색결과 64건 처리시간 0.031초

비디오 데이터의 색인과 검색 (Indexing and Retrieving of Video Data)

  • 허진용;박동원;안성옥
    • 공학논문집
    • /
    • 제3권1호
    • /
    • pp.107-116
    • /
    • 1998
  • 본 논문의 목적은 초고속 정보 통신망의 Client/Server 환경에서 MPEG 동영상을 멀티미디어 데이터베이스 관리 시스템에 저장하여 실시간 검색하고 이를 복원할 수 있는 환경을 개발하는 데 있다. 본 논문에서는 멀티미디어 데이터 전송에 필수적인 ATM 통신 환경 구축 및 MPEG-2 동영상과 ATM 망과의 연계동작 시스템을 구축하고, MPEG-2 TS 데이터를 분석하여 동영상 검색에 필수적인 I-프레임 및 키 프레임 추출 방법을 개발한다. 또한 추출한 키 프레임에 대한 색인을 부여할 수 있는 색인 편집기 및 색인을 통해 검색을 수행하는 동영상 검색기를 개발하며, 키 프레임 및 이와 관련된 색인을 관리할 수 있는 멀티미디어 데이터베이스 스키마를 설계 및 구축한다.

  • PDF

입체영상 방송텍스트에서 입체감을 위한 패럴렉스 데이터 표준화에 관한 연구 (3D stereoscopic representation of title in broadcasting, the distance standardize for the study of parallax)

  • 오문석;이윤상
    • 디지털산업정보학회논문지
    • /
    • 제7권4호
    • /
    • pp.111-118
    • /
    • 2011
  • Recent advances in the media have no special change is the development of the 3D stereoscopic image, which started in the movie is coming over now to the broadcast. Confusing variety having, in the production of 3D images that are waiting for the standardized production. 3D images of them being used in broadcast subtitles, first because there is no standardized production systems, making it look is dedicated to the time and effort. This research necessary to create 3D images of these subtitles, titles, text-based objects, such as Rig imaging using a standardized way to synthesize the most stable is proposed. First, with captions or titles, and the readability and understanding of the uniqueness to the human eye to create an environment that is kind of crowd. Because of this, excessive camera Ferrell Rex (gap) created a branch bunch of snow, work should not hurt readability. 100 adult men and women throughout the experiment.

MPEG-2 압축 동영상 정보 관리 시스템의 설계 및 구현 (Design and Implementation of MPEG-2 Compressed Video Information Management System)

  • 허진용;김인홍;배종민;강현석
    • 한국정보처리학회논문지
    • /
    • 제5권6호
    • /
    • pp.1431-1440
    • /
    • 1998
  • 동영상 정보는 자료의 양이 방대하고 다양하여 압축된 형태로 저장하고 검색하는 것이 매우 중요하다. 본 논문에서는 동영상 문서의 구조를 추출하고 동영상 스트림의 인데싱에 대한 의미를 부여할 수 있는 일반적인 데이터 모델을 제시하고, 이 모델을 이용하여 MPEG-2로 압축된 동영상 자료를 데이터베이스에 저장하고 검색하는 MPEG-2 압축 동영상 정보 관리 시스템(CVIMS, Compressed Video Information Management System)을 제안한다. CVIMS는 MPEG-2 파일에서 I-프레임들을 추출하고, 그 중에서 키 프레임(대표 이미지)을 선택한 후, 선택된 키 프레임에 대한 축소그림(thumbnail)과 캡션 및 그림 설명 정보를 데이터베이스에 저장한다. 그리고 데이터베이스에 저장된 MPEG-2 동영상을 질의어나 키 프레임을 통해 검색한다.

  • PDF

TV화면 대형화에 따른 문자그래픽 표현 연구 -시각인지도 분석 기반- (A Research of Character Graphic Design on Larger Television Screens -Based on Analysis of its Visual Perception-)

  • 이국세;문남미
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권4호
    • /
    • pp.129-138
    • /
    • 2009
  • TV방송에서의 문자그래픽(방송자막)은 영상정보에 대한 시청자의 이해를 돕고 프로그램의 가치를 높여주는 영상구성 요소로써의 역할이 확대되고 있다. 본 논문은 TV화면의 대형화와 영상의 고품질화에 적합한 글자 표현을 위해 방송문자의 글꼴, 크기, 색상, 이동속도 등 문자의 속성에 변화가 필요한 점을 찾고 그 개선 방법에 관한 연구이다. 논문에서는 이론적 고찰과 함께 전문가 그룹을 대상으로 한 델파이조사를 기반으로 TV화면의 분자가 지닌 제 특성요소와 시각적 인지도가 어떤 연관을 가지고 있는지를 고찰하고 OSMU(One Source Multi Use) 환경에서의 각 매체별 특성을 고려한 개선안을 제안한다.

  • PDF

An Image Retrieving Scheme Using Salient Features and Annotation Watermarking

  • Wang, Jenq-Haur;Liu, Chuan-Ming;Syu, Jhih-Siang;Chen, Yen-Lin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권1호
    • /
    • pp.213-231
    • /
    • 2014
  • Existing image search systems allow users to search images by keywords, or by example images through content-based image retrieval (CBIR). On the other hand, users might learn more relevant textual information about an image from its text captions or surrounding contexts within documents or Web pages. Without such contexts, it's difficult to extract semantic description directly from the image content. In this paper, we propose an annotation watermarking system for users to embed text descriptions, and retrieve more relevant textual information from similar images. First, tags associated with an image are converted by two-dimensional code and embedded into the image by discrete wavelet transform (DWT). Next, for images without annotations, similar images can be obtained by CBIR techniques and embedded annotations can be extracted. Specifically, we use global features such as color ratios and dominant sub-image colors for preliminary filtering. Then, local features such as Scale-Invariant Feature Transform (SIFT) descriptors are extracted for similarity matching. This design can achieve good effectiveness with reasonable processing time in practical systems. Our experimental results showed good accuracy in retrieving similar images and extracting relevant tags from similar images.

딥인코더-디코더 기반의 인공지능 포토 스토리텔러 (AI photo storyteller based on deep encoder-decoder architecture)

  • 민경복;;이수진;문현준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.931-934
    • /
    • 2019
  • Research using artificial intelligence to generate captions for an image has been studied extensively. However, these systems are unable to create creative stories that include more than one sentence based on image content. A story is a better way that humans use to foster social cooperation and develop social norms. This paper proposes a framework that can generate a relatively short story to describe based on the context of an image. The main contributions of this paper are (1) An unsupervised framework which uses recurrent neural network structure and encoder-decoder model to construct a short story for an image. (2) A huge English novel dataset, including horror and romantic themes that are manually collected and validated. By investigating the short stories, the proposed model proves that it can generate more creative contents compared to existing intelligent systems which can produce only one concise sentence. Therefore, the framework demonstrated in this work will trigger the research of a more robust AI story writer and encourages the application of the proposed model in helping story writer find a new idea.

Textual Inversion을 활용한 Adversarial Prompt 생성 기반 Text-to-Image 모델에 대한 멤버십 추론 공격 (Membership Inference Attack against Text-to-Image Model Based on Generating Adversarial Prompt Using Textual Inversion)

  • 오윤주;박소희;최대선
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.1111-1123
    • /
    • 2023
  • 최근 생성 모델이 발전함에 따라 생성 모델을 위협하는 연구도 활발히 진행되고 있다. 본 논문은 Text-to-Image 모델에 대한 멤버십 추론 공격을 위한 새로운 제안 방법을 소개한다. 기존의 Text-to-Image 모델에 대한 멤버십 추론 공격은 쿼리 이미지의 caption으로 단일 이미지를 생성하여 멤버십을 추론하였다. 반면, 본 논문은 Textual Inversion을 통해 쿼리 이미지에 personalization된 임베딩을 사용하고, Adversarial Prompt 생성 방법으로 여러 장의 이미지를 효과적으로 생성하는 멤버십 추론 공격을 제안한다. 또한, Text-to-Image 모델 중 주목받고 있는 Stable Diffusion 모델에 대한 멤버십 추론 공격을 최초로 진행하였으며, 최대 1.00의 Accuracy를 달성한다.

내용에 기반한 이미지 인덱싱 방법에 관한 연구 (A Study on Image Indexing Method based on Content)

  • 유원경;정을윤
    • 한국정보처리학회논문지
    • /
    • 제2권6호
    • /
    • pp.903-917
    • /
    • 1995
  • 대부분의 데이타베이스 시스템에서, 이미지는 캡션(caption), 주석(annotation), 속성(attribute)과 같이 그 이미지와 관련된 텍스트를 이용하여 간접적으로 인덱스 되었다. 그러나, 이미지에 포함된 정보를 직접적으로 사용하여 내용에 기반한 이미 지의 저장과 검색을 지원하는 이미지 데이타베이스 시스템의 요구가 점점 증가하고 있다. 내용에 기반한 몇몇 인덱싱 방법들이 있는데 그중에서 Petrakis는 이미지를 구성하는 오브젝트들의 공간관계와 속성을 고려한 이미지 인덱싱 방법을 제안했다. 이것은'2-D string'에 기반한 인덱싱 연구의 확장인데. 이 방법은 많은 저장공간을 필요로 하며 융통성이 부족하다. 본 논문은 페이징 기법을 사용하는 kd-trr를 이용한 인덱스 화일구조를 제안한다. 그리고 정규화 과정을 사용해서 실제 이미지로부터 키를 추출하는 예를 보이고 시뮬레이션을 통해 비교하였다. 실험 결과는 제안된 방법이 훨씬 적은 저장공간을 요구하고, 융통성면에서 개선이 되었음을 보여준다.

  • PDF

일반화된 문자 및 비디오 자막 영역 추출 방법 (A Generalized Method for Extracting Characters and Video Captions)

  • 전병태;배영래;김태윤
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권6호
    • /
    • pp.632-641
    • /
    • 2000
  • 기존의 문자 영역 추출 방법은 전체 영상에 대하여 컬러 축소(color reduction), 영역 분할 및 합병(region split and merge), 질감 분석(texture analysis)등과 같은 방법을 이용하여 문자 영역을 추출했다. 이 방법들은 많은 휴우리스틱(heuristic) 변수와 추출하고자 하는 문자의 사전 지식에 의해 임계치 값을 설정함으로서 알고리즘을 일반화하기 어렵다는 문제점이 있다. 본 논문에서는 문자의 지형학적 특징점 추출 방법과 점-선-면 확장법을 이용하여 문자 영역을 추출함으로서 기존 문자 영역 추출의 문제점인 휴우리스틱 변수의 사용을 최소화하고 임계치 값을 일반화함으로 서 일반화된 문자 영역 추출 방법을 제안 하고자 한다. 실험결과 일반화된 변수와 임계값을 사용함으로서 문자의 사전 지식 없이도 문자 영역을 추출함을 볼 수 있었다. 비디오 영상의 경우 후보 영역 추출율 100%, 검증을 통한 자막 영역 추출율은 98% 이상임을 볼 수 있었다.

  • PDF

위치적 연관성과 어휘적 유사성을 이용한 웹 이미지 캡션 추출 (Web Image Caption Extraction using Positional Relation and Lexical Similarity)

  • 이형규;김민정;홍금원;임해창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권4호
    • /
    • pp.335-345
    • /
    • 2009
  • 이 논문은 웹 문서의 이미지 캡션 추출을 위한 방법으로서 이미지와 캡션의 위치적 연관성과 본문과 캡션의 어휘적 유사성을 동시에 고려한 방법을 제안한다. 이미지와 캡션의 위치적 연관성은 거리와 방향 관점에서 캡션이 이미지에 상대적으로 어떻게 위치하고 있는지를 나타내며, 본문과 캡션의 어휘적 유사성은 이미지를 설명하고 있는 캡션이 어휘적으로 본문과 어느 정도 유사한지를 나타낸다. 이미지와 캡션을 독립적으로 고려한 자질만을 사용한 캡션 추출 방법을 기저 방법으로 놓고 제안하는 방법들을 추가적인 자질로 사용하여 캡션을 추출하였을 때, 캡션 추출 정확률과 캡션 추출 재현율이 모두 향상되며, 캡션 추출 F-measure가 약 28% 향상되었다.