• 제목/요약/키워드: Video browsing

검색결과 119건 처리시간 0.028초

교양비디오의 시간지원 비디오 모델링 (Temporal Video Modeling of Cultural Video)

  • 강오형;이지현;고성현;김정은;오재철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.439-442
    • /
    • 2004
  • 기존의 비디오 데이터베이스 시스템들은 대부분 간단한 간격을 기반으로 한 관계와 연산을 지원하는 모델을 이용하였다. 비디오 모델에서 시간을 지원하고 객체와 시간의 다양한 연산을 제공하며 효율적인 검색과 브라우징을 지원하는 비디오 데이터 모델이 필요하게 되었다. 비디오 모델은 객체 지향 개념을 기반으로 한 모델로서 비디오의 논리적인 스키마, 객체의 속성과 연산 관계, 그리고 상속과 주석을 이용한 메타데이터 설계를 통하여 비디오 데이터에 대한 전체적인 모델 구조를 제시하였다. 그리고, 점 시간과 시간 간격을 정의하여 시간의 개념을 객체 지향 기반 모델에 부여함으로서 시간 변화에 따른 비디오 정보를 보다 효율적으로 활용할 수 있도록 하였다.

  • PDF

링크드 데이터를 이용한 협업적 비디오 어노테이션 및 브라우징 시스템 (A Collaborative Video Annotation and Browsing System using Linked Data)

  • 이연호;오경진;신위살;조근식
    • 지능정보연구
    • /
    • 제17권3호
    • /
    • pp.203-219
    • /
    • 2011
  • 최근 인터넷이 가능한 컴퓨터뿐만 아니라 스마트TV, 스마트폰과 같은 장치를 통한 동영상 형태의 멀티미디어 소비가 증가함에 따라 단순히 시청만 하는 것이 아니라 동영상 콘텐츠 사용자들은 자신이 원하는 동영상 콘텐츠를 찾거나 동영상 콘텐츠에 등장하는 객체의 부가 정보를 브라우징 하고자 하는 요구가 증대되고 있다. 이러한 사용자의 요구를 충족시키기 위해서는 노동집약적인 어노테이션 작업이 불가피하다. 동영상 콘텐츠에 등장하는 객체에 직접 부가정보를 기술하는 키워드 기반 어노테이션 연구에서는 객체에 대한 관련 정보들을 어노테이션 데이터에 모두 포함시켜 대용량 데이터를 개별적으로 직접 관리해야 한다. 이러한 어노테이션 데이터를 이용하여 브라우징을 할 때, 어노테이션 데이터에 이미 포함 되어 있는 정보만 제한적으로 검색이 된다는 단점을 가지고 있다. 또한, 기존의 객체 기반 어노테이션에서는 어노테이션 작업량을 줄이기 위해 객체 검출 및 인식, 트래킹 등의 컴퓨터 비전 기술을 적용한 자동 어노테이션을 시도하고 있다. 그러나 다양한 종류의 객체를 모두 검출해내고 인식하여, 자동으로 어노테이션을 하기에는 현재까지의 기술로는 큰 어려움이 있다. 이러한 문제점들을 극복하고자 본 논문에서는 비디오 어노테이션 모듈과 브라우징 모듈로 구성되는 시스템을 제안한다. 시맨틱 데이터에 접근하기 위해 링크드 데이터를 이용하여 다수의 어노테이션을 수행하는 사용자들이 협업적으로 동영상 콘텐츠에 등장하는 객체에 대한 어노테이션을 수행 할 수 있도록 하는 어노테이션 모듈이다. 첫 번째는 어노테이션 서버에서 관리되는 어노테이션 데이터는 온톨로지 형태로 표현하여 다수의 사용자가 어노테이션 데이터를 쉽게 공유하고 확장 할 수 있도록 하였다. 특히 어노테이션 데이터는 링크드 데이터에 존재하는 객체의 URI와 동영상 콘텐츠에 등장하는 객체를 연결하기만 한다. 즉, 모든 관련 정보를 포함하고 있는 게 아니라 사용자의 요구가 있을 때, 해당 객체의 URI를 이용하여 링크드 데이터로부터 가져온다. 두 번째는 시청자들이 동영상 콘텐츠를 시청하는 중 관심 있는 객체에 대한 정보를 브라우징 하는 모듈이다. 이 모듈은 시청자의 간단한 상호작용을 통해 적절한 질의문을 자동으로 생성하고 관련 정보를 링크드 데이터로 부터 얻어 제공한다. 본 연구를 통해 시맨틱웹 환경에서 사용자의 상호작용을 통해 즉각적으로 관심 있는 객체의 부가적인 정보를 얻을 수 있도록 함으로써 향후 개선된 동영상 콘텐츠 서비스 환경이 구축 될 수 있기를 기대한다.

Multimodal Approach for Summarizing and Indexing News Video

  • Kim, Jae-Gon;Chang, Hyun-Sung;Kim, Young-Tae;Kang, Kyeong-Ok;Kim, Mun-Churl;Kim, Jin-Woong;Kim, Hyung-Myung
    • ETRI Journal
    • /
    • 제24권1호
    • /
    • pp.1-11
    • /
    • 2002
  • A video summary abstracts the gist from an entire video and also enables efficient access to the desired content. In this paper, we propose a novel method for summarizing news video based on multimodal analysis of the content. The proposed method exploits the closed caption data to locate semantically meaningful highlights in a news video and speech signals in an audio stream to align the closed caption data with the video in a time-line. Then, the detected highlights are described using MPEG-7 Summarization Description Scheme, which allows efficient browsing of the content through such functionalities as multi-level abstracts and navigation guidance. Multimodal search and retrieval are also within the proposed framework. By indexing synchronized closed caption data, the video clips are searchable by inputting a text query. Intensive experiments with prototypical systems are presented to demonstrate the validity and reliability of the proposed method in real applications.

  • PDF

시간기반 비디오 검색 시스템 (Temporal_based Video Retrival System)

  • 이지현;강오형;나도원;이양원
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 추계종합학술대회
    • /
    • pp.631-634
    • /
    • 2005
  • 기존의 비디오 데이터베이스 시스템들은 대부분 간단한 간격을 기반으로한 관계와 연산을 지원하는 모델을 이용하였다. 비디오 모델에서 시간을 지원하고 객체와 시간의 다양한 연산을 제공하며 효율적인 검색과 브라우징을 지원하는 비디오 데이터 모델이 필요하게 되었다. 비디오 모델은 객체 지향 개념을 기반으로 한 모델로서 비디오의 논리적인 스키마, 객체의 속성과 연산 관계, 그리고 상속과 주석을 이용한 메타데이터 설계를 통하여 비디오 데이터에 대한 전체적인 모델 구조를 제시하였다. 그리고 점 시간과 시간 간격을 정의하여 시간의 개념을 객체 지향 기반 모델에 부여함으로서 시간 변화에 따른 비디오 정보를 보다 효율적으로 활용할 수 있도록 하였다.

  • PDF

MPEG 부호화 영역에서 Video Genre 자동 분류 방법 (Automatic Video Genre Classification Method in MPEG compressed domain)

  • 김태희;이웅희;정동석
    • 한국통신학회논문지
    • /
    • 제27권8A호
    • /
    • pp.836-845
    • /
    • 2002
  • Video Summary는 길이가 긴 Video를 고속으로 효율적으로 열람할 수 있도록 하는 도구의 하나이다. Video Summary는 대표 프레임(Key-frame)들의 집합으로 볼 수 있는데 대표 프레임은 Video의 Genre에 따라서 달리 정의 및 생성될 수 있다. 즉 모든 Genre의 Video에 대해서 획일적인 방법으로 Summary를 만드는 것은 적절하지 못한 결과를 초래할 수 있다. Video의 Genre를 구별해내는 기술은 위와 같이 효율적인 Video Summary 생성에 유용한 처리 과정이라 할 수 있다. 본 논문에서는 이와 같이 효율적 Video 관리를 위해 MPEG 부호화 영역에서 MPEG Video의 Genre를 분류하는 방법을 제안한다. 제안된 방법은 프레임을 복호하지 않고 비트스트림을 직접 처리하여 기존 방법들에 비해 계산이 비교적 단순하고 처리시간을 단축시키는 장점을 가지고 있다. 또한 제안된 방법은 대부분의 작업을 시각 정보만을 이용하여 수행하며 이 정보들의 시, 공간적 해석을 통해 Genre를 확인하게 된다. 실험은 만화(Cartoon), 광고(Commercial), Music Video, 뉴스, Sports, Talk Show의 6개 Genre Video에 대하여 실행하였다. 실험 결과, 구조가 명확한 Talk Show와 Sports의 경우 90% 이상의 결과를 얻었다.

공동 브라우징을 지원하는 웹 기반의 동기적 원격 학습 시스템 (A Web-based Synchronous Distance Learning System Supporting the Collaborative Browsing)

  • 이성제;신근재;김엄준;김문석;성미영
    • 한국멀티미디어학회논문지
    • /
    • 제4권5호
    • /
    • pp.430-438
    • /
    • 2001
  • 본 논문에서는 공동 브라우징을 지원하는 웹 기반의 동기적 원격 학습 시스템의 설계와 구현 내용을 소개한다. 본 논문에서 제안하는 시스템은 학사관리 시스템, 화이트보드 시스템, 화상 회의 시스템, 공동 브라우징 시스템, 그리고 세션 관리자로 구성되어 있다. 본 시스템을 구성하는 시스템 중 공동 브라우징 시스템은 다른 원격학습 시스템에서 찾아보기 어려운 독특한 시스템이다. 우리의 공동 브라우징 시스템은 상용 웹 브라우저에서 실행되며, 교사가 교육에 필요한 웹사이트들을 이동할 때 교사의 웹 브라우저의 내용을 그대로 사용자에게 동기화 되어 보여줌으로써 마치 학습자 자신이 웹 서핑을 하는 것처럼 느끼게 해준다. 세션 관리자는 멀티유저와 멀티그룹을 지원하며 화이트보드, 화상회의, 공동 브라우징 시스템 등의 다양한 원격 학습 컴포넌트들이 같은 세션 정보를 가질 수 있게 하여 하나의 원격학습 시스템으로 통합될 수 있게 한다. 본 시스템은 공동 브라우징 등 여러 가지 동기적인 기능을 지원하여 원격 학습의 효율을 증진시키고, 마치 동일한 강의실에서 학습하고 있는 듯한 효과를 얻을 수 있게 해준다.

  • PDF

대화형 방송 환경을 위한 동적 비디오 요약 (Dynamic Video Abstraction for Interactive Broadcasting Applications)

  • 김재곤;장현성;김진웅
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵
    • /
    • pp.103-108
    • /
    • 1999
  • 방송 환경의 디지털화와 더불어 단순히 단방향 방송 정보만을 시청하던 기존의 방식을 넘어 사용자의 다양한 욕구를 수용할 수 있는 대화형 방송 서비스(interactive broadcasting service)가 시작되고 있다. 대화형 방송 환경에서는 특히 사용자 측에 제공된 방대한 양의 디지털 멀티미디어 자료에 대한 효과적인 접근이 요구되는데, 본 논문에서는 이를 위하여 방송 비디오를 효과적으로 브라우징(browsing) 및 검색하고 전체의 내용을 짧은 시간 내에 개관할 수 있도록 하는 동적 비디오 요약(dynamic video abstraction) 기법에 관하여 고찰한다. 동적 비디오 요약에 의한 요약 비디오(skim video)는 전체 비디오를 내용에 기반하여 효과적으로 표현할 수 있도록 동영상 내의 주요 구간만으로 구성된 것으로, 대화형 방송에서 새로운 형태의 프로그램 안내 및 사용자 저장 자료에 대한 브라우징 도구 등으로써 매우 유용하게 사용할 수 있다. 본 논문에서는 자동으로 비디오 요약을 구현하기 위한 접근 방법과 전체 기능 구성 및 각 기능들의 구현 방법에 대하여 기술한다.

  • PDF

Toward a Structural and Semantic Metadata Framework for Efficient Browsing and Searching of Web Videos

  • 김현희
    • 한국문헌정보학회지
    • /
    • 제51권1호
    • /
    • pp.227-243
    • /
    • 2017
  • This study proposed a structural and semantic framework for the characterization of events and segments in Web videos that permits content-based searches and dynamic video summarization. Although MPEG-7 supports multimedia structural and semantic descriptions, it is not currently suitable for describing multimedia content on the Web. Thus, the proposed metadata framework that was designed considering Web environments provides a thorough yet simple way to describe Web video contents. Precisely, the metadata framework was constructed on the basis of Chatman's narrative theory, three multimedia metadata formats (PBCore, MPEG-7, and TV-Anytime), and social metadata. It consists of event information, eventGroup information, segment information, and video (program) information. This study also discusses how to automatically extract metadata elements including structural and semantic metadata elements from Web videos.

커쉬함수를 이용한 효율적인 비디오 클립 정합 알고리즘 (An Efficient Video Clip Matching Algorithm Using the Cauchy Function)

  • 김상현
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.294-300
    • /
    • 2004
  • 디지털 미디어의 증가로 비디오 클립을 효율적으로 정합하기 위한 다양한 알고리즘이 제안되었다. 기존의 비디오 검색 알고리즘에서는 주로 프레임 단위의 질의에 관한 검색 알고리즘이 연구되었으나 비디오 클립 단위의 질의에 관한 정합 알고리즘 연구는 미진하였다. 본 논문에서는 비디오 클립 질의에 관한 효율적인 비디오 색인과 검색 알고리즘을 제안한다. 시퀀스 정합의 정확도와 성능 향상을 위하여 연속되는 프레임의 히스토그램간의 유사도 함수로 커쉬함수를 사용하였으며 기존의 방법에 비해 높은 성능을 나타내었다. 비디오 샷들로부터 추출된 키프레임들은 샷묶음 뿐만 아니라 비디오 시퀀스 정합이나 브라우징에도 사용되며 여기서 키프레임은 이전 프레임들과 중요한 차이를 보이는 프레임을 나타낸다. 실험 영상을 이용한 실험결과 제안한 방법은 기존의 방법에 비해 적은 계산량으로 높은 정합 성능을 보였다.

  • PDF

하이퍼맵 데이타베이스에 관한 연구 (A Study on Hypermap Database)

  • 김용일;편무욱
    • 대한공간정보학회지
    • /
    • 제4권1호
    • /
    • pp.43-55
    • /
    • 1996
  • 본 연구에서는 하이퍼맵의 주요 하부구조의 하나인 동영상을 GIS에 도입하는 과정에서 필요한 동영상지원 수치지도 데이타베이스의 구조에 대한 연구를 진행하였다. 이 데이타베이스는 도로상의 위치와 연결된 동영상의 출력 및 동영상에 표현된 각종 지형지물과 2차원 수치지도내의 지형지물을 연계가 가능하도록 설계하였다. 연구의 평가를 위해 실험용 GIS시스템을 제작하여 2차원 수치지도의 기능, 동영상과 도로선형의 연계 기능, 동영상 및 수치지도상의 지형지물의 상호연계기능 등을 검토한 결과, 본 연구에서 제안된 수치지도 데이타베이스 구조를 바탕으로 수치지도 도로선형과 지형지물 데이타 및 동영상을 기능적으로 통합하여 활용하는 것이 가능함을 알 수 있었다.

  • PDF