• 제목/요약/키워드: Video Metadata

검색결과 115건 처리시간 0.03초

A Generation Method of Spatially Encoded Video Data for Geographic Information Systems

  • Joo, In-Hak;Hwang, Tae-Hyun;Choi, Kyoung-Ho;Jang, Byung-Tae
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.801-803
    • /
    • 2003
  • In this paper, we present a method for generating and providing spatially encoded video data that can be effectively used by GIS applications. We collect the video data by a mobile mapping system called 4S-Van that is equipped by GPS, INS, CCD camera, and DVR system. The information about spatial object appearing in video, such as occupied region in each frame, attribute value, and geo-coordinate, are generated and encoded. We suggest methods that can generate such data for each frame in semi-automatic manner. We adopt standard MPEG-7 metadata format for representation of the spatially encoded video data to be generally used by GIS application. The spatial and attribute information encoded to each video frame can make visual browsing between map and video possible. The generated video data can be provided and applied to various GIS applications where location and visual data are both important.

  • PDF

효과적인 인터랙티브 비디오 저작을 위한 얼굴영역 기반의 어노테이션 방법 (Annotation Method based on Face Area for Efficient Interactive Video Authoring)

  • 윤의녕;가명현;조근식
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.83-98
    • /
    • 2015
  • TV를 보면서 방송에 관련된 정보를 검색하려는 많은 시청자들은 정보 검색을 위해 주로 포털 사이트를 이용하고 있으며, 무분별한 정보 속에서 원하는 정보를 찾기 위해 많은 시간을 소비하고 있다. 이와 같은 문제를 해결하기 위한 연구로써, 인터랙티브 비디오에 대한 연구가 활발하게 진행되고 있다. 인터랙티브 비디오는 일반적인 비디오에 추가 정보를 갖는 클릭 가능한 객체, 영역, 또는 핫스팟을 동시에 제공하여 사용자와 상호작용이 가능한 비디오를 말한다. 클릭 가능한 객체를 제공하는 인터랙티브 비디오를 저작하기 위해서는 첫째, 증강 객체를 생성하고, 둘째, 어노테이터가 비디오 위에 클릭 가능한 객체의 영역과 객체가 등장할 시간을 지정하고, 셋째, 객체를 클릭할 때 사용자에게 제공할 추가 정보를 지정하는 과정을 인터랙티브 비디오 저작 도구를 이용하여 수행한다. 그러나 기존의 저작 도구를 이용하여 인터랙티브 비디오를 저작할 때, 객체의 영역과 등장할 시간을 지정하는데 많은 시간을 소비하고 있다. 본 논문에서는 이와 같은 문제를 해결하기 위해 유사한 샷들의 모임인 샷 시퀀스의 모든 샷에서 얼굴 영역을 검출한 샷 시퀀스 메타데이터 모델과 객체의 어노테이션 결과를 저장할 인터랙티브 오브젝트 메타데이터 모델, 그리고 어노테이션 후 발생될 수 있는 부정확한 객체의 위치 문제를 보완할 사용자 피드백 모델을 적용한 얼굴영역을 기반으로 하는 새로운 형태의 어노테이션 방법을 제안한다. 마지막으로 제안한 어노테이션 방법의 성능을 검증하기 위해서 인터랙티브 비디오 저작 시스템을 구현하여 기존의 저작도구들과 저작 시간을 비교하였고, 사용자 평가를 진행 하였다. 비교 분석 결과 평균 저작 시간이 다른 저작 도구에 비해 2배 감소하였고, 사용자 평가 결과 약 10% 더 유용한다고 평가 되었다.

트랜스코딩 프록시를 위한 메타데이터 추가 캐슁 (Meta-trailed Caching for Transcoding Proxies)

  • 강재웅;최창열
    • 산업기술연구
    • /
    • 제27권B호
    • /
    • pp.185-192
    • /
    • 2007
  • Transcoding video proxy is necessary to support various bandwidth requirements for mobile multimedia and to provide adapting video streams to mobile clients. Caching algorithms for proxy are to reduce the network traffic between the content servers and the proxy. This paper proposes a Meta-tailed caching for transcoding proxy that is efficient to lower network load and CPU load. Caching of two different data types - transcoded video, and metadata - provides a foundation to achieve superior balance between network resource and computation resource at transcoding proxies. Experimental results show that the Meta-tailed caching lowers at least 10% of CPU-load and at least 9% of network-load at a transcoding proxy.

  • PDF

교양비디오의 시간지원 비디오 모델링 (Temporal Video Modeling of Cultural Video)

  • 강오형;이지현;고성현;김정은;오재철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.439-442
    • /
    • 2004
  • 기존의 비디오 데이터베이스 시스템들은 대부분 간단한 간격을 기반으로 한 관계와 연산을 지원하는 모델을 이용하였다. 비디오 모델에서 시간을 지원하고 객체와 시간의 다양한 연산을 제공하며 효율적인 검색과 브라우징을 지원하는 비디오 데이터 모델이 필요하게 되었다. 비디오 모델은 객체 지향 개념을 기반으로 한 모델로서 비디오의 논리적인 스키마, 객체의 속성과 연산 관계, 그리고 상속과 주석을 이용한 메타데이터 설계를 통하여 비디오 데이터에 대한 전체적인 모델 구조를 제시하였다. 그리고, 점 시간과 시간 간격을 정의하여 시간의 개념을 객체 지향 기반 모델에 부여함으로서 시간 변화에 따른 비디오 정보를 보다 효율적으로 활용할 수 있도록 하였다.

  • PDF

MobileNetV3 전이학습 기반 스포츠 비디오 클립 추출 구현 (Implementation of Sports Video Clip Extraction Based on MobileNetV3 Transfer Learning)

  • 위리
    • 한국전자통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.897-904
    • /
    • 2022
  • 스포츠 영상은 중요한 정보 자원에 속하여 있고 정확다가 높게 스포츠 영상 속에 유효 클립을 추출할 수 있어서 코치를 잘 보조하여 영상에서 선수들의 동작을 분석하며 사용자가 더 직관적으로 선수들의 타격 자세를 감상할 수 있다. 현재 스포츠 영상 클립 추출된 결과가 주관이 뚜렷하고 업무량이 많고 저효율 등 결함에 대해 MobileNetV3을 기반으로 스포츠 비디오 클립 분류 방법을 제시하였고 사용자의 시간이 절약하게 한다. 실험이 추출된 유효 클립에 대한 유효성 평가를 진행했으며 추출된 클립에서 유효적인 비율은 97.0%로 자지해서 유효 클립이 추출된 결과는 양호를 밝히는 동시 후속 배드민턴 동작의 원본 영상 데이터 집합의 구성을 위한 기초를 다진다.

감정 온톨로지 기반의 영화 추천 기법 (A Movie Recommendation Method based on Emotion Ontology)

  • 김옥섭;이석원
    • 한국멀티미디어학회논문지
    • /
    • 제18권9호
    • /
    • pp.1068-1082
    • /
    • 2015
  • Due to the rapid advancement of the mobile technology, smart phones have been widely used in the current society. This lead to an easier way to retrieve video contents using web and mobile services. However, it is not a trivial problem to retrieve particular video contents based on users' specific preferences. The current movie recommendation system is based on the users' preference information. However, this system does not consider any emotional means or perspectives in each movie, which results in the dissatisfaction of user's emotional requirements. In order to address users' preferences and emotional requirements, this research proposes a movie recommendation technology to represent a movie's emotion and its associations. The proposed approach contains the development of emotion ontology by representing the relationship between the emotion and the concepts which cause emotional effects. Based on the current movie metadata ontology, this research also developed movie-emotion ontology based on the representation of the metadata related to the emotion. The proposed movie recommendation method recommends the movie by using movie-emotion ontology based on the emotion knowledge. Using this proposed approach, the user will be able to get the list of movies based on their preferences and emotional requirements.

주요 포털들의 멀티미디어 검색 서비스 비교 분석 (An Analysis of Multimedia Search Services Provided by Major Korean Search Portals)

  • 박소연
    • 한국문헌정보학회지
    • /
    • 제44권4호
    • /
    • pp.395-412
    • /
    • 2010
  • 본 연구에서는 국내 주요 검색 포털들인 네이버, 네이트, 다음, 야후, 파란, 구글에서 제공하는 멀티미디어 검색 서비스를 메타데이터, 검색 기능, 검색 방법, 부가 기능, 결과 출력 방식 등의 관점에서 비교, 분석하였다. 조사 결과, 모든 포털들이 이미지, 동영상 검색을 제공하는데 비해 음악 검색은 네이버, 네이트, 다음만이 제공하고 있었다. 또한 음악 검색보다는 이미지, 동영상 검색에서 검색 기능이나 부가 서비스의 개발이 보다 활발하게 진행되고 있었다. 네이버, 네이트, 다음은 국외 검색 포털들이 제공하지 않는 다양한 멀티미디어 검색 기능을 개발, 제공하고 있었고, 구글은 다양한 수준의 고급 검색 기능을 제공하고 있었다. 반면, 국내 포털들은 검색 결과에서 매우 제한적인 메타데이터만 제공하고 있었다. 본 연구의 결과는 포털들의 멀티미디어 검색 서비스의 개선에 활용될 수 있을 것으로 기대된다.

시간기반 비디오 검색 시스템 (Temporal_based Video Retrival System)

  • 이지현;강오형;나도원;이양원
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 추계종합학술대회
    • /
    • pp.631-634
    • /
    • 2005
  • 기존의 비디오 데이터베이스 시스템들은 대부분 간단한 간격을 기반으로한 관계와 연산을 지원하는 모델을 이용하였다. 비디오 모델에서 시간을 지원하고 객체와 시간의 다양한 연산을 제공하며 효율적인 검색과 브라우징을 지원하는 비디오 데이터 모델이 필요하게 되었다. 비디오 모델은 객체 지향 개념을 기반으로 한 모델로서 비디오의 논리적인 스키마, 객체의 속성과 연산 관계, 그리고 상속과 주석을 이용한 메타데이터 설계를 통하여 비디오 데이터에 대한 전체적인 모델 구조를 제시하였다. 그리고 점 시간과 시간 간격을 정의하여 시간의 개념을 객체 지향 기반 모델에 부여함으로서 시간 변화에 따른 비디오 정보를 보다 효율적으로 활용할 수 있도록 하였다.

  • PDF

시맨틱 웹 서비스를 위한 동영상 온톨로지 설계 (Design of video ontology for semantic web service)

  • 이영석;윤성대
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 춘계학술대회
    • /
    • pp.195-198
    • /
    • 2009
  • 최근에는 정보와 지식의 교환을 위한 시맨틱 웹 구축의 연구가 활발해 지고 있다. 동영상 콘텐츠를 시맨틱 웹상에서 지식으로 활용하기 위해서는 의미적 검색이 선행 되어야 하는데 현재는 동영상 콘텐츠의 메타데이터와 키워드의 일치성 판단에 의한 검색이 주를 이루고 있다. 본 논문에서는 집단 지성을 사용하여 동영상 콘텐츠의 의미적 검색 및 활용이 용이하도록 사용자 참여 정보를 확대하고, 의미적 요소인 유용성 수치와 히스토리 데이터를 추가한 온톨로지 구축 방법을 제안한다. 제안한 온톨로지 스키마를 활용하면, 시맨틱 웹상에서 동영상 콘텐츠의 의미적 검색 시 기존 검색 방법 보다 재현율이 높으며, 각종 동영상 콘텐츠를 지식으로 활용 가능하게 한다.

  • PDF

사용자 피드백 정보 기반 실감효과 메타데이터 생성 방법 (A Method of Sensory Effect Metadata Generation Based on User Feedback Information)

  • 김철민;허용수;김은석
    • 한국멀티미디어학회논문지
    • /
    • 제21권7호
    • /
    • pp.802-812
    • /
    • 2018
  • Recently, there are several active and vibrant studies on Realistic Media that try to provide the immersion and the presence by adding sensory effects to video. Because existing sensory effects on Realistic Media are produced through experts and automation programs on sensory effects, there is a limit to fill up the gap of user satisfaction which comes from the diversity of cybernauts. In this paper, we propose a method to improve the satisfaction with sensory effects by collecting and analyzing user's response information, and applying the result to the attributes of sensory effects. The proposed method allows you to produce the Sensory Effect Metadata effectively by analyzing users' biometric data and subjective satisfaction with realistic media experience, measuring the weighted value to revise the effects, and applying to the attribute of sensory effect. The experimental result shows that the proposed method improves the satisfaction with realistic content by generating the revised Sensory Effect Metadata in response to user's experiential feedback information.