• 제목/요약/키워드: 비디오 데이터

검색결과 1,530건 처리시간 0.03초

요약 비디오 영상과 PCA를 이용한 유사비디오 검출 기법 (Similar Video Detection Method with Summarized Video Image and PCA)

  • 유재만;김우생
    • 한국멀티미디어학회논문지
    • /
    • 제8권8호
    • /
    • pp.1134-1141
    • /
    • 2005
  • 웹 상의 출판이 보편화 될수록 많은 데이터의 내용물들이 압축, 포맷, 편집 등 변형된 상태로 중복해서 존재하게 된다. 이러한 유사한 데이터들은 검색 시 속도나 검색률 등에 문제를 야기 시킬 수도 있으며, 반면에 특정 사이트에 문제가 발생할 경우 다른 사이트의 중복된 데이터를 제공해 줄 수도 있게 된다. 따라서 본 논문에서는 대규모 데이터베이스 상에 존재하는 비디오들 중에서 유사한 데이터들에 대한 정보를 사전에 감지할 수 있는 효율적인 방법을 제안한다. 본 연구에서는 비디오들을 직접 비교하는 대신 비디오를 대표하는 요약 비디오 영상을 만들고, 주성분 분석(PCA-principle component analysis) 기법을 적용하여 저차원 특징벡터 상에 군집화를 통해 유사 비디오들을 검출하였다. 실험을 통하여 제안하는 방법의 효율성과 정확성이 우수함을 보였다.

  • PDF

시간기반 비디오 검색 시스템 (Temporal_based Video Retrival System)

  • 이지현;강오형;나도원;이양원
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 추계종합학술대회
    • /
    • pp.631-634
    • /
    • 2005
  • 기존의 비디오 데이터베이스 시스템들은 대부분 간단한 간격을 기반으로한 관계와 연산을 지원하는 모델을 이용하였다. 비디오 모델에서 시간을 지원하고 객체와 시간의 다양한 연산을 제공하며 효율적인 검색과 브라우징을 지원하는 비디오 데이터 모델이 필요하게 되었다. 비디오 모델은 객체 지향 개념을 기반으로 한 모델로서 비디오의 논리적인 스키마, 객체의 속성과 연산 관계, 그리고 상속과 주석을 이용한 메타데이터 설계를 통하여 비디오 데이터에 대한 전체적인 모델 구조를 제시하였다. 그리고 점 시간과 시간 간격을 정의하여 시간의 개념을 객체 지향 기반 모델에 부여함으로서 시간 변화에 따른 비디오 정보를 보다 효율적으로 활용할 수 있도록 하였다.

  • PDF

더블린 코아 모델을 이용한 비디오 데이터의 표현 (Representation of Video Data using Dublin core Model)

  • 이순희;김상호;신정훈;김길준;류근호
    • 정보처리학회논문지D
    • /
    • 제9D권4호
    • /
    • pp.531-542
    • /
    • 2002
  • 지금까지 대부분의 메타데이터들은 응용 분야에 제한된 부분만을 주로 취급하였다. 그러나 동일한 비디오 데이터를 표현하기 위해서는 동일한 형태의 메타데이터가 필요하고, 이때 비디오 데이터베이스에서 동일한 비디오 데이터에 대하여 서로 다른 여러 개의 메타데이터를 지원해야 하는 문제가 발생한다. 이 논문에서는 이러한 문제를 해결하기 위하여 더블린 코어 모델을 확장하였다. 제안된 비디오데이터 표현에서는 더블린 코아 모델을 확장한 메타데이터가 비디오 데이터의 구조, 내용 및 조작에 관한 정보를 관리하도록 하였다. 제안된 메타 데이터는 시스템 관리 부분과 사용자 정의 부분을 분리함으로써 응용 분야에 독립적인 모델구축이 가능하다. 13개의 시간 관계 연산은 더미 샷의 시간 변환 관계를 사용하여 6개로 감소시켰다. 이 감소된 6개의 연산은 역관계를 배제시켜 표현의 일관성을 유지시키고, n-ary시간 관계의 샷들을 이진관계로 변환시킨다. 그리고 실제 응용 분야에 적용하고 실험하여 확장된 더블린 코어 모델이 응용 분야에 동일한 구조로 메타데이터를 표현하고 동일한 방법으로 검색할 수 있음을 증명하였다.

장면전환 탐지와 예측을 통한 비디오 자료의 전송 제어 (Transmission Control of Video Data through Prediction and Shot Transition Detection)

  • 이근수;김원
    • 인터넷정보학회논문지
    • /
    • 제5권6호
    • /
    • pp.59-66
    • /
    • 2004
  • 본 논문에서는 MPEG 비디오 데이터를 GoP 단위로 분할하여 장면전환 특성을 파악하고 그에 따라 칼만필터를 사용하여 비디오 데이터의 전송량을 예측하는 방법을 제안하고자 한다. 비디오 데이터의 정확한 장면전환을 파악하기 위해서 압축 도메인에서 고속으로 장면에 대한 정보를 검출하는 알고리즘을 사용하여 급진적 장면전환 유형과 점진적 장면전환 유형으로 분류하였다. 분류된 정보는 칼만필터의 세부 인자로 사용되어 비디오 데이터의 전송량을 예측한다. 본 논문에서 제안한 방법은 압축 도메인에서 장면전환 탐지와 비디오 데이터의 전송량을 예측하여 처리 시간을 감소시키고자 하였다. 세 종류의 서로 다른 비디오 데이터 911개의 1프레임을 사용한 실험에서 96.2- 97.6%로 전송량을 예측하였다.

  • PDF

비디오스트리밍 서비스를 위한 의미기반 비디오 표현 및 저장 기법 (Semantic-Based Video Representation and Storing Techniques for Video Streaming Services)

  • 이석룡
    • 한국경영과학회:학술대회논문집
    • /
    • 대한산업공학회/한국경영과학회 2004년도 춘계공동학술대회 논문집
    • /
    • pp.505-509
    • /
    • 2004
  • 본 논문에서는 비디오 스트림 서버에서 의미 기반 검색을 가능하게 하기 위하여 대용량 스트림 데이터를 효과적으로 표현하고 저장하는 기법을 제시한다. 비디오 스트림 내의 각 프레임을 다차원 공간상의 점으로 사상함으로써 비디오 스트림은 다차원 시퀀스(multidimensional sequence)로 표현되고, 이 시퀀스는 다시 비디오 세그먼트로 분할된다. 분할된 세그먼트로부터 정적인 특성과 연속된 프레임의 움직임을 나타내는 트랜드 벡터(trend vector)등의 의미 정보를 추출하여 모델링 함으로서 스트림 데이터를 효과적으로 표현한다. 또한 제안된 기법은 효율적인 검색을 위하여 비디오 세그먼트를 인덱싱하고 저장하는 방법을 제공함으로써 공간 사용의 효율성을 높이고 신속한 검색을 가능하게 한다.

  • PDF

시스템 정보가 포함된 MOV 호환 MPEG-4 파일 포맷터의 설계 및 구현 (Design and Implementation of MPEG-4 File Formatter included MPEG-4 System Information, with MOV Compatibility)

  • 전형국;마평수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (3)
    • /
    • pp.520-522
    • /
    • 2001
  • 본 논문에서 제시하는 시스템은 MPEG-4로 부호화된 비디오/오디오에 대해서 MPEG-4 파일 포맷에 맞는 MPEG-4 파일 생성 포맷터이다. 본 논문에서 설계하고 구현된 파일 포맷터는 전처리 부분, 부호화기 파일 포맷터로 구성된 저작도구의 모듈로서 존재한다. 따라서 본 논문에서는 저작도구에서 사용될 MPEG-4 파일 포맷터의 구조 및 기능에 대해서 선명하고, 포맷터의 세부 설계 사항을 기술한다. 본 논문에서 MPEG-4 파일 포맷터의 기능은 비디오/오디오 인코더로부터 출력되는 비디오/오디오 데이터를 MPEG-4 파일 포맷의 형식에 맞는 MPEG-4 파일을 생성하는 것이다. 생성된 파일은 비디오/오디오 각각에 대한 정보와 생성된 비디오/오디오를 처리할 디코더에 대한 정보를 제공한다. 표준 상의 MPEG-4 시스템에서의 동기화 정보를 파일 포맷상의 비디오/오디오 데이터에 제공하여 , 스트리밍 서비스을 제공하는 서버쪽에서의 동기화 과정과 먹싱을 배제할 수 있게 한다. 비디오/오디오 인코더로부터 생성되는 다양만 종류의 비디오/오디오 데이터를 효율적으로 포맷팅하여 다양한 범위의 응용에서 사용될 수 있게 하며, 차기에 계위화 부호화를 효율적으로 적용시키기 위해 파일 포맷팅을 수행하게 된다.

  • PDF

비디오의 시간지원 모델링 (Temporal modeling of video)

  • 이지현;강오형;나도원;이양원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 추계학술발표대회 및 정기총회
    • /
    • pp.193-196
    • /
    • 2005
  • 기존의 비디오 데이터베이스 시스템들은 대부분 간단한 간격을 기반으로한 관계와 연산을 지원하는 모델을 이용하였다. 비디오 모델에서 시간을 지원하고 객체와 시간의 다양한 연산을 제공하며 효율적인 검색과 브라우징을 지원하는 비디오 데이터 모델이 필요하게 되었다. 비디오 모델은 객체 지향 개념을 기반으로 한 모델로서 비디오의 논리적인 스키마, 객체의 속성과 연산 관계, 그리고 상속과 주석을 이용한 메타데이터 설계를 통하여 비디오 데이터에 대한 전체적인 모델 구조를 제시하였다. 그리고 점 시간과 시간 간격을 정의하여 시간의 개념을 객체 지향 기반 모델에 부여함으로서 시간 변화에 따른 비디오 정보를 보다 효율적으로 활용할 수 있도록 하였다.

  • PDF

의미 기반 주석을 이용한 비디오 검색 시스템의 설계 및 구현 (Design And Implementation of Video Retrieval System for Using Semantic-based Annotation)

  • 홍수열
    • 한국컴퓨터정보학회논문지
    • /
    • 제5권3호
    • /
    • pp.99-105
    • /
    • 2000
  • 비디오는 broadcasting, 교육, 출판과 군사 등 다양한 응용들과 함께 멀티미디어 컴퓨팅과 통신 환경의 중요한 요소가 되었다. 멀티미디어 데이터 검색을 위한 효과적인 방법의 필요성은 대용량의 멀티미디어 응용들에서 날로 증가하고 있다. 따라서, 비디오 데이터의 검색과 표현은 비디오 데이터베이스에서 주요 연구 이슈 중에 하나가 되었다. 비디오 데이터의 표현 방법으로 주로 2가지 접근 방법이 있다: (1) 내용 기반 비디오 검색 과 (2) 주석 기반 비디오 검색. 이 논문은 의미 기반 주석을 이용한 비디오 검색 시스템을 설계하고 구현한다.

  • PDF

Apache Kafka를 활용한 실시간 대규모 비디오 스트리밍 기법 (Real-time Watermarking Method for Streaming Video Data)

  • 유연준;홍석민;신용태
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.556-558
    • /
    • 2024
  • 오늘날 클라우드 컴퓨팅은 FIFA, WTA, F1, MLB등과 같은 비디오 및 실시간 스포츠 이벤트에 널리 사용된다. DataM에 따르면 비디오 스트리밍 플랫폼 시장은 545억 달러에서 2,523달러에 달할 것으로 예측된다. 기존 실시간 스트리밍 방법은 스트리밍 비디오의 개수가 증가하고나 스트리밍 이용자가 증가할 경우 성능 저하 문제가 발생한다. 본 논문에서는 Apache Kafka Server를 활용한 대규모 비디오 스트리밍 기법을 제안한다. Apache Kafka Server를 사용하여 네트워크를 수집하면 대규모 데이터를 처리할 수 있으며, 데이터의 안정성과 실시간 처리를 할 수 있어 온라인 비디오 스트리밍에 적합하다. 이에 비디오 품질을 선택할 때 적합한 비디오 품질을 선택할 수 있다. 향후 제안하는 기법은 많은 데이터와 실험으로 실질적인 검증을 할 예정이다.

  • PDF

피처레벨 비디오 분석과, 적응적 장면 선택을 이용한 비디오 캡셔닝 피처 생성

  • Lee, Ju-Hee;Kang, Je-Won
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 추계학술대회
    • /
    • pp.212-214
    • /
    • 2020
  • 본 논문에서는 비디오의 피처레벨 분석을 통해 비디오의 장면 구성 특징을 파악하고, 그에 적응적으로 대표 프레임을 선택하는 방법을 제안한다. 제안된 방법으로 생성된 캡셔닝 피처는 비디오를 잘 요약하고, 이를 통해 효과적인 캡셔닝을 수행할 수 있다. 기존 비디오 캡셔닝 연구에서는 비디오의 장면 구성을 고려하지 않고 단순 등간격으로 프레임 추출을 통하여 비디오 캡셔닝을 수행하였다. 이는 다양한 장면의 모임으로 이루어진 비디오의 특성을 고려하지 않은 방법으로, 경우에 따라 주요 장면을 놓치거나, 불필요하게 중복된 프레임을 선택하는 문제가 발생한다. 본 논문에서는 비디오의 피처레벨 분석을 통해 비디오의 구성 특징을 파악하고, 이를 고려해 적응적으로 주요 프레임을 추출하여 이와 같은 문제를 해결하여 비디오 캡셔닝 에서의 성능향상을 보인다. 제안 알고리즘을 이용하여 생성된 피처는 비디오를 잘 요약하여 비디오 캡셔닝 수행 시, MSVD 데이터 셋에서 4 개의 평가지표에 대해 약 0.78%의 성능향상을 보였고, MSR-VTT 데이터 셋에서 약 0.6%의 성능향상을 보였다.

  • PDF