• Title/Summary/Keyword: 장면분할

Search Result 132, Processing Time 0.026 seconds

MPEG Video Segmentation using Hierarchical Frame Search (계층적 프레임 탐색을 이용한 MPEG 비디오 분할)

  • 김주민;최영우;정규식
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.215-218
    • /
    • 2000
  • 디지털 비디오 데이터를 효율적으로 브라우징 하는데 필요한 비디오 분할에 관한 연구가 활발하게 진행되고 있다. 본 연구에서는 비디오 데이터를 Shot단위로 분할하고, Shot내부에서 카메라 동작과 객체 움직임 분석을 이용한 sub-shot으로 분할하고자 한다. 연구 방법으로는 I-frame의 DC 영상을 이용하여 픽쳐그룹을 Shot(장면이 바뀐 경우), Move(카메라 동작,객체움직임), Static(영상의 변화가 거의 없는 경우)로 세분화하고 해당 픽쳐 그룹의 P, B-frame을 검사하여 정확한 컷 발생 위치, 디졸브, 카메라동작, 객체 움직임을 검출하게 된다. 픽쳐그룹 분류에서 정확성을 높이기 위해 계층적 신경망과 다중 특징을 이용한다. 정확한 컷 발생위치 검출하기 위해서 P, B프레임의 메크로블럭 타입을 이용한 통계적 방법을 이용하고, 디졸브, 카메라 동작, 객체 움직임을 검출하기 위해서 P, B-frame의 메크로블럭 타입과 움직임 벡터를 이용한 신경망으로 검출한다. 본 연구에서는 계층적 탐색을 이용하여 시간을 단축할 수 있고, 계층적 신경망과 다중 특징을 이용하여 픽쳐 그룹을 세분화 할 수 있고, 메크로 블록 타입과 통계적 방법을 이용하여 정확한 컷 검출을 할수 있고, 신경망을 이용하여 디졸브, 카메라 동작, 객체움직임을 검출 할 수 있음을 확인한다.

  • PDF

Scene Conserved Music Video Generation Using the Multi-Level Segmentation (장면 보존적인 뮤직비디오 생성을 위한 다단계 분할 매칭 기법)

  • Yoon, Jong-Chul;Lee, In-Kwon
    • Journal of the Korea Computer Graphics Society
    • /
    • v.12 no.3
    • /
    • pp.27-33
    • /
    • 2006
  • 뮤직 비디오란 주어진 음악과 비디오가 동기화 된 형태의 창작물을 뜻한다. 기존의 뮤직비디오 제작방식에서는 만들어진 음악을 위해 영상 촬영에 전문적인 촬영 기술을 요구하였다. 본 논문에선 보다 쉬운 뮤직비디오 생성을 위하여 비디오와 음악의 특성을 분석하여 자동적인 뮤직비디오 생성시스템을 소개한다. 두 개체의 연속성을 보장하는 비교를 위해 우리는 각각의 객체의 흐름을 분석하고, 흐름의 유사성을 기준으로 분할하는 기법을 제시한다. 분할된 영상과 음악의 특성 비교를 통한 최적화된 매칭기법을 비롯하여, 보다 다양한 조각 생성을 위한 다중 레벨(multi-level)분할 기반의 매칭 기법을 소개한다. 본 논문의 기술을 사용하여, 일반인이 홈비디오 등을 사용하여 손쉽게 뮤직 비디오를 제작할 수 있다.

  • PDF

A novel video segmentation approach for content-based MPEG-4 (내용 기반 MPEG-4를 위한 비디오 분할 기법 연구)

  • 김준기;이호석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.411-413
    • /
    • 2000
  • 본 논문은 MPEG-4 내용 기반 비디오 코딩을 위한 객체 추출기법을 소개한다. MPEG-4 표준화는 비디오 객체에 대한 접근성, 사용자와 객체의 상호작용, 높은 압축률을 위한 비디오 코딩 알고리즘을 요구한다. 비디오 장면에서

  • PDF

Video Segmentation using the Automated Threshold Decision Algorithm (비디오 분할을 위한 자동 임계치 결정 알고리즘)

  • Ko Kyong-Cheol;Lee Yang-Won
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.65-74
    • /
    • 2005
  • This Paper Propose a robust scene change detection technique that use the weighted chi-square test and the automated threshold-decision algorithm. The weighted chi-test can subdivide the difference values of individual color channels by calculating the color intensities according to mSC standard, and it can detect the scene change by joining the weighted color intensities to the predefined chi-test which emphasize the comparative color difference values. The automated decision algorithm uses the difference values of frame-to-frame that was obtained by the weighted chi-test. In the first step, The average of total difference value and standard deviation value is calculated and then, subtract the mean value from the each difference values. In the next step, the same process is performed on the remained difference value. The propose method is tested on various sources and in the experimental results, it is shown that the Proposed method is efficiently estimates the thresholds and reliably detects scene changes.

  • PDF

Detecting near-duplication Video Using Motion and Image Pattern Descriptor (움직임과 영상 패턴 서술자를 이용한 중복 동영상 검출)

  • Jin, Ju-Kyong;Na, Sang-Il;Jenong, Dong-Seok
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.48 no.4
    • /
    • pp.107-115
    • /
    • 2011
  • In this paper, we proposed fast and efficient algorithm for detecting near-duplication based on content based retrieval in large scale video database. For handling large amounts of video easily, we split the video into small segment using scene change detection. In case of video services and copyright related business models, it is need to technology that detect near-duplicates, that longer matched video than to search video containing short part or a frame of original. To detect near-duplicate video, we proposed motion distribution and frame descriptor in a video segment. The motion distribution descriptor is constructed by obtaining motion vector from macro blocks during the video decoding process. When matching between descriptors, we use the motion distribution descriptor as filtering to improving matching speed. However, motion distribution has low discriminability. To improve discrimination, we decide to identification using frame descriptor extracted from selected representative frames within a scene segmentation. The proposed algorithm shows high success rate and low false alarm rate. In addition, the matching speed of this descriptor is very fast, we confirm this algorithm can be useful to practical application.

Content based Video Copy Detection Using Spatio-Temporal Ordinal Measure (시공간 순차 정보를 이용한 내용기반 복사 동영상 검출)

  • Jeong, Jae-Hyup;Kim, Tae-Wang;Yang, Hun-Jun;Jin, Ju-Kyong;Jeong, Dong-Seok
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.49 no.2
    • /
    • pp.113-121
    • /
    • 2012
  • In this paper, we proposed fast and efficient algorithm for detecting near-duplication based on content based retrieval in large scale video database. For handling large amounts of video easily, we split the video into small segment using scene change detection. In case of video services and copyright related business models, it is need to technology that detect near-duplicates, that longer matched video than to search video containing short part or a frame of original. To detect near-duplicate video, we proposed motion distribution and frame descriptor in a video segment. The motion distribution descriptor is constructed by obtaining motion vector from macro blocks during the video decoding process. When matching between descriptors, we use the motion distribution descriptor as filtering to improving matching speed. However, motion distribution has low discriminability. To improve discrimination, we decide to identification using frame descriptor extracted from selected representative frames within a scene segmentation. The proposed algorithm shows high success rate and low false alarm rate. In addition, the matching speed of this descriptor is very fast, we confirm this algorithm can be useful to practical application.

Target Object Extraction Based on Clustering (클러스터링 기반의 목표물체 분할)

  • Jang, Seok-Woo;Park, Young-Jae;Kim, Gye-Young;Lee, Suk-Yun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2013.01a
    • /
    • pp.227-228
    • /
    • 2013
  • 본 논문에서는 연속적으로 입력되는 스테레오 입체 영상으로부터 2차원과 3차원의 특징을 결합하여 군집화함으로써 대상 물체를 보다 강건하게 분할하는 기법을 제안한다. 제안된 방법에서는 촬영된 장면의 좌우 영상으로부터 스테레오 정합 알고리즘을 이용해 영상의 각 화소별로 카메라와 물체 사이의 거리를 나타내는 깊이 특징을 추출한다. 그런 다음, 깊이와 색상 특징을 효과적으로 군집화하여 배경에 해당하는 영역을 제외하고, 전경에 해당하는 대상 물체를 감지한다. 실험에서는 제안된 방법을 여러가지 영상에 적용하여 테스트를 해 보았으며, 제안된 방법이 기존의 2차원 기반의 물체 분리 방법에 비해 보다 강건하게 대상물체를 분할함을 확인하였다.

  • PDF

Text Region Extraction of Natural Scene Images using Gray-level Information and Split/Merge Method (명도 정보와 분할/합병 방법을 이용한 자연 영상에서의 텍스트 영역 추출)

  • Kim Ji-Soo;Kim Soo-Hyung;Choi Yeong-Woo
    • Journal of KIISE:Software and Applications
    • /
    • v.32 no.6
    • /
    • pp.502-511
    • /
    • 2005
  • In this paper, we propose a hybrid analysis method(HAM) based on gray-intensity information from natural scene images. The HAM is composed of GIA(Gray-intensity Information Analysis) and SMA(Split/Merge Analysis). Our experimental results show that the proposed approach is superior to conventional methods both in simple and complex images.

Unsupervised Texture Image Segmentation with Textural Orientation Feature (텍스쳐 방향특징에 의한 비교사 텍스쳐 영상 분할)

  • 이우범;김욱현
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.08a
    • /
    • pp.325-328
    • /
    • 2000
  • 텍스쳐 분석은 장면 분할, 물체 인식, 모양과 깊이 인식 등의 많은 영상 처리 분야에서 중요한 기술 중의 하나이다. 그러나 실영상에 포함된 다양한 텍스쳐 성분에 대해서 보편적으로 적용 가능한 효율적인 방법들에 대한 연구는 미흡한 실정이다. 본 논문에서는 텍스쳐 인식을 위해서 비교사 학습 방법에 기반 한 효율적인 텍스쳐 분석 기법을 제안한다. 제안된 방법은 텍스쳐 영상이 지닌 방향특징 정보로서 각(angle)과 강도(power)를 추출하여 자기 조직화 신경회로망에 의해서 블록기반으로 군집화(clustering)된다. 비교사적 군집 결과는 통합(merging)과 불림(dilation) 과정을 통해서 영상에 내재된 텍스쳐 성분의 분할을 수행한다. 제안된 시스템의 성능 평가를 위해서는 다양한 형태의 다중 텍스쳐 영상을 생성하여 적용한 후 그 유효성을 보인다.

  • PDF

Detection of ROIs using the Bottom-Up Saliency Model for Selective Visual Attention (관심영역 검출을 위한 상향식 현저함 모델 기반의 선택적 주의 집중 연구)

  • Kim, Jong-Bae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.314-317
    • /
    • 2011
  • 본 논문은 상향식 현저함 모델을 이용하여 입력 영상으로부터 시각적 주의를 갖는 영역들을 자동으로 검출하는 방법을 제안한다. 제안한 방법에서는 인간의 시각 시스템과 같이 사전 지식 없이 시각정보의 공간적인 분포에 근거하여 장면을 해석하는 상향식 현저함 모델 방법을 입력 영상에 적용하여 관심 물체 영역을 검출하는 연구이다. 상향식 현저함 방법은 Treisman의 세부특징이론 연구에서 제시한 바와 같이 시각적 주의를 갖는 영역은 시각정보의 현격한 대비차이를 가지는 영역으로 집중되어 배경에서 관심영역을 구분할 수 있다. 입력 영상에서 현저함 모델을 통해 3차원 현저함 맵을 생성한다. 그리고 생성된 현저함 맵으로부터 실제 관심영역들을 검출하기 위해 제안한 방법에서는 적응적 임계치 방법을 적용하여 관심영역을 검출한다. 제안한 방법을 관심영역 분할에 적용한 결과, 영역 분할 정확도 및 정밀도가 약 88%와 89%로 제시되어 관심 영상분할 시스템에 적용이 가능함을 알 수 있다.