• Title/Summary/Keyword: Video Scene Detection

Search Result 190, Processing Time 0.028 seconds

An effective indoor video surveillance system based on wide baseline cameras (Wide baseline 카메라 기반의 효과적인 실내공간 감시시스템)

  • Kim, Woong-Chang;Kim, Seung-Kyun;Choi, Kang-A;Jung, June-Young;Ko, Sung-Jea
    • Journal of IKEEE
    • /
    • v.14 no.4
    • /
    • pp.317-323
    • /
    • 2010
  • The video surveillance system is adopted in many places due to its efficiency and constancy in monitoring a specific area over a long period of time. However, many surveillance systems composed of a single static camera often produce unsatisfactory results due to their lack of field of view. In this paper, we present a video surveillance system based on wide baseline stereo cameras to overcome the limitation. We adopt the codebook algorithm and mathematical morphology to robustly model the foreground pixels of the moving object in the scene and calculate the trajectory of the moving object via 3D reconstruction. The experimental results show that the proposed system detects a moving object and generates a top view trajectory successfully to track the location of the object in the world coordinates.

MPEG Video Segmentation using Two-stage Neural Networks and Hierarchical Frame Search (2단계 신경망과 계층적 프레임 탐색 방법을 이용한 MPEG 비디오 분할)

  • Kim, Joo-Min;Choi, Yeong-Woo;Chung, Ku-Sik
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.1_2
    • /
    • pp.114-125
    • /
    • 2002
  • In this paper, we are proposing a hierarchical segmentation method that first segments the video data into units of shots by detecting cut and dissolve, and then decides types of camera operations or object movements in each shot. In our previous work[1], each picture group is divided into one of the three detailed categories, Shot(in case of scene change), Move(in case of camera operation or object movement) and Static(in case of almost no change between images), by analysing DC(Direct Current) component of I(Intra) frame. In this process, we have designed two-stage hierarchical neural network with inputs of various multiple features combined. Then, the system detects the accurate shot position, types of camera operations or object movements by searching P(Predicted), B(Bi-directional) frames of the current picture group selectively and hierarchically. Also, the statistical distributions of macro block types in P or B frames are used for the accurate detection of cut position, and another neural network with inputs of macro block types and motion vectors method can reduce the processing time by using only DC coefficients of I frames without decoding and by searching P, B frames selectively and hierarchically. The proposed method classified the picture groups in the accuracy of 93.9-100.0% and the cuts in the accuracy of 96.1-100.0% with three different together is used to detect dissolve, types of camera operations and object movements. The proposed types of video data. Also, it classified the types of camera movements or object movements in the accuracy of 90.13% and 89.28% with two different types of video data.

Reproducing Summarized Video Contents based on Camera Framing and Focus

  • Hyung Lee;E-Jung Choi
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.10
    • /
    • pp.85-92
    • /
    • 2023
  • In this paper, we propose a method for automatically generating story-based abbreviated summaries from long-form dramas and movies. From the shooting stage, the basic premise was to compose a frame with illusion of depth considering the golden division as well as focus on the object of interest to focus the viewer's attention in terms of content delivery. To consider how to extract the appropriate frames for this purpose, we utilized elemental techniques that have been utilized in previous work on scene and shot detection, as well as work on identifying focus-related blur. After converting the videos shared on YouTube to frame-by-frame, we divided them into a entire frame and three partial regions for feature extraction, and calculated the results of applying Laplacian operator and FFT to each region to choose the FFT with relative consistency and robustness. By comparing the calculated values for the entire frame with the calculated values for the three regions, the target frames were selected based on the condition that relatively sharp regions could be identified. Based on the selected results, the final frames were extracted by combining the results of an offline change point detection method to ensure the continuity of the frames within the shot, and an edit decision list was constructed to produce an abbreviated summary of 62.77% of the footage with F1-Score of 75.9%

Removing Shadows Using Background Features in the Images of a Surveillance Camera (감시용 카메라 영상에서의 배경 특성을 사용한 그림자 제거)

  • Kim, Jeongdae;Do, Yongtae
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.19 no.3
    • /
    • pp.202-208
    • /
    • 2013
  • In the image processing for VS (Video Surveillance), the detection of moving entities in a monitored scene is an important step. A background subtraction technique has been widely employed to find the moving entities. However, the extracted foreground regions often include not only real entities but also their cast shadows, and this can cause errors in following image processing steps, such as tracking, recognition, and analysis. In this paper, a novel technique is proposed to determine the shadow pixels of moving objects in the foreground image of a VS camera. Compared to existing techniques where the same decision criteria are applied to all moving pixels, the proposed technique determines shadow pixels using local features based on two facts: First, the amount of pixel intensity drop due to a shadow depends on the intensity level of background. Second, the distribution pattern of pixel intensities remains even if a shadow is cast. The proposed method has been tested at various situations with different backgrounds and moving humans in different colors.

Scene Change Detection and Visual Information Analysis for Soccer Video Indexing (축구 비디오 인덱싱을 위한 장면 전환 검출과 시각 정보 분석)

  • Shin, Seong-Yoon;Kang, Oh-Hyong;Moon, Kyung;Rhee, Yang-Won
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.11a
    • /
    • pp.290-294
    • /
    • 2001
  • 비디오 데이터를 인덱싱 하기 위해서는 우선적으로 장면 전환을 검출하여 키 프레임을 추출하고 추출된 키 프레임을 바탕으로 인덱싱 작업을 수행한다. 본 논문에서는 장면 전환을 검출하기 위하여 컬러 히스토그램과 $\chi$$^2$히스토그램을 합성한 방법을 이용하여 키 프레임을 추출하고, 축구 비디오가 갖는 특성을 이용하여 샷 사이의 흐름을 파악하여 시각 정보를 분석하며, 이를 바탕으로 축구 비디오를 다양한 방법으로 인덱싱하는 방법을 제시한다.

  • PDF

A Study on the Scene Chang Detection Retrieval of Video Using MSE (MSE를 이용한 비디오의 장면전환 검색에 관한 연구)

  • 김단환;김형균;고석만;오무송
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05d
    • /
    • pp.1052-1055
    • /
    • 2002
  • 동영상 정보는 영상정보뿐만이 아니라 음성정보, 문자정보 및 각종 의미있는 정보들을 포함하고 있어서 기존의 검색 방법으로는 사용자가 원하는 이미지를 찾는데 어려움이 따른다. 따라서, 본 연구에서는 동영상 정보의 효율적인 활용을 위한 색인 방법으로 MSE(Mean Square Error) 도입하여 동영상의 장면전환 검색하는 방법을 제안한다. 이것은 영상 데이터를 대각선 방향으로 일정픽셀의 칼라 값을 추출하여 행렬A에 i×j행렬로 i는 프레임 수, j는 프레임의 영상 높이로 저장하고 동영상의 전체 구조를 파악할 수 있도록 정지영상으로 샘플링 하였다. 샘플링 된 데이터는 대용량 동영상 데이터 이용에 있어서 사용자가 전체 동영상의 장면전환점을 한눈으로 파악할 수 있고, 각 프레임의 MSE와 임계값을 초과하면 그 프레임이 장면전환점으로 검색한다.

  • PDF

Gradual Scene Change Detection in a Compressed Video Sequence (압축 비디오 영상에서의 점진적인 장면전환 검출)

  • 윤석중;지은석;고성제
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1998.06a
    • /
    • pp.135-138
    • /
    • 1998
  • 본 논문에서는 비디오 장면 전환 효과 중 디졸브(dissolve)와 카메라 동작에 의한 팬(pan), 줌(zoom)에 의한 점진적인 장면 전환 구간을 검출하는 알고리즘을 제안한다. 디졸브 검출의 처리 속도 향상을 위하여 MPEG 표준에 따라 압축된 영상을 최소한의 복원과정을 거쳐서 얻은 DC 영상을 사용하였다. 디졸브 특성의 효과적 추출을 위하여 공간적 영역 분할을 하였고, 각 영역별 평균값을 제곱하여 이에 대한 프레임별 평균을 전환구간의 특징 요소로 이용하였다. 추출된 요소들을 이용하여 정확한 디졸브 구간의 검출을 위하여 비중첩 윈도우 비교 방식을 사용하였다. 또한 효과적인 카메라 동작 검출을 위해 배경화면을 대표할 수 있는 지역 매크로 블록의 움직임 벡터를 추출하였다. 이를 이용하여 카메라 동작에 의한 효과를 검출하였다.

  • PDF

Electrooculogram-based Scene Transition Detection for Interactive Video Retrieval (인터랙티브 비디오 검색을 위한 EOG 기반 장면 전환 검출)

  • Lee, Chung-Yeon;Lee, Beom-Jin;Zhang, Byoung-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.408-410
    • /
    • 2012
  • 기존의 비디오 검색 방법들은 관련 주석이나 영상 정보에 기반하며 사용자의 반응과 관련하여서는 많은 정보를 활용하고 있지 않다. 비디오 시청시 사용자의 뇌신호나 시선추적 정보 등의 인지적 반응을 이용하여 연속적인 비디오 스트림의 각 부분에 대하여 사용자들이 나타내는 관심이나 감성 정보를 추출한다면 보다 인터랙티브한 비디오 데이터 검색 및 추천이 가능하다. 본 논문에서는 비디오를 시청하는 사용자의 안구전도(electrooculogram)를 기록한 후, 장면 전환이 발생한 부분에서의 사건관련전위 분석을 통해 해당 부분에서 나타나는 특징적 반응을 찾고 이에 대한 인지적 해석을 도출했다. 실험 결과 장면 전환 이후200~700ms 부분에서 P300 성분과 유사한 피크가 발생하는 것을 확인하였으며, 이러한 결과는 장면 전환에 따른 피험자의 비디오 내용 인지에 대한 의도 불일치 및 주의력 증가로 해석된다.

Robust Scene Change Detection Technique for the Efficient Video Browsing Service (효율적인 비디오 브라우징 제공을 위한 강건한 장면전환 검출 기법의 제안)

  • Lee, Hae-Gun;Rhee, Yang-Won
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2008.11a
    • /
    • pp.289-292
    • /
    • 2008
  • 본 논문에서는 사용자에게 보다 효율적이고 직관적인 비디오 브라우징 서비스를 제공하기 위하여 비디오 데이터의 종류와 특성에 제한받지 않고 강건하게 적용될 수 있는 장면전환 검출 알고리즘을 제안하고자 한다. 제한된 알고리즘은 명암 값의 급 변화나 객체의 빠른 움직임, 영상의 왜곡 등에 의한 장면전환 검출의 오류를 제거할 수 있으며, 특히 연속된 프레임사이의 강건한 차이 값 추출을 위한 개선된 식을 제안하고, 추출된 차이 값들로부터 변화패턴을 학습하고 특징을 추출함으로서 자동 임계치 결정에 활용하였다. 제안된 방법은 급진적인 장면변화가 많고 플래시라이트와 같은 조명의 변화가 많은 다양한 비디오 데이터를 가지고 실험되었으며, 실험결과 기존의 방법에 비교하여 효율적이고 신뢰할 수 있는 결과 값들을 보여주었다.

  • PDF

Aesthetic Measure of Video Image ($X^2$ 히스토그램을 이용한 수면 측정 및 수면의 질 발전)

  • Shin, Kwang-Seong;Shin, Seong-Yoon;Rhee, Yang-Won
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2011.10a
    • /
    • pp.153-156
    • /
    • 2011
  • 수면은 인간에게서 중요한 생리 현상이며, 인간은 일생의 삼분의 일 정도를 잠을 자면서 보낸다고 한다. 본 논문에서는 이러한 수면을 이루는 환경을 개선하기 위하여 수면을 측정하고 수면의 질 발전 방향을 모색한다. 수면 측정을 위하여 $X^2$ 히스토그램을 이용한 장면 전환 검출 방법을 이용한다. $X^2$ 히스토그램 방법은 통계학적 장면 전환 검출 방법의 하나로서 다른 히스토그램 방법보다 성능이 우수하기 때문에 많은 연구에서 사용된다. 그리고 수면의 질을 발전시키기 위하여 피곤한 정도, 음주의 정도, 그리고 공복의 정도를 입력하여 각 상황별 뒤척임을 추출한다.

  • PDF