• 제목/요약/키워드: scene detection

검색결과 519건 처리시간 0.029초

Fast Scene Change Detection Algorithm

  • Khvan, Dmitriy;Ng, Teck Sheng;Jeong, Jechang
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 추계학술대회
    • /
    • pp.259-262
    • /
    • 2012
  • In this paper, we propose a new fast algorithm for effective scene change detection. The proposed algorithm exploits Otsu threshold matching technique, which was proposed earlier. In this method, the current and the reference frames are divided into square blocks of particular size. After doing so, the pixel histogram of each block is generated. According to Otsu method, every histogram distribution is assumed to be bimodal, i.e. pixel distribution can be divided into two groups, based on within-group variance value. The pixel value that minimizes the within-group variance is said to be Otsu threshold. After Otsu threshold is found, the same procedure is performed at the reference frame. If the difference between Otsu threshold of a block in the current frame and co-located block in the reference frame is larger than predefined threshold, then a scene change between those two blocks is detected.

  • PDF

동영상의 고속 장면분할을 위한 이진검색 알고리즘 (Bianry Searching Algorithm for HIgh Sped Scene Change Indexing of Moving Pictures)

  • 김성철;오일균;장종환
    • 한국정보처리학회논문지
    • /
    • 제7권4호
    • /
    • pp.1044-1049
    • /
    • 2000
  • In detection of a scene change of the moving pictures which has massive information capacity, the temporal sampling method has faster searching speed than the sequential searching method for the whole moving pictures, yet employed searching algorithm and detection interval greatly affect searching time and searching precision. In this study, the whole moving pictures were primarily retrieved by the temporal sampling method. When there exist a scene change within the sampling interval, we suggested a fast searching algorithm using binary searching and derived an equation formula to determine optimal primary retrieval which can minimize computation, and showed the result of the experiment on MPEG moving pictures. The result of the experiment shows that the searching speed of the suggested algorithm is maximum 13 times faster than the one of he sequential searching method.

  • PDF

컬러 히스토그램과 엔트로피를 이용한 동영상 컷 검출 (Cut Detection of Video Data Using Color Histogram and Entropy)

  • 송현석;안강식;안명석;조석제
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2001년도 하계 학술대회 논문집(KISPS SUMMER CONFERENCE 2001
    • /
    • pp.265-268
    • /
    • 2001
  • 내용에 기반한 동영상 검색에서, 대표 프레임을 자주 이용하는데, 이를 위해 우선적으로 동영상의 장면변화를 검출하는 기술이 필요하다. 일반적으로 컬러 히스토그램 비교방법이 많이 쓰이나, 급격한 조명변화에 민감하고 컬러 히스토그램 분포가 비슷한 부분의 장면전환을 놓칠 수 있다는 단점이 있다. 본 논문에서는 컬러 히스토그램 비교방법과 엔트로피를 복합적으로 이용하여 조명변화에 의해 장면전환이 잘못 검출되는 것을 막을 수 있다. 실험을 통해 제안한 방법은 컬러 히스토그램 비교방법보다 조명변화에 보다 감격함을 확인할 수 있었다.

  • PDF

뉴스 비디오 브라우저 (News Video Browser)

  • 신성윤;강오형;김형진;장대현
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.336-337
    • /
    • 2021
  • 본 논문에서는 웹상에서 실시간 사용자 인터페이스를 통해 비디오 컨텐츠 검색과 비디오 브라우징을 모두 제공하는 비디오 브라우징 서비스를 제안한다. 영상 시퀀스의 장면 분할 및 키 프레임 추출을 위해 RGB 컬러 히스토그램과 𝛘2 히스토그램을 결합한 효율적인 장면 변경 감지 방법을 제안한다.

  • PDF

MPEG-2에서의 영상에 적합한 GOP 할당 기법 (Scene Adaptive GOP Allocation in MPEG-2)

  • 전승홍;조남익
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 신호처리소사이어티 추계학술대회 논문집
    • /
    • pp.129-132
    • /
    • 2003
  • Fixed GOP allocation in MPEG-2 cannot cope with scene change and amount of motion, which results in degradation picture quality. By finding suitable N and M and allocating dynamic GOP, the improvement of picture quality can be achieved. In this paper, N and M are determined by scene change detection and estimation of amount of motion using color histogram per each macroblock. The simulation results show that the average PSNR is improved, especially around the shot boundaries.

  • PDF

Multimodal Context Embedding for Scene Graph Generation

  • Jung, Gayoung;Kim, Incheol
    • Journal of Information Processing Systems
    • /
    • 제16권6호
    • /
    • pp.1250-1260
    • /
    • 2020
  • This study proposes a novel deep neural network model that can accurately detect objects and their relationships in an image and represent them as a scene graph. The proposed model utilizes several multimodal features, including linguistic features and visual context features, to accurately detect objects and relationships. In addition, in the proposed model, context features are embedded using graph neural networks to depict the dependencies between two related objects in the context feature vector. This study demonstrates the effectiveness of the proposed model through comparative experiments using the Visual Genome benchmark dataset.

MPEG 영상에서의 점진적 장면전환에 대한 효과적인 검출 기법 (Effective Detection Techniques for Gradual Scene Changes on MPEG Video)

  • 윤석중;지은석;김영로;고성제
    • 한국통신학회논문지
    • /
    • 제24권8B호
    • /
    • pp.1577-1585
    • /
    • 1999
  • 점진적인 장면전환 종류로는 비디오 편집 과정에서 삽입되는 디졸브(dissolve), 페이드인/아웃(fade-in/out), 와이프(wipe) 등과, 카메라 움직임에 의한 팬(pan), 줌(zoom), 스크롤(scroll) 등이 있다. 본 논문에서는 점진적 장면전환 종류 중 편집과정에서 사용되는 디졸브, 그리고 카메라 움직임에 의한 팬과 줌의 검출을 위한 효과적인 방법을 제안하였다. 디졸브 구간의 검출을 위하여 각 프레임에 대한 공간적 영역 분할을 하고, 영역별 화소값의 평균치를 제곱하여 전환 프레임의 특징 요소로 사용하였다. 팬과 줌의 검출을 위하여 배경화면을 대표할 수 있는 4개의 국부 영역으로 선정하여 각 국부 영역의 움직임 벡터로부터 대표 움직임 벡터를 결정하고, 이들의 방향 성분을 사용하였다. 제안된 방식들은 검출의 정확도를 향상시키기 위해 모든 프레임(I, P, B)을 사용하였으며 아울러 검출 속도를 높이기 위해 완전 복원된 영상을 사용하는 대신 DCT DC 계수와 움직임 벡터를 이용한 축소영상을 사용하였다. 실제 MPEG 비디오에 적용하여 기존의 방법들에 비해 우수한 검출 결과를 확인하였다.

  • PDF

장면 전환점 검출을 위한 프레임의 평균오차 비교에 관한 연구 (A Study on Frame of MSE Comparison for Scene Chang Detection Retrieval)

  • 김단환;김형균;오무송
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 춘계종합학술대회
    • /
    • pp.638-642
    • /
    • 2002
  • 대용량의 동영상 데이터 이용에 있어 사용자가 전체 동영상 데이터를 한눈에 파악할 수 있고, 필요한 경우 원하는 지점부터 동영상을 재생할 수 있도록 하기 위하여 동영상 데이터의 정보를 요약해 놓은 프레임 리스트를 제공하며, 효과적인 동영상 검색을 위해서는 동영상 데이터의 색인과정이 필요하다. 본 논문은 내용기반 색인에 기초가 될 동영상의 장면 전환점 검출에 관한 효과적인 방법을.제안하고자 한다. 제안된 방법은 동영상 데이터를 대각선 방향으로 일정 픽셀의 칼라 값을 추출하여 동영상의 전체 구조를 파악할 수 있도록 정지영상으로 샘플링 하였으며, 샘플링 된 데이터는 장면전환점을 한눈으로 파악할 수 있었다. 각각의 프레임에서 추출한 픽셀의 칼라 값은 행렬A에 i$\times$j 행렬로 i는 프레임 수, j는 프레임의 영상 높이로 저장하고 MSE(Mean Square Error) 도입하여 각 프레임의 평균 오차를 계산한다. 평균오차와 일정 임계값을 초과하면 그 프레임을 장면 전환점으로 검출하고자 한다.

  • PDF

동영상에서 인물식별을 위한 얼굴검출 알고리즘 구현 (Implementation of a face detection algorithm for the identification of persons)

  • 조미남;지유강
    • 정보보호학회논문지
    • /
    • 제21권1호
    • /
    • pp.85-91
    • /
    • 2011
  • 영화, 드라마와 같은 비디오에서 등장하는 인물을 검출하고 인식하는 기술은 일반 사용자를 대상으로 PVR(personal video recorder), 모바일 폰과 멀티미디어 공급자를 위한 얼굴 영상의 데이터베이스 관리와 같은 응용분야에 이용될 수 있다. 본 논문에서는 비디오 등장인물을 자동으로 검색하는 얼굴검출 기법을 제안한다. 본 논문에서 제안한 얼굴검출 기법은 크게 세 단계로 구성하였다. 첫 번째, 정지 영상을 생성한 후 장면전환점 검출단계, 두 번째, 색상정보를 이용한 얼굴검출 단계, 마지막으로 얼굴영역을 이용한 얼굴 특징점 검출단계로 구성하였다. 실험결과 다양한 환경에서 성공적으로 얼굴을 검출하였으며, 기존의 색상정보를 이용한 얼굴 검출기법보다 성능이 개선된 것을 확인할 수 있었다.

Deep-Learning Approach for Text Detection Using Fully Convolutional Networks

  • Tung, Trieu Son;Lee, Gueesang
    • International Journal of Contents
    • /
    • 제14권1호
    • /
    • pp.1-6
    • /
    • 2018
  • Text, as one of the most influential inventions of humanity, has played an important role in human life since ancient times. The rich and precise information embodied in text is very useful in a wide range of vision-based applications such as the text data extracted from images that can provide information for automatic annotation, indexing, language translation, and the assistance systems for impaired persons. Therefore, natural-scene text detection with active research topics regarding computer vision and document analysis is very important. Previous methods have poor performances due to numerous false-positive and true-negative regions. In this paper, a fully-convolutional-network (FCN)-based method that uses supervised architecture is used to localize textual regions. The model was trained directly using images wherein pixel values were used as inputs and binary ground truth was used as label. The method was evaluated using ICDAR-2013 dataset and proved to be comparable to other feature-based methods. It could expedite research on text detection using deep-learning based approach in the future.