• 제목/요약/키워드: shot transition detection

검색결과 13건 처리시간 0.021초

장면의 유사도 패턴 비교를 이용한 내용기반 동영상 분할 알고리즘 (Content based Video Segmentation Algorithm using Comparison of Pattern Similarity)

  • 원인수;조주희;나상일;진주경;정재협;정동석
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1252-1261
    • /
    • 2011
  • 본 논문은 내용기반 동영상 분할을 위한 장면의 유사도 패턴 비교 방법을 제안한다. 동영상 장면 전환의 종류는 크게 급진적 전환과 디졸브(dissolve), 페이드인(fade-in), 페이드아웃(fade-out), 와이프 전환(wipe transition)을 포함하는 점진적 전환 형태로 나눌 수 있다. 제안하는 방법은 모든 종류의 장면 전환 검출 문제를 단지 발생 유무의 문제로 간단 정의하고, 장면 전환 종류는 별도로 구분하지 않는다. 장면 전환을 검출하기 위해서는 프레임간의 유사도를 정의해야 한다. 본 논문에서는 장면 내 유사도(within similarity)와 장면 간 유사도(between similarity)를 정의하며 두 유사도의 통계적 패턴 비교를 통하여 최종적으로 장면 전환을 검출하게 된다. 장면 내 유사도와 장면 간 유사도의 비율을 구하는 방법을 통해 플래시라이트나영상 내 물체 움직임에 대한 거짓 양성 검출을 별도의 후처리 과정 없이도 방지할 수 있음을 확인하였다. 프레임의 특징 값으로는 컬러 히스토그램과 프레임 내 평균 화소값을 이용하였다. TREC-2001, TREC-2002 동영상 셋을 포함한 실험 셋에서 성능을 평가한 결과 제안하는 알고리즘의 경우 총 91.84%의 재현율(recall)과 86.43%의 정확도(precision)의 성능을 보임을 확인할 수 있었다.

웨이블렛 변환을 적용한 장면전환의 cut과 fade검출 (Cut and Fade Detection of Scene Change Using Wavelet transform)

  • 이명은;박종현;박순영;방만원;조완현
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.207-210
    • /
    • 2000
  • 본 논문에서는 신호를 해석하는데 유용한 웨이블렛 변환을 적용하여 장면전환 요소 중 cut과 fade를 검출하는 알고리즘을 제안한다. 제안된 방법은 웨이블렛 저대역 부밴드로부터 각 프레임의 히스토그램을 구한 후 이전 프레임과 현재 프레임사이의 히스토그램 차를 구하여 이 값이 임계값 이상이면 급격한 장면전환(abrut shot transition)인 cut으로 분류한다. 다음으로 페이드인(fade in)이나 페이드 아웃(fade out)등 컷의 지점이 불분명한 점진적 장면전환(gradual scene transition)을 검출하기 위하여 고대역 부밴드에서 추출한 에지성분에 모멘트를 계산하여 인접한 프레임 사이의 변동율을 분석하여 값이 증가하면 페이드 인을 검출하고 반면에 감소하면 페이드 아웃을 검출하게된다. 성능평가를 위하여 실제의 비디오 분할에 적용한 결과 웨이블렛 적용 방법론이 매우 높은 Precision을 갖는다는 것을 알 수 있으며 윤곽정보에 모멘트 정보를 더함으로써 기존의 방법보다 정확한 페이드(fade) 구간을 검출할 수 있었다.

  • PDF

동영상 카투닝 시스템을 위한 자동 프레임 추출 기법 (Auto Frame Extraction Method for Video Cartooning System)

  • 김대진;구떠올라
    • 한국콘텐츠학회논문지
    • /
    • 제11권12호
    • /
    • pp.28-39
    • /
    • 2011
  • 멀티미디어 산업의 발달과 함께 디지털 콘텐츠 시장의 확산을 가져오고 있다. 그 중 인터넷 만화와 같은 디지털 만화 시장의 확장은 급속하게 커지고 있어서, 콘텐츠의 부족과 다양성 때문에 동영상 카투닝에 대한 연구가 계속되고 있다. 지금까지는 동영상 카투닝은 비사실적 렌더링과 말풍선에 초점이 맞추어졌으나, 이러한 것들을 적용하기 위해서는 카투닝 서비스에 적합한 프레임 추출이 우선시 되어야만 한다. 기존의 방법으로는 동영상의 장면전환이 일어나는 샷(shot)안의 프레임을 추출하여, 사용자가 지정한 영역을 임의의 색상으로 렌더링(Rendering)하는 시스템이 있다. 하지만 이러한 방법은 사람의 손을 거치는 반자동적인 방법으로서 정확한 프레임 추출을 위해 사람의 손을 거쳐야하는 단점이 있다. 따라서 본 논문에서는 이러한 문제점을 해결하고, 보다 정확한 카투닝에 적용할 프레임을 추출하기 위해 오디오 및 비디오 분리를 통한 방법을 제안한다. 먼저 동영상으로부터 오디오와 비디오를 분리한다. 오디오는 먼저 MFCC와 영교차율의 특징을 추출하고, 이 특징 정보를 미리 학습된 데이터와 GMM 분류기를 통하여 음악, 음성, 음악+음성으로 분류한 후 음성 영역을 설정한다. 비디오는 히스토그램을 이용한 방법과 같은 일반적인 장면전환 프레임을 추출 후 얼굴 검색을 통해서 만화에서 의미가 있는 프레임을 추출한다. 그 후 음성 영역내에 얼굴이 존재하는 장면전환 프레임이나 일정 시간동안 음성이 지속되는 영역 중 장면전환 프레임을 추출하여 동영상 카투닝에 적합한 프레임을 자동으로 추출한다.