• 제목/요약/키워드: Scene Transition Detection

검색결과 15건 처리시간 0.021초

인터랙티브 비디오 검색을 위한 EOG 기반 장면 전환 검출 (Electrooculogram-based Scene Transition Detection for Interactive Video Retrieval)

  • 이충연;이범진;장병탁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(B)
    • /
    • pp.408-410
    • /
    • 2012
  • 기존의 비디오 검색 방법들은 관련 주석이나 영상 정보에 기반하며 사용자의 반응과 관련하여서는 많은 정보를 활용하고 있지 않다. 비디오 시청시 사용자의 뇌신호나 시선추적 정보 등의 인지적 반응을 이용하여 연속적인 비디오 스트림의 각 부분에 대하여 사용자들이 나타내는 관심이나 감성 정보를 추출한다면 보다 인터랙티브한 비디오 데이터 검색 및 추천이 가능하다. 본 논문에서는 비디오를 시청하는 사용자의 안구전도(electrooculogram)를 기록한 후, 장면 전환이 발생한 부분에서의 사건관련전위 분석을 통해 해당 부분에서 나타나는 특징적 반응을 찾고 이에 대한 인지적 해석을 도출했다. 실험 결과 장면 전환 이후200~700ms 부분에서 P300 성분과 유사한 피크가 발생하는 것을 확인하였으며, 이러한 결과는 장면 전환에 따른 피험자의 비디오 내용 인지에 대한 의도 불일치 및 주의력 증가로 해석된다.

특징값 비유사도 영역의 누적 분포를 이용한 점진적 장면전환 검출 (Gradual Scene Transition Detection using Summation of Feature Difference Area)

  • 이종명;김형준;서병락;김회율
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.877-879
    • /
    • 2005
  • 장면전환의 검출은 비디오 브라우징, 검색, 요약 등에 관한 많은 응용에 유용하다. 본 논문에서는 점진적 장면전환 검출을 위해 정의된 N-길이 로컬 윈도우 내에서 비유사도 분포가 갖는 최소값만큼 상승하여 형성되는 분포를 구하고, 분포의 상단이 이루는 비유사도 값을 누적하여 설정된 임계값보다 클 경우 점진적 장면전환으로 판단하는 방법을 제안한다. 장면전환 구간에서 이루는 영역의 누적값은 최소-최대 분포를 이용하여 구할 수 있다. 실험에서 기존의 제안된 방법과 비교를 하였고 그 결과 제안된 방법에서 올바른 장면전환 검출 성능은 낮았으나 잘못 검출되는 장면전환 수는 적은 결과를 보였다. 제안된 방법은 점진적 장면전환 검출을 위한 임계값의 선택이 쉬우며, 장면전환 길이에 크게 의존하지 않는 장점이 있고 수행속도가 높아 실시간으로 처리하는데 적합하다.

  • PDF

Fast image stitching method for handling dynamic object problems in Panoramic Images

  • Abdukholikov, Murodjon;Whangbo, Taegkeun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권11호
    • /
    • pp.5419-5435
    • /
    • 2017
  • The construction of panoramic images on smartphones and low-powered devices is a challenging task. In this paper, we propose a new approach for smoothly stitching images on mobile phones in the presence of moving objects in the scene. Our main contributions include handling moving object problems, reducing processing time, and generating rectangular panoramic images. First, unique and robust feature points are extracted using fast ORB method and a feature matching technique is applied to match the extracted feature points. After obtaining good matched feature points, we employ the non-deterministic RANSAC algorithm to discard wrong matches, and the hommography transformation matrix parameters are estimated with the algorithm. Afterward, we determine precise overlap regions of neighboring images and calculate their absolute differences. Then, thresholding operation and noise removal filtering are applied to create a mask of possible moving object regions. Sequentially, an optimal seam is estimated using dynamic programming algorithm, and a combination of linear blending with the mask information is applied to avoid seam transition and ghosting artifacts. Finally, image-cropping operation is utilized to obtain a rectangular boundary image from the stitched image. Experiments demonstrate that our method is able to produce panoramic images quickly despite the existence of moving objects.

동영상 카투닝 시스템을 위한 자동 프레임 추출 기법 (Auto Frame Extraction Method for Video Cartooning System)

  • 김대진;구떠올라
    • 한국콘텐츠학회논문지
    • /
    • 제11권12호
    • /
    • pp.28-39
    • /
    • 2011
  • 멀티미디어 산업의 발달과 함께 디지털 콘텐츠 시장의 확산을 가져오고 있다. 그 중 인터넷 만화와 같은 디지털 만화 시장의 확장은 급속하게 커지고 있어서, 콘텐츠의 부족과 다양성 때문에 동영상 카투닝에 대한 연구가 계속되고 있다. 지금까지는 동영상 카투닝은 비사실적 렌더링과 말풍선에 초점이 맞추어졌으나, 이러한 것들을 적용하기 위해서는 카투닝 서비스에 적합한 프레임 추출이 우선시 되어야만 한다. 기존의 방법으로는 동영상의 장면전환이 일어나는 샷(shot)안의 프레임을 추출하여, 사용자가 지정한 영역을 임의의 색상으로 렌더링(Rendering)하는 시스템이 있다. 하지만 이러한 방법은 사람의 손을 거치는 반자동적인 방법으로서 정확한 프레임 추출을 위해 사람의 손을 거쳐야하는 단점이 있다. 따라서 본 논문에서는 이러한 문제점을 해결하고, 보다 정확한 카투닝에 적용할 프레임을 추출하기 위해 오디오 및 비디오 분리를 통한 방법을 제안한다. 먼저 동영상으로부터 오디오와 비디오를 분리한다. 오디오는 먼저 MFCC와 영교차율의 특징을 추출하고, 이 특징 정보를 미리 학습된 데이터와 GMM 분류기를 통하여 음악, 음성, 음악+음성으로 분류한 후 음성 영역을 설정한다. 비디오는 히스토그램을 이용한 방법과 같은 일반적인 장면전환 프레임을 추출 후 얼굴 검색을 통해서 만화에서 의미가 있는 프레임을 추출한다. 그 후 음성 영역내에 얼굴이 존재하는 장면전환 프레임이나 일정 시간동안 음성이 지속되는 영역 중 장면전환 프레임을 추출하여 동영상 카투닝에 적합한 프레임을 자동으로 추출한다.

장면의 유사도 패턴 비교를 이용한 내용기반 동영상 분할 알고리즘 (Content based Video Segmentation Algorithm using Comparison of Pattern Similarity)

  • 원인수;조주희;나상일;진주경;정재협;정동석
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1252-1261
    • /
    • 2011
  • 본 논문은 내용기반 동영상 분할을 위한 장면의 유사도 패턴 비교 방법을 제안한다. 동영상 장면 전환의 종류는 크게 급진적 전환과 디졸브(dissolve), 페이드인(fade-in), 페이드아웃(fade-out), 와이프 전환(wipe transition)을 포함하는 점진적 전환 형태로 나눌 수 있다. 제안하는 방법은 모든 종류의 장면 전환 검출 문제를 단지 발생 유무의 문제로 간단 정의하고, 장면 전환 종류는 별도로 구분하지 않는다. 장면 전환을 검출하기 위해서는 프레임간의 유사도를 정의해야 한다. 본 논문에서는 장면 내 유사도(within similarity)와 장면 간 유사도(between similarity)를 정의하며 두 유사도의 통계적 패턴 비교를 통하여 최종적으로 장면 전환을 검출하게 된다. 장면 내 유사도와 장면 간 유사도의 비율을 구하는 방법을 통해 플래시라이트나영상 내 물체 움직임에 대한 거짓 양성 검출을 별도의 후처리 과정 없이도 방지할 수 있음을 확인하였다. 프레임의 특징 값으로는 컬러 히스토그램과 프레임 내 평균 화소값을 이용하였다. TREC-2001, TREC-2002 동영상 셋을 포함한 실험 셋에서 성능을 평가한 결과 제안하는 알고리즘의 경우 총 91.84%의 재현율(recall)과 86.43%의 정확도(precision)의 성능을 보임을 확인할 수 있었다.