• 제목/요약/키워드: Scene changing detection

검색결과 8건 처리시간 0.026초

Shortcut Shot Detection Based on Compressed Video Bitstream

  • Ryu, Kwang-Ryol;Kim, Young-Bin
    • Journal of information and communication convergence engineering
    • /
    • 제5권3호
    • /
    • pp.269-272
    • /
    • 2007
  • The shortcut shot detection based on MPEG compressed video bitstream is presented in this paper. The detection algorithm is used the video picture frame from MPEG compressed video directly not to be decompressed the original image. For shortcut detection, I and P frame of MPEG video bitstream are classified. The changing scene cuts at I pictures are detected by the decompressed DC image and scene cuts at P picture frame by monitoring the percentage of intra-macroblocks per P picture are detected. Experimental results using test video bitstream QVGA results in average 92% detection rate, searching time is taken around 4.5 times faster in comparison with changing scene shot detection algorithm which is decompressed the compressed bitstream.

H.264 비디오 스트림의 히스토그램 및 헤더 정보를 이용한 장면 전환 검출에 관한 연구 (Changing Scene Detection using Histogram and Header Information of H.264 Video Stream)

  • 김영빈;로버트 스크라바시;류광렬
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2006년도 춘계종합학술대회
    • /
    • pp.197-200
    • /
    • 2006
  • 본 논문에서는 H.264 비디오 스트림의 히스토그램 정보와 헤더 정보를 이용한 장면 전환 검출에 관한 연구이다. 비디오 데이터에서 장면의 변화를 검출하는 가장 일반적인 방법으로 히스토그램을 이용하고 있다. 그러나 히스토그램 정보를 이용하기 위해서는 비디오 데이터를 압축 해제 하여 각각의 장면에 대한 히스토그램 차이를 계산하기 때문에 연산 시간이 많이 소요된다. 반면에 H.264 비디오 헤더 정보를 이용하면 이러한 연산의 과정 없이 실시간 검출이 가능하다. 히스토그램을 이용하여 장면 전환을 검출하고 헤더 정보를 함께 이용하였을 때 동일한 프리시전 및 리콜을 수행하면서 검색 속도에서 향상을 확인할 수 있었다.

  • PDF

비디오 프레임 타입을 이용한 비디오 셧 검출 (Video Shot Detection Based on Video Frame Types)

  • 김영빈;류광렬;로버트스크라바시
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2007년도 춘계종합학술대회
    • /
    • pp.145-148
    • /
    • 2007
  • 논문은 비디오 픽쳐 타입을 이용한 비디오 셧 검출에 관한 연구이다. 제안한 방법은 압축된 비디오 프레임에 대하여 원 영상을 복원하지 않고, 압축 상태의 비디오 프레임을 이용한다. I픽쳐 프레임에서 DC영상을 복원하고, P픽쳐 프레임에서는 매크로블록의 개수를 이용하여 비디오 셧을 검출 한다. 테스트 비디오를 이용하여 실험 결과 $85\sim98%$의 장면전환 검출이 가능 하였고, 압축비트스트림을 복원하여 장면전환의 셧을 검출 하는 기법에 비해 4배 빠른 검색이 가능하다.

  • PDF

MPEG 시스템 스트림상에서 오디오 정보를 이용한 장면 경계 검출 방법 (A Scene Boundary Detection Scheme using Audio Information in MPEG System Stream)

  • 김재홍;낭종호;박수용
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권8호
    • /
    • pp.864-876
    • /
    • 2000
  • 본 논문에서는 일반적인 영화를 인코딩한 MPEG 형식의 비디오 데이타에 대해 장면과 장면 사이의 경계점에서 나타나는 여러 오디오 특성을 이용하는 새로운 장면 경계 검출 방법을 제안하고 실험을 통해서 그 유용성을 보인다. 일반적인 영상에서 장면 경계 지점에서는 영상의 내용이 크게 바뀜에 따라 오디오 정보도 같이 변화한다는 특성이 있으며, 본 논문에서는 이러한 장면경계에서의 오디오 정보 변화를 각각 급진변화(Radical Change), 점진변화(Gradual Change), 미세변화(Micro Change)로 분류하였으며, 각 변화의 특성을 분석하고 이를 검출하는 알고리즘을 제안하였다. 급진변화는 장면과 장면의 경계점에서 오디오가 음량의 급격한 증감이 발생하고 음색 또한 급격히 달라지는 형태를 취하고 있으며, 점진변화는 긴 시간에 걸쳐서 음량 및 음색이 달라지는 형태를, 미세변화는 음량의 변화없이 일부 음색과 주파수 분포가 달라지는 특성을 가지고 있다. 본 논문에서는 이러한 특성을 토대로 시간축을 따라 진행하는 윈도우를 설정하여 이 윈도우 내에서의 오디오 변화를 추적함으로써 위의 세 가지 형태의 장면 경계를 추출하는 방법을 제안한다. 다양한 영화를 통한 실험에서 실제 샘플로 사용된 영화들에서 가장 많은 부분을 차지하는 급진변화에 대하여 본 논문에서 제안한 방법이 높은 검출율을 얻을 수 있음을 알 수 있었다. 본 논문에서 제안한 오디오 정보를 이용한 장면 경계 검출 방법은 비디오 정보를 이용한 장면 경계 검출과 같이 병행하여 사용함으로써 MPEG 형식의 영상정보에 대한 데이타 베이스 구축에 유용하게 사용될수 있을 것이다.관 주위에 많았다.findings suggest that compounds 6 and 11 are modulating various elements of the host immune response.%로서, carbofuran 단독투여와 carbofuran과 PB 또는 3-MC 투여사이에 대사산물의 종류는 같았으나 생성율에는 큰 차이가 있었다. 이와 같은 결과는 쥐에 carbofuran 투여 후 PB나 3-MC를 투여함으로써 carbofuran의 대사가 빠르게 이루어지고, 주 대사산물 중3-hydroxycarbofuran보다 독성 이 낮은 3-ketocarbofuran으로의 대사가 빠르게 이루어지기 때문에 carbofuran의 독성이 경감되어 쥐가 생존할 수 있는 것으로 판단된다.시장젓갈${\lrcorner}$에는 글루타민산, leucine, alanine, lysine의 4종류, ${\ulcorner}$반찬젓갈${\lrcorner}$에는 글루타민산, leucine, alanine의 3종류, ${\ulcorner}$일본병조림젓갈${\lrcorner}$은 글루타민산이 현저하게 많다.회하였다.ollowed fro all Sullungtang samples from Hanwoo. The results showed that the overall quality of Sullungtang significantly decreased as the parity increased for Hanwoo cows. The Sullungtang

  • PDF

Comparisons of Object Recognition Performance with 3D Photon Counting & Gray Scale Images

  • Lee, Chung-Ghiu;Moon, In-Kyu
    • Journal of the Optical Society of Korea
    • /
    • 제14권4호
    • /
    • pp.388-394
    • /
    • 2010
  • In this paper the object recognition performance of a photon counting integral imaging system is quantitatively compared with that of a conventional gray scale imaging system. For 3D imaging of objects with a small number of photons, the elemental image set of a 3D scene is obtained using the integral imaging set up. We assume that the elemental image detection follows a Poisson distribution. Computational geometrical ray back propagation algorithm and parametric maximum likelihood estimator are applied to the photon counting elemental image set in order to reconstruct the original 3D scene. To evaluate the photon counting object recognition performance, the normalized correlation peaks between the reconstructed 3D scenes are calculated for the varied and fixed total number of photons in the reconstructed sectional image changing the total number of image channels in the integral imaging system. It is quantitatively illustrated that the recognition performance of the photon counting integral imaging system can be similar to that of a conventional gray scale imaging system as the number of image viewing channels in the photon counting integral imaging (PCII) system is increased up to the threshold point. Also, we present experiments to find the threshold point on the total number of image channels in the PCII system which can guarantee a comparable recognition performance with a gray scale imaging system. To the best of our knowledge, this is the first report on comparisons of object recognition performance with 3D photon counting & gray scale images.

인공위성 영상의 객체인식을 위한 영상 특징 분석 (Feature-based Image Analysis for Object Recognition on Satellite Photograph)

  • 이석준;정순기
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.35-43
    • /
    • 2007
  • 본 논문은 특징검출(feature detection)과 특징해석(feature description) 기법을 이용하여, 영상 매칭 (matching)과 인식(recognition)에 필요한 다양한 파라미터의 변화에 따른 인식률의 차이를 분석하기 위한 실험 내용을 다룬다. 본 논문에서는 영상의 특징분석과 매칭프로세스를 위해, Lowe의 SIFT(Scale-Invariant Transform Feature)를 이용하며, 영상에서 나타나는 특징을 검출하고 해석하여 특징 데이터베이스로 구축한다. 특징 데이터베이스는 구글 어스를 통해 획득한 위성영상으로부터 50여개 건물에 대해 구축되는데, 이는 각 건물 영상으로부터 추출된 특징 점들의 좌표와 128차원의 벡터의 값으로 이루어진 특징 해석데이터로 저장된다. 구축된 데이터베이스는 각 건물에 대한 정보가 태그의 형식으로 함께 저장되는데, 이는 카메라로부터 획득한 입력영상과의 비교를 통해 입력영상이 가리키는 지역 내에 존재하는 건물에 대한 정보를 제공하는 역할을 한다. 실험은 영상 매칭과 인식과정에서 작용하는 내-외부적 요소들을 제시하고, 각 요소의 상태변화에 따라 인식률의 차이를 비교하는 방법으로 진행되었으며, 본 연구의 최종적인 시스템은 모바일기기의 카메라를 이용하여 카메라가 촬영하고 있는 지도상의 객체를 인식하고, 해당 객체에 대한 기본적인 정보를 제공할 수 있다.

  • PDF

차선검출 기반 카메라 포즈 추정 (Lane Detection-based Camera Pose Estimation)

  • 정호기;서재규
    • 한국자동차공학회논문집
    • /
    • 제23권5호
    • /
    • pp.463-470
    • /
    • 2015
  • When a camera installed on a vehicle is used, estimation of the camera pose including tilt, roll, and pan angle with respect to the world coordinate system is important to associate camera coordinates with world coordinates. Previous approaches using huge calibration patterns have the disadvantage that the calibration patterns are costly to make and install. And, previous approaches exploiting multiple vanishing points detected in a single image are not suitable for automotive applications as a scene where multiple vanishing points can be captured by a front camera is hard to find in our daily environment. This paper proposes a camera pose estimation method. It collects multiple images of lane markings while changing the horizontal angle with respect to the markings. One vanishing point, the cross point of the left and right lane marking, is detected in each image, and vanishing line is estimated based on the detected vanishing points. Finally, camera pose is estimated from the vanishing line. The proposed method is based on the fact that planar motion does not change the vanishing line of the plane and the normal vector of the plane can be estimated by the vanishing line. Experiments with large and small tilt and roll angle show that the proposed method outputs accurate estimation results respectively. It is verified by checking the lane markings are up right in the bird's eye view image when the pan angle is compensated.

컬러 영상의 조명성분 분석을 통한 문자인식 성능 향상 (Improved Text Recognition using Analysis of Illumination Component in Color Images)

  • 치미영;김계영;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.131-136
    • /
    • 2007
  • 본 논문에서는 컬러영상에 존재하는 문자들을 효율적으로 추출하기 위한 새로운 접근 방법을 제안한다. 빛 또는 조명성분의 영향에 의해 획득된 영상 내에 존재하는 반사성분은 문자 또는 관심객체들의 경계가 모호해 지거나 관심객체와 배경이 서로 혼합 되었을 경우, 문자추출 및 인식을 함에 있어서 오류를 포함시킬 수 있다. 따라서 영상 내에 존재하는 반사성분을 제거하기 위해 먼저. 컬러영상으로부터 Red컬러 성분에 해당하는 히스토그램에서 두개의 pick점을 검출한다. 이후 검출된 두 개의 pick점들 간의 분포를 사용하여 노말 또는 편광 영상에 해당하는지를 판별한다. 노말 영상의 경우 부가적인 처리를 거치지 않고 문자에 해당하는 영역을 검출하며, 편광 영상에 해당하는 경우 반사성분을 제거하기 위해 호모모픽필터링 방법을 적용하여 반사성분에 해당하는 영역을 제거한다. 이후 문자영역을 검출하기 위해 최적전역임계화방식을 적용하여 전경과 배경을 분리하였으며 문자영역 추출 및 인식의 성능을 향상시켰다. 널리 사용되고 있는 문자 인식기를 사용하여 제안한 방식 적용 전과 후의 인식결과를 비교하였다. 편광영상에서 제안된 방법 적용 후, 문자인식을 한 경우 인식률이 향상되었다.

  • PDF