• 제목/요약/키워드: Video sequence

검색결과 507건 처리시간 0.022초

프레임간 상대적인 차에 의한 셔트 검출 기법을 이용한 비디오 워터마킹 (Video Watermarking Using Shot Detection)

  • 정인식;권오진
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(4)
    • /
    • pp.101-104
    • /
    • 2002
  • This paper proposes a unique data embedding algorithm for the video sequence. It describes two processings: shot boundary detection and robust data embedding. First, for the shot boundary detection, instead of using absolute frame differences, block by block based relative frame differences are employed. Frame adaptive thresholding values are also employed for the better detection. Second, for the robust data embedding, we generate message template and then convolve and correlate it with carrier signal. And then we embed data on the time domain video sequence. By using these two methods, watermarks into randomly selected frames of shots. Watermarks are detected well even if several certain shots are damaged because we embed watermark into each shot equally.

  • PDF

DNN 학습을 이용한 퍼스널 비디오 시퀀스의 멀티 모달 기반 이벤트 분류 방법 (A Personal Video Event Classification Method based on Multi-Modalities by DNN-Learning)

  • 이유진;낭종호
    • 정보과학회 논문지
    • /
    • 제43권11호
    • /
    • pp.1281-1297
    • /
    • 2016
  • 최근 스마트 기기의 보급으로 자유롭게 비디오 컨텐츠를 생성하고 이를 빠르고 편리하게 공유할 수 있는 네트워크 환경이 갖추어지면서, 퍼스널 비디오가 급증하고 있다. 그러나, 퍼스널 비디오는 비디오라는 특성 상 멀티 모달리티로 구성되어 있으면서 데이터가 시간의 흐름에 따라 변화하기 때문에 이벤트 분류를 할 때 이에 대한 고려가 필요하다. 본 논문에서는 비디오 내의 멀티 모달리티들로부터 고수준의 특징을 추출하여 시간 순으로 재배열한 것을 바탕으로 모달리티 사이의 연관관계를 Deep Neural Network(DNN)으로 학습하여 퍼스널 비디오 이벤트를 분류하는 방법을 제안한다. 제안하는 방법은 비디오에 내포된 이미지와 오디오를 시간적으로 동기화하여 추출한 후 GoogLeNet과 Multi-Layer Perceptron(MLP)을 이용하여 각각 고수준 정보를 추출한다. 그리고 이들을 비디오에 표현된 시간순으로 재 배열하여 비디오 한 편당 하나의 특징으로 재 생성하고 이를 바탕으로 학습한 DNN을 이용하여 퍼스널 비디오 이벤트를 분류한다.

Video Watermarking Algorithm for H.264 Scalable Video Coding

  • Lu, Jianfeng;Li, Li;Yang, Zhenhua
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권1호
    • /
    • pp.56-67
    • /
    • 2013
  • Because H.264/SVC can meet the needs of different networks and user terminals, it has become more and more popular. In this paper, we focus on the spatial resolution scalability of H.264/SVC and propose a blind video watermarking algorithm for the copyright protection of H.264/SVC coded video. The watermark embedding occurs before the H.264/SVC encoding, and only the original enhancement layer sequence is watermarked. However, because the watermark is embedded into the average matrix of each macro block, it can be detected in both the enhancement layer and base layer after downsampling, video encoding, and video decoding. The proposed algorithm is examined using JSVM, and experiment results show that is robust to H.264/SVC coding and has little influence on video quality.

3D DCT Video Information Hiding

  • Kim, Young-Gon;Jie Yang;Lee, Hye-Joo;Hong, Jin-Woo;Lee, Moon-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2002년도 정기총회 및 학술대회
    • /
    • pp.169-172
    • /
    • 2002
  • Embedding information into video data is a topic that recently gained increasing attention. This paper proposes a new approach for digital watermarking and secure copyright protection of video, the principal aim being to discourage illicit copying and distribution of copyrighted material. The method presented here is based on the three dimensional discrete cosine transform of video scene, in contrast with previous works on video watermarking where each video frame was marked separately, or where only intra-frame or motion compensation parameters were marked in MPEG compressed videos. The watermark sequence used is encrypted, pseudo-noise signal to the video. The performance of the presented technique is evaluated experimentally

  • PDF

단일 엔코더 및 디코더를 이용하는 다시점 비디오 시스템 (Multi-View Video System using Single Encoder and Decoder)

  • 김수학;김윤;김만배
    • 방송공학회논문지
    • /
    • 제11권1호
    • /
    • pp.116-129
    • /
    • 2006
  • 인터넷을 통한 데이터 전송 기술의 발전은 다양한 실감 콘텐츠를 확산시키는 역할을 하고 있고, 이러한 실감 콘텐츠의 하나로 다시점 비디오가 연구되고 있다. 다시점 비디오는 여러 대의 카메라로부터 획득한 영상을 사용자에게 전달해 원하는 시점에서 영상을 시청할 수 있도록 하는 차세대 영상이다. 다시점 영상을 공급하기 위해서는 일반적으로 카메라 개수와 같은 개수의 엔코더와 디코더가 필요하며, 또한 상대적으로 큰 전송 대역폭을 필요로 한다. 본 논문에서는 상기 문제점을 해결하기 위해서 단일 엔코더와 디코더만을 이용하는 다시점 비디오 시스템을 제안한다. 부호화에서는 다시점 YUV 비디오를 GOP 단위로 믹싱하여 l 개의 YUV 스트립을 만든 후에, 단일 H.264/ AVC 엔코더로 부호화하여 압축 비트열을 생성한다. 또한 복호화도 단일 디코더 및 이를 제어하는 스케줄러로 구성된다. 스케줄러는 디코더 이용률과 프레임 스킵을 활용하여 각 시점 영상들이 동등한 복호화 프레임 개수를 가지게 한다. 또한 프레임 스킵에서는 비용 함수를 이용하여 H.264/AVC 프로화일에 따른 효율적인 프레임 선택 방법을 제안한다. 다양한 메인 및 베이스라인 프로화일 다시점 영상들을 활용하여 제안 방법의 성능을 검증하였다. 실험 결과는 각 시점 영상이 동등한 디코더 이용률을 얻는 것을 보여준다. 또한 rate-distortion 커브를 이용하여 제안한 방식과 동시 방식의 성능을 검증하였다.

두 객체가 충돌하는 상황에서의 햅틱 렌더링 알고리즘 (Haptic Rendering Algorithm for Collision Situation of Two Objects)

  • 김선규;김혜빈;류철
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권3호
    • /
    • pp.35-41
    • /
    • 2018
  • 본 논문에서는 햅틱 렌더링을 위한 동영상의 장면을 정의하고 그 중 정지 상태의 객체와 단일 객체가 충돌하는 상황에 대한 햅틱 렌더링 알고리즘을 제안한다. 객체의 움직임을 크게 네 가지 상황으로 분류하였으며 동영상에서 쉽게 볼 수 있는 장면들을 활용하였다. 제안하는 알고리즘은 움직임 예측과 객체 추적을 활용하여 객체의 방향 변화와 모양 변화를 검출함으로써 햅틱 렌더링을 하기에 적합한 프레임인지 판별할 수 있도록 하였다. 알고리즘 실행을 통해 샘플 동영상에서 총 13개의 프레임을 추출하였으며 해당 프레임이 재생되는 시간을 계산하였다. 햅틱 편집 프로그램을 통해 상황에 알맞은 햅틱 생성 파형을 추가함으로써 계산된 재생 시간에 햅틱 효과가 나타나는 것을 확인하였다.

확률기반 배경제거 기법의 향상을 위한 밝기 사영 및 변환에너지 기반 그림자 영역 제거 방법 (A Shadow Region Suppression Method using Intensity Projection and Converting Energy to Improve the Performance of Probabilistic Background Subtraction)

  • 황숭민;강동중
    • 제어로봇시스템학회논문지
    • /
    • 제16권1호
    • /
    • pp.69-76
    • /
    • 2010
  • The segmentation of moving object in video sequence is a core technique of intelligent image processing system such as video surveillance, traffic monitoring and human tracking. A typical method to segment a moving region from the background is the background subtraction. The steps of background subtraction involve calculating a reference image, subtracting new frame from reference image and then thresholding the subtracted result. One of famous background modeling is Gaussian mixture model (GMM). Even though the method is known efficient and exact, GMM suffers from a problem that includes false pixels in ROI (region of interest), specifically shadow pixels. These false pixels cause fail of the post-processing tasks such as tracking and object recognition. This paper presents a method for removing false pixels included in ROT. First, we subdivide a ROI by using shape characteristics of detected objects. Then, a method is proposed to classify pixels from using histogram characteristic and comparing difference of energy that converts the color value of pixel into grayscale value, in order to estimate whether the pixels belong to moving object area or shadow area. The method is applied to real video sequence and the performance is verified.

개선된 특징차 비교 방법을 이용한 컷 검출 알고리즘에 관한 연구 (Region-based H.263 Video Codec with Effective Rate Control Algorithm for Low VBR Video)

  • 최인호;이대영
    • 한국통신학회논문지
    • /
    • 제24권9B호
    • /
    • pp.1690-1696
    • /
    • 1999
  • 동영상 데이터를 내용기반 검색을 하기 위해 비디오 시퀀스를 계층적 분할해야 한다. 컷 검출 알고리즘은 샷을 분류하는 중요한 처리이다. 일반적인 컷 검출 알고리즘은 이전 프레임과 현재 프레임을 비교하기 때문에 카메라의 움직임이나 물체의 움직임에 의해 화면변화가 크면 컷을 오검출 할 수도 있다. 본 논문에서는 컷 예상지점을 먼저 선정하고 컷 예상지점이 실제의 컷인가를 판별한다. 컷 예상지점의 프레임과 이웃 프레임의 특징차를 비교하므로써 실제 컷을 검출하므로 기존 알고리즘보다 오검출을 줄일 수 있다. MPEG비디오 시퀀스에서 DC영상을 추출하여 비교 프레임으로 사용하였다. 실험 결과, 제안한 알고리즘이 기존의 알고리즘보다 컷 검출율이 높은 것을 확인하였다.

  • PDF

비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 (Overlay Text Graphic Region Extraction for Video Quality Enhancement Application)

  • 이상희;박한성;안정일;온영상;조강현
    • 방송공학회논문지
    • /
    • 제18권4호
    • /
    • pp.559-571
    • /
    • 2013
  • 2차원 비디오를 3차원 스테레오 비디오로 변환할 때 기존 비디오에 삽입되어 있는 오버레이 텍스트(overlay text) 그래픽 영역으로 인해 발생하는 문제점을 이 논문에서 제시한다. 이를 해결하기 위한 방법으로 2차원 비디오를 오버레이 텍스트 그래픽 영역만 있는 영상과 오버레이 그래픽 영역이 추출되어 홀(hole)이 있는 영상으로 분리하여 처리하는 시나리오를 제안한다. 그리고 이 시나리오의 첫 번째 단계로 오버레이 텍스트 영역을 검색하고 추출하는 방법에 대해서만 이 논문에서 논한다. 비디오 시퀀스(sequence)가 입력되면 불필요한 연산 과정을 줄이기 위해 해리스 코너(Harris corner)로 얻어진 코너 밀도 맵을 이용하여 프레임 내 오버레이 텍스트의 존재 유무를 먼저 판단한다. 오버레이 텍스트가 있다면, 색(color) 정보와 움직임(motion) 정보를 결합하여 오버레이 텍스트 그래픽 영역을 검색하고 추출한다. 실험에서는 여러 가지 장르의 방송용 비디오에 대한 처리 결과를 보여주고 분석했다.

A "GAP-Model" based Framework for Online VVoIP QoE Measurement

  • Calyam, Prasad;Ekici, Eylem;Lee, Chang-Gun;Haffner, Mark;Howes, Nathan
    • Journal of Communications and Networks
    • /
    • 제9권4호
    • /
    • pp.446-456
    • /
    • 2007
  • Increased access to broadband networks has led to a fast-growing demand for voice and video over IP(VVoIP) applications such as Internet telephony(VoIP), videoconferencing, and IP television(IPTV). For pro-active troubleshooting of VVoIP performance bottlenecks that manifest to end-users as performance impairments such as video frame freezing and voice dropouts, network operators cannot rely on actual end-users to report their subjective quality of experience(QoE). Hence, automated and objective techniques that provide real-time or online VVoIP QoE estimates are vital. Objective techniques developed to-date estimate VVoIP QoE by performing frame-to-frame peak-signal-to-noise ratio(PSNR) comparisons of the original video sequence and the reconstructed video sequence obtained from the sender-side and receiver-side, respectively. Since processing such video sequences is time consuming and computationally intensive, existing objective techniques cannot provide online VVoIP QoE. In this paper, we present a novel framework that can provide online estimates of VVoIP QoE on network paths without end-user involvement and without requiring any video sequences. The framework features the "GAP-model", which is an offline model of QoE expressed as a function of measurable network factors such as bandwidth, delay, jitter, and loss. Using the GAP-model, our online framework can produce VVoIP QoE estimates in terms of "Good", "Acceptable", or "Poor"(GAP) grades of perceptual quality solely from the online measured network conditions.