DOI QR코드

DOI QR Code

A Method of Frame Synchronization for Stereoscopic 3D Video

스테레오스코픽 3D 동영상을 위한 동기화 방법

  • 박영수 (과학기술연합대학원대학교 이동통신 및 디지털 방송공학 전공) ;
  • 김도훈 (한국외국어대학교) ;
  • 허남호 (한국전자통신연구원 방송시스템연구부)
  • Received : 2013.03.28
  • Accepted : 2013.10.21
  • Published : 2013.11.30

Abstract

In this paper, we propose a method of frame synchronization for stereoscopic 3D video to solve the viewing problem caused by synchronization errors between a left video and a right video using the temporal frame difference image depending on the movement of objects. Firstly, we compute two temporal frame difference images from the left video and the right video which are corrected the vertical parallax between two videos using rectification, and calculate two horizontal projection profiles of two temporal frame difference images. Then, we find a pair of synchronized frames of the two videos by measuring the mean of absolute difference (MAD) of two horizontal projection profiles. Experimental results show that the proposed method can be used for stereoscopic 3D video, and is robust against Gaussian noise and video compression by H.264/AVC.

본 논문에서는 스테레오스코픽 3D 동영상에서 왼쪽과 오른쪽 영상 사이의 프레임 동기가 맞지 않아 시청에 어려움을 주는 문제를 해결하기 위해 두 영상에서 물체의 움직임에 따른 시간적 프레임 차분 영상을 이용한 동기화 방법을 제안한다. 먼저, 스테레오 조정(rectification) 과정을 통해 수직 시차를 보정한 왼쪽과 오른쪽 입력 동영상에서 시간적 프레임 차분 영상을 구하고, 두 차분 영상들에 대한 수평 방향 프로파일을 계산한다. 그 다음, 두 수평 프로파일의 절대 오차에 대한 평균 (mean of absolute difference(MAD))을 계산하여 그 값이 최소가 되는 프레임 조합을 찾아 스테레오스코픽 3D 동영상의 동기를 맞출 수 있도록 하였다. 실험결과, 두 영상의 프레임 동기가 맞는 프레임 조합에서 최소 MAD 값을 기록하여 제안 방법을 통해 스테레오스코픽 3D 동영상에서의 프레임 동기화가 가능하며, 제안 방법이 가우시안 잡음이나 H.264/AVC를 이용한 동영상 압축에 대해서도 강인함을 갖고 있음을 알 수 있다.

Keywords

Ⅰ. 서 론

사람의 두 눈은 정면을 바라보며 수평방향으로 차이를 두고 위치하고 있다[1]. 이 때 두 눈 사이에 떨어진 거리를 양안거리 (inter ocular distance; IOD)라 하며, 양안거리는 사람의 인종, 성별, 나이 등에 따라 달라지지만 실험통계에 의하면 백인 성인 남성 기준 평균으로 약 65mm 라고 한다 [2,3]. 사람의 한 눈을 통해 바라볼 수 있는 시야 범위는 약 115℃인데 이 가운데 두 눈이 동시에 볼 수 있는 양안 시야 범위 (binocular field)는 약 114℃로, 이 양안 시야 범위 영역에서는 두 눈의 영상 정보가 서로 중첩되지만, 다른 쪽 눈에서 볼 수 없고 한 쪽 눈에만 보이는 영역 (monocular sector)이 약 37℃ 존재한다 [4]. 따라서 왼쪽과 오른쪽 눈은 조금 다른 영상 정보를 받아들이게 된다[4]. 이 두 영상은 시신경을 통해 뇌로 전달되고, 융합과정을 통해 하나의 사이클로피언 영상 (cyclopean image; 고대 그리스의 작가호머의 소설 ‘Odyssey’에 등장하는 외눈박이 거인 Cyclops에서 유래되었으며, 가운데 위치한 한 눈으로 본 것처럼 뇌에서 인지되는 영상) 정보와 그에 관한 거리 정보를 인지하게 된다[1,4]. 이러한 사람의 시각 시스템 특징을 양안시차 (binocular disparity)에 의한 입체감 인지라고 부른다[5,6]. 하지만 2D 영상으로 제작된 영상 콘텐츠를 볼 경우에는 이런 양안시차에 의한 입체감을 느끼지 못하고, 단안에 의한 입체감 (물체의 크기, 진출 색과 후퇴 색, 선 원근법, 공기투시, 중첩 등)만 얻을 수 있다[7,8]. 이러한 한계를 갖고 있는 2D 영상을 보완하여 양안시차의 원리를 이용하여 왼쪽과 오른쪽 눈에 시차를 갖는 다른 두 영상을 각각 보여줌으로써 입체감을 느낄 수 있도록 만들어 진 것이 바로 스테레오스코픽 3D 영상이다[1]. 하지만 실제 스테레오스코픽 3D영상의 제작과 시청에서 발생하게 되는 여러 가지 기술적인 문제로 인하여 널리 대중화되지는 못하다가 디지털 기술과 디스플레이 기술의 급속한 발전에 따라 이러한 문제들이 보완되면서 오늘날에는 많은 스테레오스코픽 3D 영상의 3D 영화와 3DTV 방송 콘텐츠가 제작되고 있다[8,9].

그럼에도 불구하고 아직도 스테레오스코픽 3D 영상 기술에서 해결해야 할 문제가 적지 않은데, 그 중 하나가 바로 스테레오스코픽 3D 동영상에서의 프레임 동기화 문제이다[5,8]. 왼쪽과 오른쪽 눈에 각각 보여줄 두 영상이 같은 시간대에 얻어진 영상이 아닐 경우, 두 영상은 뇌에서 하나로 융합되기 어렵고, 잔상에 의한 고스트 효과 (ghost effect)가 발생하여 스테레오스코픽 3D 콘텐츠 시청에 많은 어려움을 준다[8]. 실험 결과에 따르면 사람들은 두 동영상 간에 1/120초의 지연시간, 민감한 사람들의 경우는 그 보다 더 미세한 지연 시간이 발생하더라도 영상에서 그 차이를 인지할 수 있다고 한다[10]. 실제로 스테레오 카메라를 통한 영상의 획득과 저장 과정에서의 속도 차이에 따른 오류, 스테레오스코픽 3D 동영상의 편집 및 부·복호화, 전송 과정상에서의 오류 등 다양한 원인에 의해서 두 영상 간의 프레임 차이가 발생할 수 있다. 이를 해결하기 위하여 스테레오 카메라 시스템에 동기신호 발생장치 (synchronization signal generator)를 부착하여 두 카메라에 동시에 동기 신호를 보내 동기를 맞추는 기술 (generation locking; gen-lock)을 적용하거나, 영상 안에 타임 코드 (time code)를 삽입하기도 하고, 편집과정에서 두 영상에 녹음된 소리를 분석하여 프레임 동기화를 시도하고 있지만[9], 이런 방법들은 프레임 동기화 문제를 해결하기 위해서 별도의 하드웨어로부터 도움을 얻어야 하고, 스테레오스코픽 3D 동영상의 시청 단계에서의 프레임 동기화 문제는 여전히 해결하기 어렵다. 또한 스테레오스코픽 3D 동영상 방송 스트림 간의 동기화를 해결하기 위한 여러 연구가 있었지만[11, 12], 이 경우에도 방송 스트림에 포함된 원본 동영상 자체의 동기가 맞지 않을 경우에는 적용하기 어려운 한계를 갖고 있다.

본 논문은 이러한 스테레오스코픽 3D 동영상에서의 프레임 동기화 문제에 관하여 별도의 하드웨어 도움 없이 모든 단계에서 적용 가능하도록 영상 자체의 특성만을 이용한 스테레오스코픽 3D 동영상의 동기화 방법을 제안하고자 한다. 이를 위해서 왼쪽과 오른쪽 영상에서 물체의 움직임에 따른 차이를 이용하여 두 영상 사이에서 동기화가 맞는 한 쌍의 영상 프레임을 찾는 방법을 채택하였다. 본 논문의 2장에서는 수직 시차 보정 방법, 전 프레임과의 차분 값들에 대한 수평 방향 투영 프로파일 (horizontal projection profile)[12] 계산 및 이를 통해 동기화를 위한 프레임 조합찾기 방법 등 제안 방법에 대해 설명하고, 3장에서는 이에 대한 실험과 그 결과에 대한 서술하고자 한다.

 

Ⅱ. 제안방법

1. 입력 영상의 수직시차 보정

스테레오스코픽 3D 영상을 얻을 수 있는 스테레오 카메라는 주시각의 조절 여부, 카메라나 렌즈의 배치에 따라서 평행축 카메라, 교차축 카메라 등으로 나눌 수 있다. 이 때, 교차축 카메라로 획득된 영상이나 수직 정렬이 맞지 않은 평행축 카메라에서는 두 영상 사이에 수직 시차가 발생하게 된다[7]. 따라서 본 논문에서는 왼쪽 영상과 오른쪽 영상에 대한 수평 방향 투영 프로파일에 대한 캡스트럼 (cepstrum)[14]을 구하여 수직 시차의 발생 여부를 판별하고, 수직 시차가 발생할 경우에는 이 영상들에 대해 움직임이 없는 배경 부분에서의 특징점 추출과 기본 행렬 (fundamental matrix)을 이용한 스테레오 조정 (rectification) 과정[15,16]을 통해 수직시차에 대한 보정을 하였다 [17]. 이때 스테레오 조정 과정에서의 오류는 고려하지 않기로 하였다[17]. 또한 두 영상 사이에 발생할 수 있는 색상이나 밝기의 차이, 렌즈의 왜곡으로 인한 차이 등은 없다고 가정하였다.

2. 시간적 차분 영상에 대한 수평방향 투영 프로파일 계산

평행축 카메라로 얻은 영상 혹은 스테레오 조정 과정을 통해 수직 시차를 보정한 스테레오스코픽 3D 영상의 왼쪽과 오른쪽 영상 사이에는 수직 시차 없이 수평 시차만 존재하게 된다[18]. 본 논문에서는 이를 이용하여 두 동영상에서 각각 물체의 움직임 차이를 알기 위해 전 프레임과의 시간적 차분 영상을 구하고, 이들에 대한 수평 방향 투영 프로파일을 각각 계산하여 왼쪽과 오른쪽 프레임에서의 수평 방향 투영 프로파일 값이 가장 유사할 때 두 프레임의 조합이 동일 시간대에 획득된 프레임 조합일 가능성이 높다고 판단하였다.

스테레오스코픽 3D 입력 영상의 왼쪽 영상을 L, 오른쪽영상을 R이라 할 때, 영상에서 물체의 움직임을 알 수 있는 전 프레임과의 시간적 차분 영상은 다음과 같이 구할 수 있다.

여기에서 ΔL, ΔR은 왼쪽과 오른쪽 영상에서의 시간적 차분 영상을, x와 y는 영상에서 화소의 수평 방향 및 수직 방향 위치를, 그리고 i는 동영상에서의 프레임 번호를 각각 뜻한다.

이렇게 얻은 두 영상의 차분 값에 대한 수평 방향 투영 프로파일은 다음과 같이 구할 수 있다.

여기에서 LVi와 RVi는 왼쪽 영상과 오른쪽 영상에서의 시간적 차분 영상에 대한 수평 방향 투영 프로파일이이고, h는 영상에서의 수평 방향으로의 화소 개수 (영상의 가로 길이)를 뜻한다.

3. 동기화된 프레임 조합 찾기

왼쪽 동영상과 오른쪽 동영상에서 동기화된 프레임 조합을 찾기 위하여 두 동영상에서 각 프레임에 대한 수평 방향 투영 프로파일의 유사도를 찾기 위하여 본 논문에서는 LVi와 RVi사이의 mean absolute difference (MAD)를사용하였다. LVi와 RVi사이의 MAD는 다음과 같이 계산할 수 있다.

여기에서 v는 영상에서의 수직 방향으로의 화소 개수 (영상의 세로 길이)를 나타낸다. 따라서 프레임 동기가 맞는 왼쪽 동영상과 오른쪽 동영상의 프레임 조합은 다음과 같이 찾을 수 있다.

여기에서 t는 앞서거나 지연된 프레임을 나타내며 식 (6)을 이용하여 동기화된 프레임 조합인 (Li, Ri+j)을 찾아 왼쪽 동영상과 오른쪽 동영상 사이의 프레임 동기를 맞출 수 있다.

 

III. 실 험

1. 실험환경

논문에서 제안한 스테레오스코픽 3D 동영상에서의 왼쪽과 오른쪽 영상 프레임 동기화 방법을 검증하기 위해 그림 1의 6가지 스테레오스코픽 3D 동영상 실험 콘텐츠 -Basket, Boxers, Hall, Lab, News report, Phone call (1920×1080)를 사용하여 실험을 실시하였다 [19]. 또한 비월주사방식에 대한 실험을 위해 6개의 비월주사방식의 스테레오스코픽 3D 동영상 실험 콘텐츠 – 100m, athletic, ra-ra-ra, f(x), After school, 5dolls를 사용하였다. 실험은 Intel i5 CPU, 4GB RAM을 갖춘 컴퓨터에서 MATLABⓇ소프트웨어를 통해서 실시하였다. 실험은 모두 4가지 - 제안 방법 검증을 위한 실험, 비월주사방식 (interlaced) 동영상에 대한 실험, 가우시안 잡음에 대한 강인성에 대한 실험, 그리고 동영상 압축에 대한 강인성에 대한 실험을 실시하였고, 동영상 압축은 H.264/AVC 참조 소프트웨어인 JM 18.4를 사용하였다.

그림 1.스테레오스코픽 3D 실험 동영상 : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call Fig. 1. Test stereoscopic 3D video contents : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call

그림 2.비월주사방식의 스테레오스코픽 3D 실험 동영상 : (a) 100m; (b) Athletic; (c) ra-ra-ra; (d) f(x); (e) After school; (f) 5dolls Fig. 2. Test interlaced stereoscopic 3D video contents : ((a) 100m; (b) Athletic; (c) ra-ra-ra; (d) f(x); (e) After school; (f) 5dolls

2. 제안방법 검증 실험

제안한 방법을 검증하기 위해, 먼저 실험 동영상들의 왼쪽 영상과 오른쪽 영상 프레임을 직접 눈으로 확인하여 프레임에 대한 동기를 수동으로 맞추고, 그에 따라 왼쪽 동영상과 오른쪽 동영상의 프레임 번호를 정하였다. 그 다음에 왼쪽 동영상의 기준 프레임과 프레임 동기화가 맞는 오른쪽 프레임을 찾는 방법을 사용하였다. 이때 스테레오스코픽 3D 동영상의 처리 과정에서 발생하는 실제 프레임 오차의 크기가 그리 크지 않고[9], 사람이 연속된 정지 영상들을 동영상으로 인지할 수 있는 최대 시간 (1/16초)과 우리나라 디지털 HDTV 방송규격 (1920×1080i@60Hz)에서의 화면 재생률[20] 관계를 참고하여 오른쪽 동영상의 최대 앞선 프레임과 지연 프레임의 범위를 각각 4 프레임으로 설정하였다. 그림 3은 6개의 실험 스테레오스코픽 3D 동영상에 대해서 제안한 방법으로 실험을 수행한 결과 그래프이다. 그래프에서 보여주듯이 6개의 실험 동영상 콘텐츠 모두에서 왼쪽 영상에 대한 오른쪽 영상 프레임 조합 중, 오른쪽 영상의 지연 프레임 t=0일 때의 프레임 조합에서 MAD 값이 최소가 됨을 알 수 있다. 표 1은 제안 방법의 복잡성을 알아보기 위하여 측정된 계산 시간을 보여주고 있다. 표에서와 보듯이 스테레오 조정 과정에서 계산의 복잡성으로 인하여 많은 계산 시간이 소요됨을 알 수 있다.

그림 3.제안 방법에 따른 MAD 결과 그래프 : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call Fig. 3. MAD graphs of proposed method : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call

표 1.Table 1. The processing time of proposed method

3. 비월주사방식에서의 검증

동영상을 화면에 보여주는 방식에는 크게 한 번에 화면 전체를 주사하여 보여주는 순차주사방식 (progressive)과 화면을 홀수와 짝수 필드 (가로줄)로 나누어 각 필드를 번갈아 주사하는 비월주사방식 (interlaced) 방식이 있다[21]. 보통 비월주사방식의 경우, 화면의 깜박임을 줄이고 보다 자연스런 움직임을 보여주기 위하여 순차주사방식의 두 배의 화면재생률을 사용하게 되며, 우리나라 디지털 방송도 이러한 비월주사방식을 사용하고 있다 [20]. 본 논문에서는 제안하는 방법이 비월주사방식의 동영상에도 적용가능한지 알아보기 위한 실험을 실시하였다. 이때 오른쪽 동영상의 최대 앞선 필드와 지연 필드의 범위는 각각 순차주사방식을 이용한 실험의 두 배인 8 필드로 설정하였다. 그림 4는 비월주사방식에서의 실험 결과 그래프를 보여주고 있는데, 비월주사방식의 동영상에서도 제안 방법을 통해 프레임 동기화가 가능함을 알 수 있다. 또한 그래프 결과에서 홀수 필드와 짝수 필드에서의 MAD 값이 크게 달라지는 점을 통해 제안 방법이 두 동영상 사이의 수직 시차에 영향을 받을 수 있다는 점을 추정할 수 있다.

그림 4.비월주사방식에서의 제안 방법에 따른 MAD 결과 그래프 : (a) 100m; (b) Athletic; (c) ra-ra-ra; (d) f(x); (e) After school; (f) 5dolls Fig. 4. MAD graphs of proposed method in interlaced scan mode: (a) 100m; (b) Athletic; (c) ra-ra-ra; (d) f(x); (e) After school; (f) 5dolls

4. 잡음과 동영상 압축에 대한 강인성 실험

본 논문에서는 제안한 방법의 잡음과 영상 압축 환경에서의 강인성을 알아보기 위한 실험을 실시하였다. 잡음에 대한 강인성 실험을 위해 아날로그 텔레비전 방송에서의 부가적인 백색 가우시안 잡음 (additive white Gaussian noise; AWGN) 환경 모델[22]에서 가우시안 잡음이 σ = 16인 것을 감안해서, 이 보다 더 잡음이 많이 섞인 환경인 가우시안 잡음 σ = 20을 원본 동영상에 부가하여 실험을 실시하였다 (잡음부가 동영상들의 평균 PSNR = 24.29 dB). 또한 영상 압축 환경에서의 강인성을 알아보기 위한 실험을 위해서 고선명 텔레비전 (high definition television; HDTV)에서 일반적으로 좋은 화질로 느껴질 수 있다고 알려진 PSNR = 35 dB의 영상 화질[23]과 비슷한 화질로 영상 압축이 가능한 H.264/AVC 동영상 압축방법, QP= 32를 사용하여 영상 압축을 실시하였다 (압축된 동영상들의 평균 PSNR = 35.12 dB). 그림 5는 잡음에 대한 강인성, 그림 6은 동영상 압축 환경에서의 강인성에 대한 실험 결과 그래프로, 그래프에서 보듯이 6개 실험 콘텐츠 모두 가우시안 잡음과 동영상 압축 환경에서도 올바른 동기화 프레임 조합에서 가장 낮은 MAD 값을 나타내어 제안 방법을 통해 스테레오스 코픽 3D 동기화가 가능함을 알 수 있다.

그림 5.제안 방법의 가우시안 잡음 (σ = 20)에 대한 강인성 실험 MAD 결과 그래프 ( 파란색 실선 - 가우시안 잡음 첨가 영상, 빨간색 점선 - 원본 영상) : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call Fig. 5. MAD graphs of robustness of proposed method against Gaussian noise (σ = 20) (blue line - Gaussian noise added video, red dotted line - original video) : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call

그림 6.제안 방법의 동영상 압축 (H.264/AVC, QP=32)에 대한 강인성 실험 MAD 결과 그래프 (녹색 실선 - 압축 영상, 빨간색 점선 - 원본 영상) : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call Fig. 6. MAD graphs of robustness of proposed method against video compression (H.264/AVC, QP=32) (green line - compressed video, red dotted line - original video) : (a) Basket; (b) Boxers; (c) Hall; (d) Lab; (e) News report; (f) Phone call

5. 실험 결과와 토의

 

IV. 결론

본 논문에서는 스테레오스코픽 3D 동영상에서의 왼쪽 동영상과 오른쪽 동영상에 대한 프레임 동기를 맞추기 위해서 두 영상에서 시간의 변화에 따라 발생하는 프레임 사이의 차이를 통하여 물체의 움직임을 추정하여, 그 결과를 통한 프레임 동기화 방법을 제안하였다. 제안 방법은 왼쪽 동영상과 오른쪽 동영상의 프레임에서 스테레오 조정 과정을 통해 수직 시차를 보정한 다음, 현재 프레임 영상과 전 프레임 영상에서 시간의 변화에 따라 발생하는 차 영상을 얻고, 이 차영상에 대한 수평 방향 투영 프로파일을 구해서 이들에 대한 절대 오차 평균을 계산하여 그 값이 최소가 되는 프레임 조합을 찾아 이들이 프레임 동기가 맞는 프레임 조합이라고 판단하여 프레임 동기를 맞추는 방법을 사용하였다. 실험 결과를 통해 제안 방법으로 스테레오스코픽 3D 동영상의 프레임 동기화가 가능하며, 이를 순차주월방식의 뿐만 아니라 비월주사방식의 동영상에도 적용 할 수 있음을 알 수 있다. 또한 제안 방법이 가우시안 잡음 (σ = 20) 환경과 동영상 압축 환경 (H.264/AVC, QP= 32)에서도 사용이 가능한 강인성을 갖추고 있음도 확인 할 수 있다.

References

  1. M. J. Tovee, An Introduction to the Visual System, Cambridge University Press, UK, 2008.
  2. M. J. Hirsch and F. W. Weymouth, "Distance discrimination I Theoretic consideration," Archives of Ophthalmology, Vol.39, pp.210-223, 1948. https://doi.org/10.1001/archopht.1948.00900020215008
  3. N. Dodgson, "Validation and extrema of human interpupillary distance," Proc. SPIE Stereoscopic Displays and Virtual Reality Systems XI, Vol.5291, pp. 19-22, San Jose, USA, Jan 2004.
  4. I. P. Howard and B. J. Rogers, Binocular vision and stereopsis, Oxford university Press, USA, 1995.
  5. H. Harashima, 3D Image and human science, Ohmsa, Japan, 2010.
  6. B. Mendiburu et al., 3D TV and 3D Cinema : Tools and Processes for Creative Stereoscopy, Focal Press, USA, 2011.
  7. J. Kim et al., How three dimensional technology changes future, ETNEWS 2010.
  8. B. Kim, The theory of 3D movie, MJ media, 2011.
  9. Y. Chol et al., Stereoscopic 3D production workbook, KOCCA, 2010.
  10. Y. Cho and J. Kim, The basic visual communications, Chang-ji co,, 1999.
  11. H. Lee, "Stereo-video Synchronization for 3D Video Transmission," The Journal of KOREA Information and Communications Society, Vol. 34.4, pp.349-359, 2009.
  12. J. Kim, S. Lee and J. Kim, "Synchronization Issues for Stereoscopic High-Definition Video Delivery over IP Networks.", HCI, pp. 1373-1378, 2006.
  13. A. Zramdini et al., "Optical font recognition from projection profile," Electronic Publishing, Vol. 6(3), pp. 249-260, Sep 1993.
  14. P. W. Smith, "An improved power cepstrum based stereo correspondence method for textured scene," Pattern Analysis and Machine Intelligence, IEEE Transactions on, Vol. 18, Issue 3, pp. 338-348, Mar 1996. https://doi.org/10.1109/34.485563
  15. R. Hartley et al., Multiple view Geometry in Computer Vision, Cambridge Univ. Press, UK, 2nd, 2003.
  16. J. Mallon, "Projective rectification from the fundamental matrix," Image and Vision Computing, Vol.23, Issue 7, pp.643-650, Jul 2005. https://doi.org/10.1016/j.imavis.2005.03.002
  17. Y. Park and N. Hur, "A method of Pseudo-stereoscopic image detection and correction," KSBE conference in summmer, pp. 245-248, 2010.
  18. A. J. Woods et al., "Image distortions in Stereoscopic video system," In Stereoscopic Displays and Application IV, Vol. 1915, pp. 36-48, USA, 2005.
  19. M. Urvoy et al., "NAMA3DS1-COSPAD1 : Subjective video quality assessment database on coding conditions introducing freely available high quality 3D stereoscopic sequences", Fourth International Workshop on Quality of Multimedia Experience, Yarra Valley, pp. 109-114, 2012.
  20. KBS technical research institute, The study of broadcasting technology - the trends of DTV transmission, 2007.
  21. J. Kim et al., Introduction of Visual Communication, Hongrung Publishing Company, 2010.
  22. S. Kim and K. Lim, "Training-based noise reduction method considering noise correlation for visual quality improvement of recorded analog video", Journal of the IEEK, vol. 47, no. 6, pp. 28-38, 2010.
  23. M. A. Isnardi, "Historical overview of video compression in consumerelectronic devices", Proc. ICCE, pp. 1-2, 2007.