• Title/Summary/Keyword: JVET

Search Result 41, Processing Time 0.023 seconds

Projection format and quality metrics of 360 video (360 VR 영상의 프로젝션 포맷 및 성능 평가 방식)

  • Park, Seong-Hwan;Kim, Kyu-Heon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.182-184
    • /
    • 2019
  • 최근 사용자에게 더욱 몰입감 있는 콘텐츠를 제공하기 위한 기술에 대한 관심이 증가하고 있으며 그 중 가장 대표적인 것이 360 VR 영상이라고 할 수 있다. 미디어 표준화 단체인 MPEG(Moving Picture Experts Group)에서는 MPEG-I(Immersive) 차세대 프로젝트 그룹을 이용하여 이러한 움직임에 대응하고 있다. MPEG-I는 2021년 말 6DoF VR 영상을 목표로 8개의 파트가 표준화를 진행중이다. 360 VR 영상의 경우 획득시 영상의 픽셀들이 3D 공간 상에 존재하게 되는데, 이를 처리 및 출력 하귀 위해서는 2D 영상으로 전환이 필요하며 이 때 사용되는 것이 Projection format이다. 현재 JVET(Joint Video Exploration Team)에서는 3D에서 2D로 전환이 이루어 질 때 손실을 최소화 하기 위한 Projection format들에 대한 연구가 이루어 지고 있다. 본 논문에서는 현재까지 제안된 다양한 Projection format들에 대하여 소개하고 이에 대한 성능 측정 방식에 대하여 소개한다.

  • PDF

Geometry Padding for Segmented Sphere Projection (SSP) in 360 Video (360 비디오의 SSP 를 위한 기하학적 패딩)

  • Myeong, Sang-Jin;Kim, Hyun-Ho;Yoon, Yong-Uk;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.11a
    • /
    • pp.143-144
    • /
    • 2018
  • 360 비디오는 VR 응용의 확산과 함께 몰입형 미디어로 주목 받고 있으며, JVET(Joint Video Experts Team)에서 post-HEVC 로 진행중인 VVC(Versatile Video Coding)에 360 비디오 부호화도 함께 고려하고 있다. 360 비디오 부호화를 위하여 변환된 2D 영상은 투영 면(face) 간의 불연속성과 비활성 영역이 존재할 수 있으며 이는 부호화 효율을 저하시키는 원인이 된다. 본 논문에서는 SSP(Segmented Projection)에서의 이러한 불연속성과 비활성 영역을 줄이는 효율적인 기하학적 패딩(padding) 기법을 제시한다. 실험결과 제안 기법은 복사에 의한 패딩을 사용하는 기존 SSP 대비 주관적 화질이 향상된 것을 확인 할 수 있었다.

  • PDF

Inactive Regions Padding Methods for Rotated Sphere Projection of 360 Video

  • Yoon, Yong-Uk;Kim, Hyun-Ho;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.200-201
    • /
    • 2018
  • In the workflow of 360 video coding of JVET (Joint Video Experts Team), firstly the 360 videos are projected onto the 2D plane with diverse projection formats, such as Equi-Rectangular Projection (ERP), Cubemap Projection (CMP), Rotated Sphere Projection (RSP), etc. The projection format of RSP has inactive regions in the converted 2D plane. The inactive regions may cause visual artifact as well as the reduction of the coding efficiency due to discontinuity at boundaries between active and inactive regions. In this paper, to overcome these problems, the inactive regions are padded by using two types of adjacent pixels. Then padded regions of RSP are blended with inactive regions padded by proposed method. The experimental results demonstrate that, in terms of end-to-end WS-PSNR-NN, the proposed method achieves 0.1% BD-rate reduction. In addition, the visual artifacts along the borders between discontinuous faces are noticeably reduced.

  • PDF

Analysis of Adaptive Multiple Transform in Chroma Channel (색차 채널을 위한 적응형 다중변환기술 성능분석)

  • Park, Jeeyoon;Jeon, Byeungwoo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.145-146
    • /
    • 2018
  • 최근 UHD 컨텐츠에 대한 스트리밍 서비스가 증가함에 따라 보다 높은 압축효율을 갖는 부호화 기술에 대한 필요성이 증가하고 있으며 이에 따라 차세대 비디오 코덱을 위한 국제표준화 노력이 JVET를 중심으로 진행되고 있다. 본 논문에서는 적응형 다중변환 기술을 휘도 채널에 적용하는 것뿐 만 아니라 통일한 방법으로 화면 내/간 블록 모두에서 색차채널에도 적용하도록 하여 그 효율 향상여부를 분석하였다. 실험결과 제안방법이 기존 방법 대비 BDBR 측면에서 Y(0.03%), U(-1.40%), V(-0.96%)의 결과를 얻을 수 있었다.

  • PDF

Block Shape Adaptive Candidate List Derivation for Inter Prediction in Versatile Video Coding (VVC) (VVC 의 블록모양 적응적 화면간 예측 후보 리스트 유도 기법)

  • Do, JiHoon;Park, Dohyeon;Kim, Jae-Gon;Jeong, Dae-Gwon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.257-259
    • /
    • 2018
  • 최근 JVET(Joint Video Experts Team)는 새로운 비디오 압축 표준을 VVC(Versatile Video Coding)으로 이름 짓고 2020 년 완료를 목표로 그 표준화를 시작하였다. HEVC 및 VVC 에서는 화면간 예측의 부호화 효율을 위하여 공간적/시간적 주변블록의 움직임 정보로부터 Merge/AMVP(Advanced Motion Vector Prediction)의 후보 리스트를 구성하고 최적의 움직임 정보를 활용한다. 본 논문에서는 Merge/AMVP 의 후보 리스트를 유도할 때, 현재블록의 모양을 고려하여 상관성이 높은 주변블록의 움직임 정보를 우선 순위로 유도하는 기법을 제안한다. 실험을 통하여 VTM(VVC TM) 대비 제안기법의 성능을 확인한다.

  • PDF

Multi-Layer Perceptron Based Ternary Tree Partitioning Decision Method for Versatile Video Coding (다목적 비디오 부/복호화를 위한 다층 퍼셉트론 기반 삼항 트리 분할 결정 방법)

  • Lee, Taesik;Jun, Dongsan
    • Journal of Korea Multimedia Society
    • /
    • v.25 no.6
    • /
    • pp.783-792
    • /
    • 2022
  • Versatile Video Coding (VVC) is the latest video coding standard, which had been developed by the Joint Video Experts Team (JVET) of ITU-T Video Coding Experts Group (VCEG) and ISO/IEC Moving Picture Experts Group (MPEG) in 2020. Although VVC can provide powerful coding performance, it requires tremendous computational complexity to determine the optimal block structures during the encoding process. In this paper, we propose a fast ternary tree decision method using two neural networks with 7 nodes as input vector based on the multi-layer perceptron structure, names STH-NN and STV-NN. As a training result of neural network, the STH-NN and STV-NN achieved accuracies of 85% and 91%, respectively. Experimental results show that the proposed method reduces the encoding complexity up to 25% with unnoticeable coding loss compared to the VVC test model (VTM).

Intra Coding Tools of Enhanced Compression beyond VVC Capability

  • Kim, Bumyoon;Jeon, Byeungwoo
    • Journal of Broadcast Engineering
    • /
    • v.27 no.7
    • /
    • pp.985-998
    • /
    • 2022
  • Even after the standardization of VVC completed in 2020, continuing efforts for developing even better video coding technology are still under way. In this context, the Joint Video Experts Group (JVET) is developing various video compression technologies under the name of enhanced compression beyond VVC capability which has reported BDBR gain of -6.75%, -14.05%, and -15.25% on its test model, ECM version 5.0, respectively in Y, Cb, and Cr channels by just having a few new or improved intra coding tools. The current activity has so far adopted 11 intra coding tools beyond VVC which can generate more sophisticated predictors, reduce signaling overhead, or combine various predictors. In this tutorial paper, we will review these techniques.

Fast Affine Motion Estimation Method for Versatile Video Coding (다목적 비디오 부호화를 위한 고속 어파인 움직임 예측 방법)

  • Jung, Seong-Won;Jun, Dong-San
    • Journal of the Korean Society of Industry Convergence
    • /
    • v.25 no.4_2
    • /
    • pp.707-714
    • /
    • 2022
  • Versatile Video Coding (VVC) is the most recent video coding standard, which had been developed by Joint Video Expert Team (JVET). It can improve significant coding performance compared to the previous standard, namely High Efficiency Video Coding (HEVC). Although VVC can achieve the powerful coding performance, it requires the tremendous computational complexity of VVC encoder. Especially, affine motion compensation (AMC) was adopted the block-based 4-parameter or 6-parameter affine prediction to overcome the limit of translational motion model while VVC require the cost of higher encoding complexity. In this paper, we proposed the early termination of AMC that determines whether the affine motion estimation for AMC is performed or not. Experimental results showed that the proposed method reduced the encoding complexity of affine motion estimation (AME) up to 16% compared to the VVC Test Model 17 (VTM17).

Neural Network-Based Intra Prediction Considering Multiple Transform Selection in Versatile Video Coding (VVC 의 다중 변환 선택을 고려한 신경망 기반 화면내 예측)

  • Dohyeon Park;Gihwa Moon;Sung-Chang Lim;Jae-Gon Kim
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.8-9
    • /
    • 2022
  • 최근 VVC(Versatile Video Coding) 표준 완료 이후 JVET(Joint Video Experts Team)에서는 NNVC(Neural Network-based Video Coding) EE(Exploration Experiment)를 통하여 화면내 예측을 포함한 신경망 기반의 부호화 기술들을 탐색하고 검증하고 있다. 본 논문에서는 VVC 에 채택되어 있는 다중 변환 선택(MTS: Multiple Transform Selection)에 따라서 적절한 예측 블록을 선택할 수 있는 TDIP(Transform-Dependent Intra Prediction) 모델을 제안한다. 실험결과 제안기법은 VVC 의 AI(All Intra) 부호화 환경에서 VTM(VVC Test Model) 대비 Y, U, V 에 각각 0.87%, 0.87%, 0.99%의 BD-rate 절감의 비디오 부호화 성능 향상을 보였다.

  • PDF

Analysis of Training Method for Matrix Weighted Intra Prediction (MIP) in VVC (VVC 행렬가중 화면내 예측(MIP) 학습기법 분석)

  • Park, Dohyeon;Kwon, Hyoungjin;Jeong, Seyoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.148-150
    • /
    • 2020
  • 최근 VVC(Versatile Video Coding) 표준 완료 이후 JVET(Joint Video Experts Team)은 인공신경망 기반의 비디오 부호화를 위한 AhG(Ad-hoc Group) 구성하고 인공지능을 이용한 비디오 압축 기술들을 검증하고 있으며, MPEG(Moving Picture Experts Group)에서는 DNNVC(Deep Neural Network based Video Coding) 활동을 통해 딥러닝 기반의 차세대 비디오 부호화 표준 기술을 탐색하고 있다. 본 논문은 VVC 에 채택된 신경망 기반의 기술인 MIP(Matrix Weighted Intra Prediction)를 참조하여, MIP 모델의 학습에서 손실함수가 예측 성능에 미치는 영향을 분석한다. 즉, 예측의 왜곡(MSE)만을 고려한 경우와 예측오차의 부호화 비용도 함께 반영한 손실함수를 비교한다. 실험을 위해 HEVC(High Efficiency Video Coding) 화면내 예측 대비 평균적인 PSNR 향상 정도를 나타내는 성능 지표(��PSNR)를 정의한다. 실험결과 예측오차의 부호화 특성을 반영하는 손실함수를 이용한 학습이 MSE 만 고려한 학습 대비 ��PSNR 기준 평균 0.4dB 향상됨을 보였다.

  • PDF