• Title/Summary/Keyword: Versatile Video Coding (VVC)

Search Result 76, Processing Time 0.019 seconds

Considering Encoding Information for CNN based In-loop Filter in Inter Video Coding (화면 간 예측에서 인코딩 정보를 고려한 딥러닝 기반 인루프 필터)

  • Kim, Yang-Woo;Lee, Yung-Lyul
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.143-144
    • /
    • 2020
  • VVC (Versatile Video Coding)는 HEVC이후 차세대 표준 비디오 코딩으로 JVET(Joint Video Exploration)에 의해 2018년 표준화를 시작하였다. VVC에는 복원픽쳐의 변환-양자화에러에 의해 발생한 블로어, 블로킹, 링잉 아티팩트를 감소시키기 위하여 deblocking filter (DF), sample adaptive offset (SAO), adaptive loop filter(ALF)와 같은 모듈을 사용한다. 한편 CNN (Convolutional Neural Network)은 최근 이미지와 비디오 복원에 높은 성능을 보이고 있다. VVC에서 픽쳐는 CTU (Coding Tree Unit)으로 분할되고 각 CTU는 다시 CU (Coding Unit)으로 분할된다. 그리고 인코딩을 위한 중요한 정보들이 Picture, CTU, CU단위로 디코더에 전송된다. 이 논문에서는 화면 간 예측으로 인코딩 된 픽처에서 블록과 픽처정보를 이용한 딥러닝 기반의 인루프 필터 모델을 제안한다. 제안하는 모델은 화면 간 예측에서 QP, 4×4 블록단위의 모션벡터, 참조블록과의 시간적거리, CU의 깊이를 모델에 추가적인 정보로 이용한다.

  • PDF

Simplified MPM derivation for Versatile Video Coding (VVC 표준의 MPM 유도 단순화 방법)

  • Choe, Jaeryun;Gwon, Daehyeok;Han, Heeji;Lee, Hahyun;Kang, Jungwon;Choi, Haechul
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.17-19
    • /
    • 2019
  • ISO/IEC JTC1 WG11 Moving Picture Expers Group 과 ITU-T SC16 은 Joint Video Experts Team 을 구성하여 차세대 비디오 부호화 표준으로서 Versatile Video Coding(VVC)를 표준화 중이다. VVC 는 현재 블록의 화면내 예측 모드일 가능성이 높은 모드의 집합인 Most Probable Mode(MPM) 리스트를 유도하고, MPM 을 이용하여 효율적으로 화면내 예측 모드를 부호화한다. VVC 는 주변 블록의 화면내 예측 모드에 따라 7가지 종류의 MPM 리스트 유도 방식을 가지고 있으나 이 중 두 가지는 동일한 MPM 들로 유도되는 중복성이 있다. 따라서 본 논문은 이 중복성 문제를 해결하기 위한 MPM 유도 방법을 제안한다. 제안 방법은 MPM 유도조건을 수정하여 중복적인 유도 방식이 제거된 6 가지 MPM 리스트 유도 방식을 갖는다. 실험을 통해 제안방법이 부호화 효율에 전혀 영향을 주기 않고 MPM 유도 과정을 단순화시켰음을 보인다.

  • PDF

A Method of Merge Candidate List Construction using an Alternative Merge Candidate (대체 병합 후보를 이용한 병합 후보 리스트 구성 기법)

  • Park, Do-Hyeon;Yoon, Yong-Uk;Do, Ji-Hoon;Kim, Jae-Gon
    • Journal of Broadcast Engineering
    • /
    • v.24 no.1
    • /
    • pp.41-47
    • /
    • 2019
  • Recently, enhanced methods on the inter merging have been being investigated in Versatile Video Coding (VVC) standardization which will be a next generation video coding standard with capability beyond the High Efficiency Video Coding (HEVC). If there is not enough motion information available in the neighboring blocks in the merge mode, zero motion candidate is inserted into the merge candidate list, which could make the coding efficiency decreased. In this paper, we propose an efficient method of constructing the merge mode candidate list to reduce the case that the zero motion is used as a candidate by generating an alternative merge candidate. Experimental results show that the proposed method gives the average BD-rate gain of 0.2% with the decoding time increase of 3% in the comparison with VTM 1.0.

Fast Decision Method of Geometric Partitioning Mode and Block Partitioning Mode using Hough Transform in VVC (허프 변환을 이용한 VVC의 기하학 분할 모드 및 블록 분할 고속 결정 방법)

  • Lee, Minhun;Park, Juntaek;Bang, Gun;Lim, Woong;Sim, Donggyu;Oh, Seoung-Jun
    • Journal of Broadcast Engineering
    • /
    • v.25 no.5
    • /
    • pp.698-708
    • /
    • 2020
  • VVC (Versatile Video Coding), which has been developing as a next generation video coding standard. Compared to HEVC (High Efficiency Video Coding), VVC is improved by about 34% in RA (Random Access) configuration and about 30% in LDB (Low-Delay B) configuration by adopting various techniques such as recursive block partitioning structure and GPM (Geometric Partitioning Mode). But the encoding complexity is increased by about 10x and 7x, respectively. In this paper, we propose a fast decision method of GPM mode and block partitioning using directionality of block to reduce encoding complexity of VVC. The proposed method is to apply the Hough transform to the current block to identify the directionality of the block, thereby determining the GPM mode and the specific block partitioning method to be skipped in the rate-distortion cost search process. As a result, compared to VTM8.0, the proposed method reduces about 31.01% and 29.84% encoding complexity for RA and LDB configuration with 2.48% and 2.69% BD-rate loss, respectively.

An Efficient Weight Signaling Method for BCW in VVC (VVC의 화면간 가중 양예측(BCW)을 위한 효율적인 가중치 시그널링 기법)

  • Park, Dohyeon;Yoon, Yong-Uk;Lee, Jinho;Kang, Jungwon;Kim, Jae-Gon
    • Journal of Broadcast Engineering
    • /
    • v.25 no.3
    • /
    • pp.346-352
    • /
    • 2020
  • Versatile Video Coding (VVC), a next-generation video coding standard that is in the final stage of standardization, has adopted various techniques to achieve more than twice the compression performance of HEVC (High-Efficiency Video Coding). VVC adopted Bi-prediction with CU-level Weight (BCW), which generates the final prediction signal with the weighted combination of bi-predictions with various weights, to enhance the performance of the bi-predictive inter prediction. The syntax element of the BCW index is adaptively coded according to the value of NoBackwardPredFlag which indicates if there is no future picture in the display order among the reference pictures. Such syntax structure for signaling the BCW index could violate the flexibility of video codec and cause the dependency issue at the stage of bitstream parsing. To address these issues, this paper proposes an efficient BCW weight signaling method which enables all weights and parsing without any condition check. The performance of the proposed method was evaluated with various weight searching methods in the encoder. The experimental results show that the proposed method gives negligible BD-rate losses and minor gains for 3 weights searching and 5 weights searching, respectively, while resolving the issues.

Implementing VVC Tile Extractor for 360-degree Video Streaming Using Motion-Constrained Tile Set

  • Jeong, Jong-Beom;Lee, Soonbin;Kim, Inae;Lee, Sangsoon;Ryu, Eun-Seok
    • Journal of Broadcast Engineering
    • /
    • v.25 no.7
    • /
    • pp.1073-1080
    • /
    • 2020
  • 360-degree video streaming technologies have been widely developed to provide immersive virtual reality (VR) experiences. However, high computational power and bandwidth are required to transmit and render high-quality 360-degree video through a head-mounted display (HMD). One way to overcome this problem is by transmitting high-quality viewport areas. This paper therefore proposes a motion-constrained tile set (MCTS)-based tile extractor for versatile video coding (VVC). The proposed extractor extracts high-quality viewport tiles, which are simulcasted with low-quality whole video to respond to unexpected movements by the user. The experimental results demonstrate a savings of 24.81% in the bjøntegaard delta rate (BD-rate) saving for the luma peak signal-to-noise ratio (PSNR) compared to the rate obtained using a VVC anchor without tiled streaming.

Separate Scale for Position Dependent Intra Prediction Combination of VVC

  • Yoon, Yong-Uk;Park, Dohyeon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.20-21
    • /
    • 2019
  • The Joint Video Experts Team (JVET) has been working on the development of next generation of video coding standard called Versatile Video Coding (VVC). Position Dependent Intra Prediction Combination (PDPC) which is one of the major tools for intra prediction refines the prediction through a linear combination between the reconstructed samples and the predicted samples according to the sample position. In VVC WD6, nScale which is shift value that adjusts the weight is determined by the width and height of the current block. It may cause that PDPC is applied to regions that do not fit the characteristics of the current intra prediction mode. In this paper, we define nScale for each width and height so that the weight can be applied independently to the left and top reference samples, respectively. Experimental results show that, compared to VTM 6.0, the proposed method gives -0.01%, -0.04% and 0.01% Bjotegaard-Delta (BD)-rate performance, for Y, Cb, and Cr components, respectively, in All-Intra (AI) configuration.

  • PDF

VVC의 In-Loop Filter 기술

  • Park, Do-Hyeon;Yun, Yong-Uk;Kim, Jae-Gon
    • Broadcasting and Media Magazine
    • /
    • v.24 no.4
    • /
    • pp.87-101
    • /
    • 2019
  • JVET(Joint Video Experts Team)에서 새로운 비디오 압축 표준으로 진행 중인 VVC(Versatile Video Coding)에서는 HEVC(High Efficiency Video Coding)의 기술을 근간으로 부호화 효율을 높일 수 있는 다양한 새로운 기술들을 채택하고 있다. 인루프 필터(In-Loop Filter)는 복원영상의 화질을 향상시키기 위한 기술로 주관적 화질 개선뿐만 아니라 부호화 효율을 향상시키는 기술로 기존 HEVC의 확장 기술 및 새로운 인루프 필터 기술을 채택하고 있다. 본 고에서는 VVC의 CD에 채택되어 있는 인루프 필터 기술들을 소개한다. 인루프 필터 기술은 HEVC에 채택되어 있는 디블록킹 필터(Deblocking Filter: DF)와 SAO(Sample Adaptive Offset), 새로이 추가된 ALF(Adaptive Loop Filter)의 3가지의 필터와 LMCS(Luma Mapping with Chroma Scaling) 기술을 포함하고 있다. 이들 인루프 필터 기술은 주관적 화질 개선과 부호화 효율을 크게 개선하고 있으며, 2020년 7월 FDIS(Final Draft International Standard) 완료를 앞두고 인루프 필터링의 다양화로 인한 성능과 복잡도를 고려한 간소화 및 병렬처리 등의 고속화에 대한 표준화가 지속적으로 이루어질 전망이다.

Simplification of BCW in Versatile Video Coding (VVC)

  • Park, Dohyeon;Kim, Jae-Gon;Lee, Jinho;Kang, Jungwon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.22-23
    • /
    • 2019
  • The emerging Versatile Video Coding (VVC) standard introduces Bi-prediction with CU-level Weights (BCW) to enhance the bi-predictive prediction. The syntax element of BCW index is adaptively coded according to the value of NoBackwardPredFlag which indicates if there is no future picture in the display order among the reference pictures, and it can violate the flexibility of codec and cause the dependency issue. This paper proposes BCW clean-up design that allows all weights can be parsed without any condition. The experimental results show negligible BD-rate losses while resolving the issues.

  • PDF

Performance Analysis of VVC In-Loop Filters for Immersive Video Coding (몰입형 입체영상 부호화를 위한 VVC 인루프 필터 성능 분석)

  • Yongho Choi;Gun Bang;Jinho Lee;Jin Young Lee
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.151-153
    • /
    • 2022
  • 최근 Moving Picture Experts Group(MPEG)에서는 2차원 비디오 압축 표준인 Versatile Video Coding(VVC)에 이어서 다양한 영상 포맷들에 대한 압축 방식을 표준화하고 있다. 특히, 가상현실, 증강현실, 혼합현실 등의 지원을 위한 Six Degrees of Freedom(6DoF) 입체영상 콘텐츠들이 최근 다양한 분야들에서 활용되고 있는데, 6DoF 입체영상은 일반적으로 복수 시점의 고해상도 칼라영상과 깊이영상으로 구성된다. 이러한 고해상도의 6DoF 몰입형 입체영상을 제한된 네트워크 환경에서 완벽한 서비스를 목표로 MPEG에서는 몰입형 입체영상 압축 기술인 MPEG Immersive Video(MIV) 표준화를 활발하게 진행 중에 있다. MIV에서는 기본 뷰(Basic View)로 이루어진 영상과 추가 뷰(Addtional View)에서 중복성 높은 픽셀들이 제거된 아틀라스 패치로 이루어진 영상을 각각 VVC로 압축한다. 하지만 아틀라스 패치로 이루어진 영상의 경우에는 일반적인 2차원 칼라영상과 다른 특성을 가지기 때문에, VVC 인루프 필터 기술이 비효율적일 수 있다. 따라서, 본 논문에서는 MIV 표준에서의 VVC 인루프 필터들의 성능을 분석한다.

  • PDF