DOI QR코드

DOI QR Code

사용자 시점 기반 360 영상을 위한 렌더러 구현

Implementing Renderer for Viewport Dependent 360 Video

  • 장동민 (가천대학교 컴퓨터공학과) ;
  • 손장우 (가천대학교 컴퓨터공학과) ;
  • 정종범 (가천대학교 컴퓨터공학과) ;
  • 류은석 (가천대학교 컴퓨터공학과)
  • Jang, Dongmin (Department of Computer Engineering, Gachon University) ;
  • Son, Jang-Woo (Department of Computer Engineering, Gachon University) ;
  • Jeong, JongBeom (Department of Computer Engineering, Gachon University) ;
  • Ryu, Eun-Seok (Department of Computer Engineering, Gachon University)
  • 투고 : 2018.09.04
  • 심사 : 2018.11.05
  • 발행 : 2018.11.30

초록

본 논문에서는 실시간 고화질 360 영상 전송을 위해 사용자 시점에 기반한 타일 분할 기법을 적용하고 화질 평가를 위해 360 영상을 가상현실 기기 화면에 표현하는 구현을 설명한다. 사용자 시점에 기반한 고화질 360 영상 전송을 위한 방안으로, 움직임 참조 문제를 해결하기 위한 MCTS (Motion Constrained Tile Sets) 기술과 미리 구성된 타일 정보들을 포함하는 EIS (Extraction Information Sets) SEI (Supplemental Enhancement Information), 타일 정보를 추출해내고 영상을 분할 및 추출해주는 추출기(extractor)를 구현한다. 또한 사용자 시점에 기반한 타일 추출 방법과 추출된 영상을 이용해 가상현실 기기 화면에 표현하는 방법에 대한 구현 내용을 설명한다. 따라서, 제안된 구현물을 기반으로 영상 전송을 수행하면, 사용자 시점 영역의 영상만 전송하여 불필요한 영상 전송을 하지않게 되어 화질 대비 낮은 대역폭의 향상된 영상을 표현할 수 있다.

In this paper, we implement viewport dependent tile partitioning for high quality 360 video transmission and rendering method to present a HMD (Head Mounted Display) screen for 360 video quality evaluation. As a method for high-quality video transmission based on a user's viewport, this paper introduces MCTS (Motion Constrained Tile Sets) technique for solving the motion reference problem and EIS (Extraction Information Sets) SEI including pre-configured tile information, and extractor that extracts tiles. In addition, it explains tile extraction method based on user's viewport and implementation contents of the method of expressing on an HMD. Therefore, if 360 video is transferred by the proposed implementation which only transfers video from the user viewport area, it is possible to express higher quality video with lower bandwidth while avoiding unnecessary image transmission.

키워드

BSGHC3_2018_v23n6_747_f0001.png 이미지

그림 1. 사용자 시점에 기반한 개념적인 타일 추출 구조 Fig. 1. The conceptual architecture of tile extracting system based on user viewport

BSGHC3_2018_v23n6_747_f0002.png 이미지

그림 2. MVP(Merciless Video Processing) 프로젝트 구조 Fig. 2. The conceptual architecture of merciless video processing project

BSGHC3_2018_v23n6_747_f0003.png 이미지

그림 3. TIP에서 동일한 위치로의 타일 참조로 인한 보간 영역 문제 Fig. 3. Interpolation area problem due to the tile reference to the same location in TIP

BSGHC3_2018_v23n6_747_f0004.png 이미지

그림 4. AMVP와 Merge 모드의 타일 간 수직 경계에서 후보 결정 문제 Fig. 4. Problems determining candidate on vertical boundaries between tiles in AMVP and Merge mode

BSGHC3_2018_v23n6_747_f0005.png 이미지

그림 5. EIS SEI Message의 구조 Fig. 5. Structure of EIS SEI Message

BSGHC3_2018_v23n6_747_f0006.png 이미지

그림 6. 원본 및 추출된 비트스트림의 정보 Fig. 6. Information of original and extracted bitstream

BSGHC3_2018_v23n6_747_f0007.png 이미지

그림 7. 추출기의 기능 흐름도 Fig. 7. Flow chart of the extractor

BSGHC3_2018_v23n6_747_f0008.png 이미지

그림 8. 사용자 시점에 해당하는 타일들을 추출하는 블록도 Fig. 8. Block diagram of extracting tiles corresponding to the user viewport

BSGHC3_2018_v23n6_747_f0009.png 이미지

그림 9. 사용자 시점의 가장자리 면과 타일 경계 부분 간 교차하는 점 Fig. 9. The intersection of the viewport edge plane and the tile edge line

BSGHC3_2018_v23n6_747_f0010.png 이미지

그림 10. 사용자 시점 기반 타일 결정의 예 Fig. 10. Example of tile decision based on viewport

BSGHC3_2018_v23n6_747_f0012.png 이미지

그림 11. 렌더러 개념도 Fig. 11. The conceptual architecture of renderer

BSGHC3_2018_v23n6_747_f0013.png 이미지

그림 12. 원본 비트스트림과 추출된 비트스트림 Fig. 12. Original bitstream and extracted bitstream

BSGHC3_2018_v23n6_747_f0014.png 이미지

그림 13. 렌더링 화면 (Trolley_8192×4096) Fig. 13. Rendered display (Trolley_8192×4096)

BSGHC3_2018_v23n6_747_f0015.png 이미지

그림 14. 360Lib를 이용한 360 영상 테스트 절차 Fig. 14. 360 video testing procedure using 360Lib

표 1. 테스트 시퀀스 정보 Table 1. Information of test sequences

BSGHC3_2018_v23n6_747_t0001.png 이미지

표 2. MCTS가 적용되거나 적용되지않은 영상의 End-to-End PSNR Table 2. End-to-End PSNR with MCTS applied bitstream and non-applied bitstream

BSGHC3_2018_v23n6_747_t0002.png 이미지

표 3. 사용자의 관심영역을 고려한 dynamic viewport의 yaw and pitch Table 3. Dynamic viewport’s yaw, pitch considering user’s region of interest

BSGHC3_2018_v23n6_747_t0003.png 이미지

표 4. 시나리오에 따른 평균적인 bit-rate 절약율과 프레임 당 타일 개수 Table 4. Average bit-rate savings and number of tiles per frame in scenarios

BSGHC3_2018_v23n6_747_t0004.png 이미지

표 5. MCTS가 적용된 비트스트림 및 적용되지 않은 비트스트림의 Dynamic Viewport PNSR Table 5. Dynamic Viewport PSNR with MCTS applied bitstream and non-applied bitstream

BSGHC3_2018_v23n6_747_t0005.png 이미지

참고문헌

  1. M. Champel, T. Stockhammer, T. Fautier, E. Thomas, and R. Koenen, "Quality Requirements for VR," 116th MPEG meeting of ISO/IEC JTC1/SC29/WG11, MPEG 116/m39532, 2016.
  2. R. Skupin, Y. Sanchez, K. Suehring, T. Schierl, E. Ryu, and J. Son, "Temporal MCTS Coding Constraints Implementation," 120th MPEG meeting of ISO/IEC JTC1/SC29/WG11, MPEG 120/m41626, 2017.
  3. J. Boyce, A. Ramasubramanian, R. Skupin, G. J. Sullivan, A. Tourapis, and Y. Wang, "HEVC Additional Supplemental Enhancement Information (Draft 4)," 29th JCT-VC meeting of ISO/IEC JTC1/SC29/ WG11, JCTVC-AC1005, 2017.
  4. Y. Ryu, and E. S. Ryu. "Video on Mobile CPU: UHD Video Parallel Decoding for Asymmetric Multicores," Proceedings of the 8th ACM International Conference on Multimedia System (MMSys 2017), Taipei, Taiwan, pp. 229-232, 2017.
  5. T. T. Le, D. N. Van, and E. S. Ryu. "Real-time 360-Degree Video Streaming over Millimeter Wave Communication," International Conference on Information Networking 2018 (ICOIN2018), Chiang Mai, Thailand, pp. 5-17, 2018.
  6. A. Zare, A. Aminlou, M. Hannuksela, and M. Gabbouj. "HEVC-compliant Tile-based Streaming of Panoramic Video for Virtual Reality Applications," In Proceedings of the 24th ACM Multimedia Conference, Amsterdam, Netherlands, pp. 601-605, 2016.
  7. R. Skupin, Y. Sanchez, D. Podborski, C. Hellge, and T. Schierl, "Viewport-dependent 360 degree video streaming based on the emerging Omnidirectional Media Format (OMAF) standard," Image Processing (ICIP), 2017 IEEE International Conference on. IEEE, Beijing, China, pp. 4592-4592, 2017.
  8. K. Brunnstrom, S. A. Beker, K. De Moor, A. Dooms, S. Egger, M.-N. Garcia, T. Hossfeld, S. Jumisko-Pyykko, C. Keimel, M.-C. Larabi et al. "Qualinet white paper on definitions of quality of experience," https://hal.archives-ouvertes.fr/hal-00977812 (accessed Sep. 03, 2018).
  9. F. Qian, L. Ji, B. Han, and V. Gopalakrishnan, "Optimizing 360 video delivery over cellular networks," Proceedings of the 5th Workshop on All Things Cellular: Operations, Applications and Challenges. ACM, New York, USA, pp. 1-6, 2016.
  10. High Efficiency Video Coding (HEVC), https://hevc.hhi.fraunhofer.de/ (accessed Sep. 03, 2018).
  11. T. Ikai, Y. Yasugi, and T. Aono, "AHG8: Dynamic viewport generation for $360^{\circ}$ video evaluation," 5th JVET Meeting of ITU-T SG 16 WP 3 and ISO/IEC JTC1/SC29/WG11, JVET-E0024, 2016.
  12. J. Son, D. Jang, and E. S. Ryu, "Implementing Motion-Constrained Tile and Viewport Extraction for VR Streaming," ACM Network and Operating System Support for Digital Audio and Video 2018 (NOSSDAV2018), Amsterdam, Netherlands, pp. 61-66, 2018.
  13. J. Son, D. Jang, J. Chung, E. S. Ryu, "Implementing 360 Video Tiled Streaming System," ACM Multimedia Systems 2018 (ACM MMSys 2018), Amsterdam, Netherlands, pp. 521-524, 2018.
  14. L. Bassbouss, S. Steglich, and M. Lasak, "High quality $360^{\circ}$ video rendering and streaming," NEM Summit proceedings, Porto, Portugal, 2016.
  15. Oculus rift, https://www.oculus.com/rift (accessed Sep. 03, 2018).
  16. P. Hanhart, J. Boyce, and K. Choi, "JVET common test conditions and evaluation procedures for $360^{\circ}$ video," 11th JVET Meeting of ITU-T SG 16 WP 3 and ISO/IEC JTC1/SC29/WG11, JVET-K1012-v1, 2018.
  17. Y. Ye, and J. Boyce, "Algorithm descriptions of projection format conversion and video quality metrics in 360Lib Version 7," 11th JVET Meeting of ITU-T SG 16 WP 3 and ISO/IEC JTC1/SC29/WG11, JVET-K1004, 2018.
  18. K. K. Sreedhar, A. Aminlou, and M. M. Hannuksela, "Viewport-adaptive encoding and streaming of 360-degree video for virtual reality applications," IEEE International Symposium Multimedia (ISM) 2016 on. IEEE, San Jose, USA, pp. 583-586, 2016.