• 제목/요약/키워드: video reality

검색결과 386건 처리시간 0.021초

다목적시각언어를 이용한 가상현실 사용자 인터페이스 (VR User Interface using Multipurpose Visual Language System)

  • 김영종
    • 디지털산업정보학회논문지
    • /
    • 제12권2호
    • /
    • pp.31-39
    • /
    • 2016
  • In this paper planed Virtual Reality user interface that recently hot issue using MVLS(Multipurpose Visual Language System). Proposed system is planed for more with ease approach new type environment system. The point of this system is for more few the number of time of act to get want to result. That is easy build for Virtual Reality environment system that user so far, who did not experience. Also too, application to the environment through Multipurpose Visual Language System based, can be required to increase the case of user of existing applications, not only a simple application infrastructure Virtual Reality. This has the advantage of being able to under Virtual Reality condition the environment for the use of a wide range of applications such as view TV, video and other contents. By using the proposed system, the experience in virtual realities that have not felt during the general public to be able to easily and quickly, virtual reality or 3D Expected to can one step closer to the needs of general and industry.

소실점을 이용한 Depth-map 생성에 관한 연구 (A Study for Depth-map Generation using Vanishing Point)

  • 김종찬;반경진;김치용
    • 한국멀티미디어학회논문지
    • /
    • 제14권2호
    • /
    • pp.329-338
    • /
    • 2011
  • 증강현실에서 다양한 미디어의 결합으로 보다 향상된 현실감 있는 멀티미디어 데이터가 요구되고 있다. 기존의 미디어 정보에 텍스트 및 음성과 비디오 등 다양한 미디어를 결합한 멀티미디어 정보에 대한 첨단 기술이 미디어 산업 전반에 주도적인 위치를 점하고 있다. 특히 인터넷에서의 다양한 의사전달 수단 및 시각화에 대한 관심과 가상공간에서의 의사 표현을 위한 실시간 상호작용 시스템 구축 및 3차원 콘텐츠, 증강현실 기술에 대한 서비스 요구가 증가되고 있다. 이러한 서비스들은 기존 콘텐츠에서 입체감 형성을 위한 3차원 공간구조의 복원에 필요한 깊이 값 생성에 어려움이 있다. 그러므로 2차원 영상을 이용하여 효율적인 Depth-map 생성에 관한 연구가 필요하다. 본 논문에서는 2차원 영상을 이용하여 3차원 공간구조 복원에 필요한 Depth-map 생성기법의 단점을 보완하여, 기존 알고리즘에서 정의 되지 않은 영상 내 소실점 위치에 따른 갚아 방향의 정의를 통한 개선된 Depth-map 생성 기법을 제안하였다.

The Design and Implementation of Virtual Studio

  • Sul, Chang-Whan;Wohn, Kwang-Yoen
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1996년도 Proceedings International Workshop on New Video Media Technology
    • /
    • pp.83-87
    • /
    • 1996
  • A virtual reality system using video image is designed and implemented. A participant having 2{{{{ { 1} over { 2} }}}}DOF can interact with the computer-generated virtual object using her/his full body posture and gesture in the 3D virtual environment. The system extracts the necessary participant-related information by video-based sensing, and simulates the realistic interaction such as collision detection in the virtual environment. The resulting scene obtained by compositing video image of the participant and virtual environment is updated in near real time.

  • PDF

360 미디어를 위한 MPEG Omnidirectional Media Format (OMAF) 표준 기술 (MPEG Omnidirectional Media Format (OMAF) for 360 Media)

  • 오세진
    • 방송공학회논문지
    • /
    • 제22권5호
    • /
    • pp.600-607
    • /
    • 2017
  • VR (Virtual Reality)은 최근 스마트 폰 기반 HMD (Head Mounted Displays)에 대한 개발 및 관심이 급증 함에 따라 360 비디오에 대한 표준화에 대한 요구가 급증하고 있다. 본 논문에서는 MPEG 산하에서 진행되는 360 미디어를 지원하기 위한 미디어 포맷인 Omnidirectional Media Format 에서 다루는 핵심 표준 기술에 대하여 자세히 소개한다. 360 미디어를 위한 OMAF 아키텍처를 소개하고 OMAF 에서 다루는 360 비디오 처리 및 메타데이터에 대해 자세히 설명한다. 그리고 360 미디어를 파일 혹은 세그먼트 내에 저장하기 위한 미디어 포멧 및 MPEG DASH(Dynamic Adaptive Streaming over HTTP)기반 360 미디어에 대한 스트리밍 기법에 대해 자세히 언급한다.

16K 초고화질 360도 영상에서의 사용자 시점 기반 타일 스트리밍 성능 검증 (Performance Analysis of Viewport-dependent Tiled Streaming on 16K Ultra High-quality 360-degree Video)

  • 정종범;이순빈;김인애;류은석
    • 인터넷정보학회논문지
    • /
    • 제22권3호
    • /
    • pp.1-8
    • /
    • 2021
  • 가상 현실 공간에서 head-mounted display(HMD)를 통한 실감형 미디어를 제공하기 위해서는 초고화질 및 초고해상도의 전방위 360도 영상 전송이 필요하고, 이는 높은 대역폭 및 연산량을 요구한다. 이를 극복하기 위해 360도 영상에 대한 타일 기반 분할 기법을 사용하여 사용자 시점 기반 선택적 스트리밍 기법이 사용될 수 있다. 본 논문은 16K 초고화질 360도 영상 및 종래에 널리 쓰이는 4K 360도 영상에서의 사용자 시점 기반 타일 스트리밍 기법의 성능 평가를 소개한다. 16K 초고화질 360도 영상에 타일 스트리밍 기법을 적용하였을 때, 영상 전체 부호화 및 전송 방법 대비 42.47%의 bjotegaard delta rate(BD-rate) 절감을 확인하였고, 4K 360도 영상 타일 스트리밍 시 26.41%의 BD-rate 절감이 이루어지는 것을 확인하였다. 따라서, 타일 스트리밍이 초고해상도 영상에 더 효율적임을 확인하였다.

Offline Camera Movement Tracking from Video Sequences

  • Dewi, Primastuti;Choi, Yeon-Seok;Cha, Eui-Young
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.69-72
    • /
    • 2011
  • In this paper, we propose a method to track the movement of camera from the video sequences. This method is useful for video analysis and can be applied as pre-processing step in some application such as video stabilizer and marker-less augmented reality. First, we extract the features in each frame using corner point detection. The features in current frame are then compared with the features in the adjacent frames to calculate the optical flow which represents the relative movement of the camera. The optical flow is then analyzed to obtain camera movement parameter. The final step is camera movement estimation and correction to increase the accuracy. The method performance is verified by generating a 3D map of camera movement and embedding 3D object to the video. The demonstrated examples in this paper show that this method has a high accuracy and rarely produce any jitter.

  • PDF

Flowing Water Editing and Synthesis Based on a Dynamic Texture Model

  • Zhang, Qian;Lee, Ki-Jung;WhangBo, Taeg-Keun
    • 한국멀티미디어학회논문지
    • /
    • 제11권6호
    • /
    • pp.729-736
    • /
    • 2008
  • Using video synthesis to depict flowing water is useful in virtual reality, computer games, digital movies and scientific computing. This paper presents a novel algorithm for synthesizing dynamic water scenes through a sample video based on a dynamic texture model. In the paper, we treat the video sample as a 2-D texture image. In order to obtain textons, we analyze the video sample automatically based on dynamic texture model. Then, we utilize a linear dynamic system (LDS) to describe the characteristics of each texton. Using these textons, we synthesize a new video for dynamic flowing water which is prolonged and non-fuzzy in vision. Compared with other classical methods, our method was tested to demonstrate the effectiveness and efficiency with several video samples.

  • PDF

Representing Navigation Information on Real-time Video in Visual Car Navigation System

  • Joo, In-Hak;Lee, Seung-Yong;Cho, Seong-Ik
    • 대한원격탐사학회지
    • /
    • 제23권5호
    • /
    • pp.365-373
    • /
    • 2007
  • Car navigation system is a key application in geographic information system and telematics. A recent trend of car navigation system is using real video captured by camera equipped on the vehicle, because video has more representation power about real world than conventional map. In this paper, we suggest a visual car navigation system that visually represents route guidance. It can improve drivers' understanding about real world by capturing real-time video and displaying navigation information overlaid directly on the video. The system integrates real-time data acquisition, conventional route finding and guidance, computer vision, and augmented reality display. We also designed visual navigation controller, which controls other modules and dynamically determines visual representation methods of navigation information according to current location and driving circumstances. We briefly show implementation of the system.

이머시브미디어를 3DoF+ 비디오 부호화 표준 동향 (Standardization Trend of 3DoF+ Video for Immersive Media)

  • 이광순;정준영;신홍창;서정일
    • 전자통신동향분석
    • /
    • 제34권6호
    • /
    • pp.156-163
    • /
    • 2019
  • As a primitive immersive video technology, a three degrees of freedom (3DoF) $360^{\circ}$ video can currently render viewport images that are dependent on the rotational movements of the viewer. However, rendering a flat $360^{\circ}$ video, that is supporting head rotations only, may generate visual discomfort especially when objects close to the viewer are rendered. 3DoF+ enables head movements for a seated person adding horizontal, vertical, and depth translations. The 3DoF+ $360^{\circ}$ video is positioned between 3DoF and six degrees of freedom, which can realize the motion parallax with relatively simple virtual reality software in head-mounted displays. This article introduces the standardization trends for the 3DoF+ video in the MPEG-I visual group.

Implementing VVC Tile Extractor for 360-degree Video Streaming Using Motion-Constrained Tile Set

  • Jeong, Jong-Beom;Lee, Soonbin;Kim, Inae;Lee, Sangsoon;Ryu, Eun-Seok
    • 방송공학회논문지
    • /
    • 제25권7호
    • /
    • pp.1073-1080
    • /
    • 2020
  • 360-degree video streaming technologies have been widely developed to provide immersive virtual reality (VR) experiences. However, high computational power and bandwidth are required to transmit and render high-quality 360-degree video through a head-mounted display (HMD). One way to overcome this problem is by transmitting high-quality viewport areas. This paper therefore proposes a motion-constrained tile set (MCTS)-based tile extractor for versatile video coding (VVC). The proposed extractor extracts high-quality viewport tiles, which are simulcasted with low-quality whole video to respond to unexpected movements by the user. The experimental results demonstrate a savings of 24.81% in the bjøntegaard delta rate (BD-rate) saving for the luma peak signal-to-noise ratio (PSNR) compared to the rate obtained using a VVC anchor without tiled streaming.