• 제목/요약/키워드: View Synthesis Technology

검색결과 54건 처리시간 0.026초

View Synthesis and Coding of Multi-view Data in Arbitrary Camera Arrangements Using Multiple Layered Depth Images

  • Yoon, Seung-Uk;Ho, Yo-Sung
    • Journal of Multimedia Information System
    • /
    • 제1권1호
    • /
    • pp.1-10
    • /
    • 2014
  • In this paper, we propose a new view synthesis technique for coding of multi-view color and depth data in arbitrary camera arrangements. We treat each camera position as a 3-D point in world coordinates and build clusters of those vertices. Color and depth data within a cluster are gathered into one camera position using a hierarchical representation based on the concept of layered depth image (LDI). Since one camera can cover only a limited viewing range, we set multiple reference cameras so that multiple LDIs are generated to cover the whole viewing range. Therefore, we can enhance the visual quality of the reconstructed views from multiple LDIs comparing with that from a single LDI. From experimental results, the proposed scheme shows better coding performance under arbitrary camera configurations in terms of PSNR and subjective visual quality.

  • PDF

다시점 3차원 방송을 위한 OpenGL을 이용하는 중간영상 생성 (View Synthesis Using OpenGL for Multi-viewpoint 3D TV)

  • 이현정;허남호;서용덕
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.507-520
    • /
    • 2006
  • 본 논문은 다중 카메라에서 얻은 영상과 그 영상으로부터 얻은 깊이영상(depth map)을 사용하여 중간시점에서의 영상을 생성하기 위하여 OpenGL 함수를 적용하는 방법을 소개한다. 기본적으로 영상기반 렌더링 방법은 카메라로 직접 얻은 영상을 그래픽 엔진에 적용하여 결과 영상을 생성하는 것을 의미하지만 주어진 영상 및 깊이정보를 어떻게 그래픽 엔진에 적용시키고 영상을 렌더링 하는지에 관한 방법은 잘 알려져 있지 않다. 본 논문에서는 카메라 정보로 물체가 생성될 공간을 구축하고, 구축된 공간 안에 색상영상과 깊이영상 데이터로 3차원 물체를 형성하여 이를 기반으로 실시간으로 중간영상 결과를 생성하는 방법을 제안하고자 한다. 또한, 중간영상에서의 깊이영상도 추출하는 방법을 소개하도록 하겠다.

Impact Angle Control Guidance Synthesis for Evasive Maneuver against Intercept Missile

  • Yogaswara, Y.H.;Hong, Seong-Min;Tahk, Min-Jea;Shin, Hyo-Sang
    • International Journal of Aeronautical and Space Sciences
    • /
    • 제18권4호
    • /
    • pp.719-728
    • /
    • 2017
  • This paper proposes a synthesis of new guidance law to generate an evasive maneuver against enemy's missile interception while considering its impact angle, acceleration, and field-of-view constraints. The first component of the synthesis is a new function of repulsive Artificial Potential Field to generate the evasive maneuver as a real-time dynamic obstacle avoidance. The terminal impact angle and terminal acceleration constraints compliance are based on Time-to-Go Polynomial Guidance as the second component. The last component is the Logarithmic Barrier Function to satisfy the field-of-view limitation constraint by compensating the excessive total acceleration command. These three components are synthesized into a new guidance law, which involves three design parameter gains. Parameter study and numerical simulations are delivered to demonstrate the performance of the proposed repulsive function and guidance law. Finally, the guidance law simulations effectively achieve the zero terminal miss distance, while satisfying an evasive maneuver against intercept missile, considering impact angle, acceleration, and field-of-view limitation constraints simultaneously.

순차적 이중 전방 사상의 병렬 처리를 통한 다중 시점 고속 영상 합성 (Fast Multi-View Synthesis Using Duplex Foward Mapping and Parallel Processing)

  • 최지윤;유세운;신홍창;박종일
    • 한국통신학회논문지
    • /
    • 제34권11B호
    • /
    • pp.1303-1310
    • /
    • 2009
  • 3차원 입체 영상을 디스플레이에 출력하려면, 여러 시점에서의 영상 정보가 필요하다. 여러 시점의 영상을 얻을 수 있는 가장 기본적인 방법은, 필요로 하는 시점의 개수와 동일 한 수의 카메라를 사용하는 것이다. 하지만 이를 위해서는 카메라간의 동기화 와 방대한 데이터 처리 및 전송 등의 현실적인 문제가 해결되어야 한다. 이러한 현실적인 문제를 해결하기 위해서 연구되고 있는 방법이 한정된 시점 영상을 이용하여 여러 중간 시점 영상을 생성하는 영상 기반의 임의 시점 합성 방법이다. 본 논문에서는 두 개의 기준 시점 영상과 각각의 깊이 정보가 주어줬음을 가정하고 주어진 정보를 바탕으로 이중의 순차적인 전방 사상을 통하여 목표로 하는 여러 다중 시점의 영상을 동시에 합성하는 방법을 제시한다. 제안된 방법은 좌우 기준 시점 영상의 평행 이동으로 가상 시점 영상을 생성 할 수 있으며, 평행 이동은 시점의 거리에 비례한 행렬간의 관계로 나타난다. 따라서 이중의 순차적인 전방 사상이라 함은 좌우 시점에서 가상 시점 거리에 따른 관계식을 통한 순차적인 양안 시점의 평행 이동을 의미한다. 이 때 전방 사상을 통해 생성되는 가상 시점 영상과 기준 시점 영상간의 기하관계가 시점간 거리에 비례하여 반복적이므로 이를 GPU 프로그래밍을 통해 병렬 처리를 통해 고속화 하는데 초점을 맞추었다.

Disparity Refinement near the Object Boundaries for Virtual-View Quality Enhancement

  • Lee, Gyu-cheol;Yoo, Jisang
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권5호
    • /
    • pp.2189-2196
    • /
    • 2015
  • Stereo matching algorithm is usually used to obtain a disparity map from a pair of images. However, the disparity map obtained by using stereo matching contains lots of noise and error regions. In this paper, we propose a virtual-view synthesis algorithm using disparity refinement in order to improve the quality of the synthesized image. First, the error region is detected by examining the consistency of the disparity maps. Then, motion information is acquired by applying optical flow to texture component of the image in order to improve the performance. Then, the occlusion region is found using optical flow on the texture component of the image in order to improve the performance of the optical flow. The refined disparity map is finally used for the synthesis of the virtual view image. The experimental results show that the proposed algorithm improves the quality of the generated virtual-view.

COLOR CORRECTION METHOD USING GRAY GRADIENT BAR FOR MULTI-VIEW CAMERA SYSTEM

  • Jung, Jae-Il;Ho, Yo-Sung
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.1-6
    • /
    • 2009
  • Due to the different camera properties of the multi-view camera system, the color properties of captured images can be inconsistent. This inconsistency makes post-processing such as depth estimation, view synthesis and compression difficult. In this paper, the method to correct the different color properties of multi-view images is proposed. We utilize a gray gradient bar on a display device to extract the color sensitivity property of the camera and calculate a look-up table based on the sensitivity property. The colors in the target image are converted by mapping technique referring to the look-up table. Proposed algorithm shows the good subjective results and reduces the mean absolute error among the color values of multi-view images by 72% on average in experimental results.

  • PDF

자유시점 TV를 위한 다시점 비디오의 계층적 깊이 영상 표현과 H.264 부호화 (Layered Depth Image Representation And H.264 Encoding of Multi-view video For Free viewpoint TV)

  • 신종홍
    • 디지털산업정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.91-100
    • /
    • 2011
  • Free viewpoint TV can provide multi-angle view point images for viewer needs. In the real world, But all angle view point images can not be captured by camera. Only a few any angle view point images are captured by each camera. Group of the captured images is called multi-view image. Therefore free viewpoint TV wants to production of virtual sub angle view point images form captured any angle view point images. Interpolation methods are known of this problem general solution. To product interpolated view point image of correct angle need to depth image of multi-view image. Unfortunately, multi-view video including depth image is necessary to develop a new compression encoding technique for storage and transmission because of a huge amount of data. Layered depth image is an efficient representation method of multi-view video data. This method makes a data structure that is synthesis of multi-view color and depth image. This paper proposed enhanced compression method using layered depth image representation and H.264/AVC video coding technology. In experimental results, confirmed high compression performance and good quality reconstructed image.

Real-time Virtual-viewpoint Image Synthesis Algorithm Using Kinect Camera

  • Lee, Gyu-Cheol;Yoo, Jisang
    • Journal of Electrical Engineering and Technology
    • /
    • 제9권3호
    • /
    • pp.1016-1022
    • /
    • 2014
  • Kinect is a motion sensing camera released by Microsoft in November 2010 for the Xbox360 that is used to produce depth and color images. Because Kinect uses an infrared pattern, it generates holes and noises around an object's boundaries in the obtained images. The flickering phenomenon and unmatched edges also occur. In this paper, we propose a real time virtual-view video synthesis algorithm which results in a high quality virtual view by solving these problems stated above. The experimental results show that the proposed algorithm performs much better than the conventional algorithms.

실시간 3D 브라우징 시스템을 위한 램 디스크 기반의 다시점 영상 합성 기법의 설계 및 구현 (Design and Implementation of Multiple View Image Synthesis Scheme based on RAM Disk for Real-Time 3D Browsing System)

  • 심춘보;임은천
    • 한국콘텐츠학회논문지
    • /
    • 제9권5호
    • /
    • pp.13-23
    • /
    • 2009
  • 다시점 영상 처리 기술은 다시점 디스플레이 장치와 압축된 데이터 복원 장치를 통해 장치 사용자의 시각에 3차원의 입체 영상을 제공하는데 목적이 있다. 본 논문은 4시점의 병렬 카메라를 통해 실시간으로 입력되는 스테레오 이미지들에 대해서 효율적인 영상 합성을 통해 3차원 입체 영상을 브라우징할 수 있는 램 디스크 기반의 다시점 영상 합성 기법을 제안한다. 제안하는 기법은 입력 영상들을 이진화 영상으로 변환한 후, Sobel 및 Prewitt 에지 발견 알고리즘을 적용시키고 이를 토대로 4개 영상들의 시차를 구한다. 아울러 기존의 알고리즘에서 모호하게 언급되었던 동기화 문제를 해결하기 위해 하드웨어 트리거와 소프트웨어 트리거를 위한 시간 간격을 적용한다. 제안하는 기법을 분산 환경에서도 적용할 수 있도록 영상의 스냅샷에 대한 유일한 식별자를 이용한다. 성능 분석 결과, 전체 영상(왼쪽, 오른쪽) 및 시차정보를 모두 전송하여 고정밀의 3차원 입체 영상을 출력하는 데 소요되는 전체 시간은 각 이진 배열 당 약 0.67초로 실시간으로 적용하는 데 적합하다고 볼 수 있다.

다시점 360도 영상을 사용한 자유시점 영상 생성 방법 (Free view video synthesis using multi-view 360-degree videos)

  • 조영광;안희준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.600-603
    • /
    • 2020
  • 360 영상은 시청자가 시야방향을 결정하는 3DoF(3 Degree of Freedom)를 지원한다. 본 연구에서는 다수의 360 영상에서 깊이 정보를 획득하고, 이를 DIBR (Depth -based Image Rendering) 기법을 사용하여 임의 시점 시청기능을 제공하는 6DoF(6 Degree of Freedom) 영상제작 기법을 제안한다. 이를 위하여 기존의 평면 다시점 영상기법을 확장하여 360 ERP 투영 영상으로부터 카메라의 파라미터 예측을 하는 방법과 깊이영상 추출 방법을 설계 및 구현하고 그 성능을 조사하였으며, OpenGL 그래픽스기반의 RVS(Reference View Synthesizer) 라이브러리를 사용하여 DIBR을 적용하였다.