• 제목/요약/키워드: motion parallax

검색결과 56건 처리시간 0.02초

Gaia DR2를 이용한 새로운 산개성단의 발견 (Discovery of new open cluster by the Gaia DR2)

  • 이상현;심규헌;박승현
    • 천문학회보
    • /
    • 제44권1호
    • /
    • pp.47.3-47.3
    • /
    • 2019
  • We discovered 722 open clusters within 1 kpc using Gaia DR2 data. These clusters are detected in the proper motion space and confirmed on the spatial distribution with parallax information. We divided the 3628 regions and visually searched using python program. Among 722 open clusters, 430 clusters are previously unknown clusters. Catalogue of discovered clusters is unloaded on the online catalogue at https://radio.kasi.re.kr/project/shlee/. Owing to the good membership criteria, we could see the halo structure of the clusters. In that reason, the average size of the discovered cluster is about 9 times than that of previously known clusters.

  • PDF

이머시브미디어를 3DoF+ 비디오 부호화 표준 동향 (Standardization Trend of 3DoF+ Video for Immersive Media)

  • 이광순;정준영;신홍창;서정일
    • 전자통신동향분석
    • /
    • 제34권6호
    • /
    • pp.156-163
    • /
    • 2019
  • As a primitive immersive video technology, a three degrees of freedom (3DoF) $360^{\circ}$ video can currently render viewport images that are dependent on the rotational movements of the viewer. However, rendering a flat $360^{\circ}$ video, that is supporting head rotations only, may generate visual discomfort especially when objects close to the viewer are rendered. 3DoF+ enables head movements for a seated person adding horizontal, vertical, and depth translations. The 3DoF+ $360^{\circ}$ video is positioned between 3DoF and six degrees of freedom, which can realize the motion parallax with relatively simple virtual reality software in head-mounted displays. This article introduces the standardization trends for the 3DoF+ video in the MPEG-I visual group.

Evaluating the Comfort Experience of a Head-Mounted Display with the Delphi Methodology

  • Lee, Doyeon;Chang, Byeng-hee;Park, Jiseob
    • 인터넷정보학회논문지
    • /
    • 제21권6호
    • /
    • pp.81-94
    • /
    • 2020
  • This study developed evaluation indicators for the comfort experience of virtual reality (VR) headsets by classifying, defining, and weighting cybersickness-causing factors using the Delphi research method and analytic hierarchical process (AHP) approach. Four surveys were conducted with 20 experts on VR motion sickness. The expert surveys involved the 1) classification and definition of cybersickness-causing dimensions, classification of sub-factors for each dimension, and selection of evaluation indicators, 2) self-reassessment of the results of each step, 3) validity revaluation, and 4) final weighting calculation. Based on the surveys, the evaluation indicators for the comfort experience of VR headsets were classified into eight sub-factors: field of view (FoV)-device FoV, latency-device latency, framerate-device framerate, V-sync-device V-sync, rig-camera angle view, rig-no-parallax point, resolution-device resolution, and resolution-pixels per inch (PPI). A total of six dimensions and eight sub-factors were identified; sub-factor-based evaluation indicators were also developed.

몰입형 비디오 부호화를 위한 패치 패킹 정보의 효율적인 표현 (Efficient Representation of Patch Packing Information for Immersive Video Coding)

  • 임성균;윤용욱;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.126-128
    • /
    • 2021
  • MPEG(Moving Picture Experts Group) 비디오 그룹은 사용자에게 움직임 시차(motion parallax)를 제공하면서 3D 공간 내에서 임의의 위치와 방향의 시점(view)을 렌더링(rendering) 가능하게 하는 6DoF(Degree of Freedom)의 몰입형 비디오 부호화 표준인 MIV(MPEG Immersive Video) 표준화를 진행하고 있다. MIV 표준화 과정에서 참조 SW 인 TMIV(Test Model for Immersive Video)도 함께 개발하고 있으며 점진적으로 부호화 성능을 개선하고 있다. TMIV 는 여러 뷰로 구성된 방대한 크기의 6DoF 비디오를 압축하기 위하여 입력되는 뷰 비디오들 간의 중복성을 제거하고 남은 영역들은 각각 개별적인 패치(patch)로 만든 후 아틀라스에 패킹(packing)하여 부호화되는 화소수를 줄인다. 이때 아틀라스 비디오에 패킹된 패치들의 위치 정보를 메타데이터로 압축 비트열과 함께 전송하게 되며, 본 논문에서는 이러한 패킹 정보를 보다 효율적으로 표현하기 위한 방법을 제안한다. 제안방법은 기존 TMIV10.0 에 비해 약 10%의 메타데이터를 감소시키고 종단간 BD-rate 성능을 0.1% 향상시킨다.

  • PDF

몰입형 비디오 부호화의 아틀라스 생성을 위한 홀 채움 기법 (A Method of Hole Filling for Atlas Generation in Immersive Video Coding)

  • 임성균;이광순;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.75-77
    • /
    • 2021
  • MPEG 비디오 그룹은 제한된 3D 공간 내에서 움직임 시차(motion parallax)를 제공하면서 원하는 시점(view)을 렌더링(rendering)하기 위한 표준으로 TMIV(Test Model for Immersive Video)라는 테스트 모델과 함께 효율적인 몰입형 비디오의 부호화를 위한 MIV(MPEG Immersive Video) 표준을 개발하고 있다. 몰입감 있는 시각적 경험을 제공하기 위해서는 많은 수의 시점 비디오가 필요하기 때문에 방대한 양의 비디오를 고효율로 압축하는 것이 불가피하다. TMIV 는 여러 개의 입력 시점 비디오를 소수의 아틀라스(atlas) 비디오로 변환하여 부호화되는 화소수를 줄이게 된다. 아틀라스는 선택된 소수의 기본 시점(basic view) 비디오와 기본 시점으로부터 합성할 수 없는 나머지 추가 시점(additional view) 비디오의 영역들을 패치(patch)로 만들어 패킹(packing)한 비디오이다. 본 논문에서는 아틀라스 비디오의 보다 효율적인 부호화를 위해서 패치 내에 생기는 작은 홀(hole)들을 채우는 기법을 제안한다. 제안기법은 기존 TMIV8.0 에 비해 1.2%의 BD-rate 이 향상된 성능을 보인다.

  • PDF

효율적인 3DoF+ 비디오 부호화를 위한 작은 블록 제거를 통한 아틀라스 생성 기법 (An Atlas Generation Method with Tiny Blocks Removal for Efficient 3DoF+ Video Coding)

  • 임성균;김현호;김재곤
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.665-671
    • /
    • 2020
  • MPEG-I에서는 최대 6자유도(6DoF)를 가지는 몰입형(immersive) 비디오의 압축 표준화를 진행하고 있다. 360 비디오의 전방위 뷰(view)와 함께 움직임 시차(parallax)를 제공하는 3DoF+ 비디오는 고정된 위치에서 상체 움직임 정도의 제한된 공간에서 획득된 여러 뷰 비디오를 사용하여 임의의 원하는 시점의 뷰를 렌더링한다. MPEG-I 비쥬얼 그룹에서는 이러한 3DoF+ 비디오의 압축 표준화를 진행하고 있으며, 그 과정에서 TMIV(Test Model for Immersive Video)라는 시험모델을 개발하고 있다. TMIV에서는 다수의 입력 뷰 비디오들의 중복성을 제거하고 남은 텍스쳐 및 깊이 영상 패치(patch)들을 촘촘히 프레임으로 패킹한 아틀라스(Atlas)를 생성하고 이를 부호화한다. 본 논문은 보다 효율적인 3DoF+ 비디오 부호화를 위해서 작은 크기의 블록들을 제거하는 아틀라스 생성 기법을 제시한다. 제안기법은 TMIV 대비 자연영상과 그래픽 영상에서 각각 0.7%와 1.4%의 BD-rate 비트율 감소의 성능 개선을 보였다.

라이트필드 초해상도와 블러 제거의 동시 수행을 위한 적대적 신경망 모델 (Adversarial Framework for Joint Light Field Super-resolution and Deblurring)

  • 조나단 사무엘;백형선;박인규
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.672-684
    • /
    • 2020
  • 시차 기반 영상처리에 대한 연구들이 증가함에 따라 저해상도 및 모션 블러된 라이트필드 영상을 복원하는 연구는 필수적이 되었다. 이러한 기법들은 라이트필드 영상 향상 과정으로 알려져 있으나 두 개 이상의 문제를 동시에 해결하는 기존의 연구는 거의 존재하지 않는다. 본 논문에서는 라이트필드 공간 영역 초해상도 복원과 모션 블러 제거를 동시 수행하는 프레임워크를 제안한다. 특히, 저해상도 및 6-DOF 모션 블러된 라이트필드 데이터셋으로 훈련하는 간단한 네트워크를 생성한다. 또한 성능을 향상하기 위해 생성적 적대 신경망의 지역 영역 최적화 기법을 제안하였다. 제안한 프레임워크는 정량적, 정성적 측정을 통해 평가하고 기존의 state-of-the-art 기법들과 비교하여 우수한 성능을 나타냄을 보인다.

이동 객체를 보존하는 시접선 추정 기술 (Moving Object Preserving Seamline Estimation)

  • 곽문성;이찬혁;이희경;정원식;양승준
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.992-1001
    • /
    • 2019
  • 다수의 카메라를 이용하여 취득된 영상을 정합 하여 하나의 넓은 시야각을 가지는 영상을 합성하는 기술이 많은 영역에서 사용되고 있다. 영상의 정합 영역 내에 이동 객체가 등장한 경우 객체의 왜곡 없이 영상을 정합 하기 위하여 움직임 정보를 이용하는 시접선 추정 방법을 제안한다. 기존 시접선 추정 기반 기술들은 영상 외곽선 정보와 시차 등을 이용하여 에너지 함수를 형성하고 시접선을 추정하는 방법을 사용하여 왔으나, 본 논문에서는 프레임 별 외곽선 정보를 이용하여 움직임 정보를 계산하고, 이를 에너지 함수에 반영하여 영상 정합 시 이동 객체의 왜곡을 방지하는 시접선 추정 기술을 제안한다. 또한, 정합 영상의 왜곡 정도를 정량화 할 수 있는 지표를 제안하여 기존 기술과 제안된 방법의 성능 차이를 검증한다.

전경 깊이 지도와 배경 깊이 지도의 결합을 이용한 깊이 지도 생성 (Depth-Map Generation using Fusion of Foreground Depth Map and Background Depth Map)

  • 김진현;백열민;김회율
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 하계학술대회
    • /
    • pp.275-278
    • /
    • 2012
  • 본 논문에서 2D-3D 자동 영상 변환을 위하여 2D 상으로부터 깊이 지도(depth map)을 생성하는 방법을 제안한다. 제안하는 방법은 보다 정확한 깊이 지도 생성을 위해 영상의 전경 깊이 지도(foreground depth map)와 배경 깊이 지도(background depth map)를 각각 생성 한 후 결합함으로써 보다 정확한 깊이 지도를 생성한다. 먼저, 전경 깊이 지도를 생성하기 위해서 라플라시안 피라미드(laplacian pyramid)를 이용하여 포커스/디포커스 깊이 지도(focus/defocus depth map)를 생성한다. 그리고 블록정합(block matching)을 통해 획득한 움직임 시차(motion parallax)를 이용하여 움직임 시차 깊이 지도를 생성한다. 포커스/디포커스 깊이 지도는 평탄영역(homogeneous region)에서 깊이 정보를 추출하지 못하고, 움직임 시차 깊이 지도는 움직임 시차가 발생하지 않는 영상에서 깊이 정보를 추출하지 못한다. 이들 깊이 지도를 결합함으로써 각 깊이 지도가 가지는 문제점을 해결하였다. 선형 원근감(linear perspective)와 선 추적(line tracing) 방법을 적용하여 배경깊이 지도를 생성한다. 이렇게 생성된 전경 깊이 지도와 배경 깊이 지도를 결합하여 보다 정확한 깊이 지도를 생성한다. 실험 결과, 제안하는 방법은 기존의 방법들에 비해 더 정확한 깊이 지도를 생성하는 것을 확인할 수 있었다.

  • PDF

Simplified Integral Imaging Pickup Method for Real Objects Using a Depth Camera

  • Li, Gang;Kwon, Ki-Chul;Shin, Gwan-Ho;Jeong, Ji-Seong;Yoo, Kwan-Hee;Kim, Nam
    • Journal of the Optical Society of Korea
    • /
    • 제16권4호
    • /
    • pp.381-385
    • /
    • 2012
  • In this paper, we present a novel integral imaging pickup method. We extract each pixel's actual depth data from a real object's surface using a depth camera, then generate elemental images based on the depth map. Since the proposed method generates elemental images without a lens array, it has simplified the pickup process and overcome some disadvantages caused by a conventional optical pickup process using a lens array. As a result, we can display a three-dimensional (3D) image in integral imaging. To show the usefulness of the proposed method, an experiment is presented. Though the pickup process has been simplified in the proposed method, the experimental results reveal that it can also display a full motion parallax image the same as the image reconstructed by the conventional method. In addition, if we improve calculation speed, it will be useful in a real-time integral imaging display system.