• 제목/요약/키워드: depth image-based rendering

검색결과 96건 처리시간 0.027초

OpenGL을 이용한 모델 기반 3차원 다시점 객체 구현 (Model-Based Three-dimensional Multiview Object Implementation by OpenGL)

  • 오원식;김동욱;김화성;유지상
    • 방송공학회논문지
    • /
    • 제13권3호
    • /
    • pp.299-309
    • /
    • 2008
  • 본 논문에서는 OpenGL을 이용한 모델기반 3차원 다시점 영상의 객체 구현을 위한 구성과 각 모듈에 적용되는 기법을 제안한다. 한 장의 텍스쳐 이미지와 깊이 정보 영상을 가지고 다시점 객체를 생성하기 위해, 먼저 깊이 정보의 전처리 과정을 거친다. 전처리된 깊이 정보는 OpenGL 상에서의 일정 간격의 꼭지점 정보로 샘플링 되며, 깊이 정보를 z값으로 가지는 3차원 공간 좌표상의 점이다. 이 꼭지점 정보를 기반으로 텍스쳐 맵핑을 위한 다각형을 구성하기 위해 딜루이니 삼각화(Delaunay triangulations) 기법을 적용한다. 이렇게 구성된 다각형 위에 텍스쳐 이미지를 맵핑하여 OpenGL의 좌표 연산을 통해 시점을 자유롭게 조정할 수 있는 동영상 출력 가능한 객체를 만들게 된다.

인터랙티브 햅틱 변형 및 재질감 모델링 알고리즘 (Interactive Haptic Deformation and Material Property Modeling Algorithm)

  • 이범찬;김종필;박혜신;류제하
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1-7
    • /
    • 2007
  • 본 논문은 3차원 스캐너로 획득된 실제 얼굴 데이터를 햅틱 상호작용을 통해 직접 변형하고 재질감을 모델링 하는 알고리즘을 제안한다. 제안된 알고리즘은 그래픽 하드웨어 기반의 햅틱 렌더링 알고리즘을 기반으로 획득된 2.5D 얼굴 데이터를 mass-spring 모델을 적용하여 변형하고 얼굴의 재질감(탄성, 마찰, 거칠기) 정보를 모델링 하는 것이다. 햅틱 장치를 이용한 변형알고리즘은 변형 시 효율적인 변형 영역 탐색을 위하여 공간 분할방법인 k-d 트리 구조를 이용하여 최근방 탐색 알고리즘을 구현하였으며, 사실적인 힘 계산을 위하여 각 포인트 마다 mass-spring 모델을 적용하여 반력 연산 및 물체의 변형을 수행하였다. 아울러 재질감을 모델링 하기 위해 깊이 이미지 기반 표현(Depth Image Based Representation, DIBR)을 이용하여 가상 물체의 거칠기, 탄성, 및 마찰을 편집할 수 있는 방법론을 제시하고, 편집된 재질감을 직접 물체의 표면에 적용하여 렌더링 하는 알고리즘을 제안한다.

  • PDF

수직 리그를 이용한 임의시점 디지털 홀로그래픽 생성 시스템 구현 (System Implementation for Generating Virtual View Digital Holographic using Vertical Rig)

  • 구자명;이윤혁;서영호;김동욱
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 추계학술대회
    • /
    • pp.46-49
    • /
    • 2012
  • 본 논문에서는 3차원 입체 비디오처리 기술의 최종목표인 디지털 홀로그램을 생성하는데 필요한 객체의 좌표와 색상정보가 들어있는 같은 시점과 해상도인 RGB 영상과 깊이 영상을 획득하여 가상 시점의 디지털 홀로그램을 생성하는 시스템을 제안한다. 먼저, 가시광선과 적외선의 파장을 이용하여 파장에 따라 투과율이 달라지는 콜드 미러를 사용하여 각각의 시점이 같은 다시점 RGB와 깊이 영상을 얻는다. 카메라 시스템이 갖는 다양한 렌즈 왜곡을 없애기 위한 보정 과정을 거친 후에 해상도가 서로 틀린 RGB 영상과 깊이 영상의 해상도를 같게 조절한다. 그 다음, DIBR(Depth Image Based Rendering) 알고리즘을 이용하여 원하는 가상 시점의 깊이 정보와 RGB 영상을 생성한다. 그리고 깊이 정보를 이용하여 디지털 홀로그램으로 구현할 객체만을 추출한다. 마지막으로 컴퓨터 생성 홀로그램 (computer-generated hologram, CGH) 알고리즘을 이용하여 추출한 가상 시점의 객체를 디지털 홀로그램으로 변환한다.

  • PDF

다시점 360도 영상을 사용한 자유시점 영상 생성 방법 (Free view video synthesis using multi-view 360-degree videos)

  • 조영광;안희준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.600-603
    • /
    • 2020
  • 360 영상은 시청자가 시야방향을 결정하는 3DoF(3 Degree of Freedom)를 지원한다. 본 연구에서는 다수의 360 영상에서 깊이 정보를 획득하고, 이를 DIBR (Depth -based Image Rendering) 기법을 사용하여 임의 시점 시청기능을 제공하는 6DoF(6 Degree of Freedom) 영상제작 기법을 제안한다. 이를 위하여 기존의 평면 다시점 영상기법을 확장하여 360 ERP 투영 영상으로부터 카메라의 파라미터 예측을 하는 방법과 깊이영상 추출 방법을 설계 및 구현하고 그 성능을 조사하였으며, OpenGL 그래픽스기반의 RVS(Reference View Synthesizer) 라이브러리를 사용하여 DIBR을 적용하였다.

가상 시점 영상 합성을 위한 방향성 고려 홀 채움 방법 (Consider the directional hole filling method for virtual view point synthesis)

  • 문지훈;호요성
    • 스마트미디어저널
    • /
    • 제3권4호
    • /
    • pp.28-34
    • /
    • 2014
  • 최근 깊이 영상 기반 합성 방법을 이용한 가상시점 합성 방법이 3차원 영상의 적용 분야에서 많이 사용되고 있다. 가상 시점 영상은 기존에 알고 있는 영상과 이와 관련된 깊이 영상 정보를 이용하여 카메라로 촬영 하지 않은 가상시점 영상을 생성하게 된다. 하지만 깊이 영상 기반 합성 방법을 이용해 가상시점 영상을 생성할 경우, 깊이 영상을 기반으로 합성하기 때문에 이미지 워핑 과정에서 폐색 영역이 발생하게 된다. 이러한 폐색 영역을 제거하기 위해 지금까지 다양한 홀 채움 방법들이 제안되어 왔다. 동일 색상영역 검색, 수평방향 보간 방법, 수평방향 보외 방법 그리고 다양한 인페인팅 방법들이 홀 채움 방법들로 제안되었다. 하지만 이러한 방법들을 사용하여 텍스쳐 영역의 홀을 제거할 경우 다른 종류의 간섭 현상이 발생하는 문제가 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 다양한 방향성을 고려한 홀 채움 방법을 새롭게 제안하여 확장된 홀 영역을 효율적으로 채우는 방법을 설명한다. 제안된 방법들은 복잡한 텍스쳐들이 있는 배경부분에서 발생하는 홀 영역을 채울 때 성능 효율성을 나타낸다. 방향성을 고려한 홀 채움 방법은 픽셀 단위로 홀 채움 영역 값을 측정하는 과정에서 홀 영역의 주변 텍스쳐 픽셀 값들을 사용하게 된다. 제안한 방법을 이용해 가상시점 영상 합성 결과 발생하는 홀 영역을 기존의 홀 채움 방법보다 보다 더 효율적으로 채울 수 있는 것을 확인할 수 있었다.

GPU를 이용한 실시간 양안식 영상 생성 방법 (Real-time Stereo Video Generation using Graphics Processing Unit)

  • 신인용;호요성
    • 방송공학회논문지
    • /
    • 제16권4호
    • /
    • pp.596-601
    • /
    • 2011
  • 양안식 3차원 방송의 경우 좌우 두 시점에 해당하는 영상을 동시에 전송해야 하기 때문에 전송 대역폭의 부담이 매우 크다. 이러한 부담을 줄이기 위해 좌우 시점의 두 영상을 전송하는 대신에 좌영상과 이에 해당하는 깊이맵을 부호화하여 전송하는 방법이 있다. 이러한 3차원 방송 시스템의 수신단에서는 좌영상과 깊이맵을 복호한 뒤에 우영상을 만들어 좌우 영상을 실시간으로 출력한다. 본 논문에서는 좌영상과 깊이맵을 이용하여 가상시점 영상을 생성할 때 생기는 빈 공간을 효율적으로 채우는 기법을 제안하고, 전 과정의 실시간 처리를 위해 이를 GPU상에서 병렬로 처리되도록 구현했다. 그 결과 효과적으로 홀 채움을 수행하면서 CPU 대비 15배 이상 빠르게 양안식 영상을 생성할 수 있었다.

원형기반 객체순서의 원근 투영 볼륨 렌더링 (Template-Based Object-Order Volume Rendering with Perspective Projection)

  • 구윤모;이철희;신영길
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권7호
    • /
    • pp.619-628
    • /
    • 2000
  • 원근 투영에 의해 만들어 진 영상은 물체에 대한 거리감을 얻게 해 줌으로써 복잡한 구조물을 해석하는 데 도움을 준다. 현재 원근 투영 볼륨 렌더링의 가장 큰 단점은 실행시간이 길다는 점에 있다. 본 논문에서는 원근 광선들 간의 규칙성을 이용하여 원근 투영 볼륨 렌더링을 효율적으로 처리하는 방법을 소개한다. 볼륨의 한 면과 평행인 중간 화상의 각 수평 스캔라인과 수직 스캔라인으로부터 출발한 광선들에 대해 원형(template)들을 만든다. 광선 위의 샘플들은 원형에 미리 계산되어 있는 가중치를 사용하여 샘플 주변의 복셀들을 가중치 평균하여 얻는다. 이러한 원형의 사용은 볼륨 렌더링에서 많은 부분을 차지하고 있는 재샘플링 시간을 줄일 수 있게 해 준다. 뿐만 아니라, 본 알고리즘은 화상순서가 아니라 객체순서로 렌더링을 하므로 각 복셀을 한번 씩 만 접근하여 처리하고 런-길이 부호화된 볼륨을 사용하여 데이타 응집성의 특성을 이용함으로써 알고리즘을 더욱 가속화한다. 또한, 볼륨을 시점으로부터의 거리에 따라 여러 구역으로 나누어 각 구역에서 광선의 간격을 새로 조정함으로써 원근 광선의 발산으로 인해 샘플링 밀도가 감소하는 문제를 해결한다. 성능 평가 및 다른 방법과의 비교를 통해 원형의 사용과 객체순서 처리로 인한 속도 향상을 분석한다. 또한, 샘플링 밀도의 유지로 인해 화질이 향상된 결과를 보인다.

  • PDF

깊이맵 업샘플링 방법의 객관적 성능 측정과 3D 시각적 피로도의 관계 분석 (Analysis of Relationship between Objective Performance Measurement and 3D Visual Discomfort in Depth Map Upsampling)

  • 길종인;사이드마흐모드포어;김만배
    • 방송공학회논문지
    • /
    • 제19권1호
    • /
    • pp.31-43
    • /
    • 2014
  • 깊이맵은 3D 입체영상의 생성을 위해 중요한 요소이다. 하지만 깊이 카메라를 이용하여 획득한 깊이맵들은 낮은 해상도를 갖는 단점이 있기 때문에 이를 고해상도로 변환하는 연구들이 활발하게 진행되고 있다. 이러한 연구들은 일반적으로 PSNR, Sharpness Degree, Blur Metric 등과 같은 객관적인 평가방법으로 성능을 검증해왔다. 이러한 평가방법 이외에 DIBR로 가상시점(virtual view)을 생성하여 주관적으로 평가하는 연구도 있으나, 입체영상을 생성하여 깊이맵 업샘플링의 성능을 분석하는 것은 많지 않다. 본 논문에서는 다양한 깊이맵 업샘플링 방법들을 이용하여 생성된 입체영상의 주관적 평가와 업샘플링 방법의 객관적 평가 결과의 상관관계 및 선형회귀법을 이용하여 관련성을 분석한다. 실험결과에서는 에지 PSNR이 시각적 피로도와의 상관관계가 가장 높고, Blur Metric은 가장 낮다는 것을 보여준다. 또한 선형회귀에서는 최적의 입체영상을 얻을 수 있는 객관적 평가의 가중치를 구하고, 기존 또는 새로운 업샘플링 알고리즘의 3D성능을 예측할 수 있는 공식을 보여준다.

영상의 시점변화와 악의적 공격에 대한 디지털 워터마킹 (Digital Watermarking on Image for View-point Change and Malicious Attacks)

  • 김보라;서영호;김동욱
    • 방송공학회논문지
    • /
    • 제19권3호
    • /
    • pp.342-354
    • /
    • 2014
  • 본 논문에서는 사용자 측에서 임의의 시점 영상을 렌더링하여야 하는 초다시점 또는 자유시점 영상서비스를 타겟으로 소유자의 지적재산권을 보호하기 위한 디지털 워터마킹 방법을 다룬다. 본 논문의 주된 목적은 기존방법들에 비해 우수한 방법을 제안하는 것보다는 시점이동 공격을 이겨내는 워터마킹 방법이 얼마나 어려운지를 보이는 것이다. 따라서 대상 영상은 시점이동을 포함한 다양한 공격을 가한 영상이다. 본 논문은 먼저 2D영상에 대한 워터마킹 방법 중 2DDCT(2D discrete cosine transform)를 사용하는 방법과 2DDWT(2D discrete wavelet transform)를 사용하는 방법의 기본적인 scheme으로 시점이동이 추출한 워터마크 데이터의 오차율을 얼마나 높이는 지를 보인다. 시점이동된 영상에 대한 워터마킹의 어려움은 이동된 시점을 모르기 때문이며, 따라서 본 논문에서는 이동된 시점을 찾는 방법을 제안한다. 이 방법은 원시점의 영상과 해당 깊이정보를 사용한다. 또한 이 방법을 사용한 non-blind 워터마킹 방법을 제안하여, 이동된 시점을 복원하는 것이 추출된 워터마크의 오차율에 큰 영향을 미친다는 것을 보인다. 제안한 방법과 기존 방법의 성능을 비교하여, 비록 non-blind 방법이기는 하지만 기존 방법보다 비가시성 및 강인성에서 우수함을 보인다.

3D Head Modeling using Depth Sensor

  • Song, Eungyeol;Choi, Jaesung;Jeon, Taejae;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제2권1호
    • /
    • pp.13-16
    • /
    • 2015
  • Purpose We conducted a study on the reconstruction of the head's shape in 3D using the ToF depth sensor. A time-of-flight camera (ToF camera) is a range imaging camera system that resolves distance based on the known speed of light, measuring the time-of-flight of a light signal between the camera and the subject for each point of the image. The above method is the safest way of measuring the head shape of plagiocephaly patients in 3D. The texture, appearance and size of the head were reconstructed from the measured data and we used the SDF method for a precise reconstruction. Materials and Methods To generate a precise model, mesh was generated by using Marching cube and SDF. Results The ground truth was determined by measuring 10 people of experiment participants for 3 times repetitively and the created 3D model of the same part from this experiment was measured as well. Measurement of actual head circumference and the reconstructed model were made according to the layer 3 standard and measurement errors were also calculated. As a result, we were able to gain exact results with an average error of 0.9 cm, standard deviation of 0.9, min: 0.2 and max: 1.4. Conclusion The suggested method was able to complete the 3D model by minimizing errors. This model is very effective in terms of quantitative and objective evaluation. However, measurement range somewhat lacks 3D information for the manufacture of protective helmets, as measurements were made according to the layer 3 standard. As a result, measurement range will need to be widened to facilitate production of more precise and perfectively protective helmets by conducting scans on all head circumferences in the future.