• 제목/요약/키워드: 3D Depth Camera

검색결과 299건 처리시간 0.027초

3D Augmented Reality Streaming System Based on a Lamina Display

  • Baek, Hogil;Park, Jinwoo;Kim, Youngrok;Park, Sungwoong;Choi, Hee-Jin;Min, Sung-Wook
    • Current Optics and Photonics
    • /
    • 제5권1호
    • /
    • pp.32-39
    • /
    • 2021
  • We propose a three-dimensional (3D) streaming system based on a lamina display that can convey field information in real-time by creating floating 3D images that can satisfy the accommodation cue. The proposed system is mainly composed of three parts, namely: a 3D vision camera unit to obtain and provide RGB and depth data in real-time, a 3D image engine unit to realize the 3D volume with a fast response time by using the RGB and depth data, and an optical floating unit to bring the implemented 3D image out of the system and consequently increase the sense of presence. Furthermore, we devise the streaming method required for implementing augmented reality (AR) images by using a multilayered image, and the proposed method for implementing AR 3D video in real-time non-face-to-face communication has been experimentally verified.

합성 촬영 집적 영상의 신호 모델 해석 방법 (Analysis method of signal model for synthetic aperture integral imaging)

  • 유훈
    • 한국정보통신학회논문지
    • /
    • 제14권11호
    • /
    • pp.2563-2568
    • /
    • 2010
  • 합성 촬영 집적 영상 (synthetic aperture integral imaging; SAII) 기술은 하나의 카메라를 이동하여 3D 물체에 대한 다시점 영상을 획득하여 깊이 정보의 3D 영상을 복원이 가능한 기술이다. 이 방법은 크게 3D 물체의 요소 영상을 픽업하는 과정과 픽업된 요소 영상을 이용하여 컴퓨터 기반으로 3D 깊이 영상들을 복원하는 두 과정으로 나눈다. 본 논문에서는 이 SAII에 대한 신호 모델을 설명하고, 이를 통하여 발생하는 잡음을 정의하고 해석하였다. SAII에 대한 신호해석을 통하여 다시점 영상을 얻기 위한 카메라 이동 거리를 줄임으로써 영상 잡음감소와 계산 속도 개선을 동시에 얻을 수 있음을 보고한다.

복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼 (Autonomous Driving Platform using Hybrid Camera System)

  • 이은경
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1307-1312
    • /
    • 2023
  • 본 논문에서는 자율주행 인지 기술의 핵심 요소인 객체 인식과 거리 측정을 위해 서로 다른 초점거리를 가진 다시점 카메라와 라이다(LiDAR) 센서를 결합한 복합형 카메라 시스템을 제안한다. 제안한 복합형 카메라 시스템을 이용해 장면 안의 객체를 추출하고, 추출한 객체의 정확한 위치와 거리 정보를 생성한다. 빠른 계산 속도와 높은 정확도, 실시간 처리가 가능하다는 장점 때문에 자율주행 분야에서 많이 사용하고 있는 YOLO7 알고리즘을 이용해 장면 안의 객체를 추출한다. 그리고 객체의 위치와 거리 정보를 생성하기 위해 다시점 카메라를 이용해 깊이맵을 생성한다. 마지막으로 거리 정확도를 향상시키기 위해 라이다 센서에서 획득한 3차원 거리 정보와 생성한 깊이맵을 하나로 결합한다. 본 논문에서는 제안한 복합형 카메라 시스템을 기반으로 주행중인 주변 환경을 더욱 정확하게 인식함과 동시에 3차원 공간상의 정확한 위치와 거리 정보까지 생성할 수 있는 자율주행 차량 플랫폼을 제안하였으며, 이를 통해 자율주행 차량의 안전성과 효율성을 향상시킬 수 있을 것으로 기대한다.

3D Head Modeling using Depth Sensor

  • Song, Eungyeol;Choi, Jaesung;Jeon, Taejae;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제2권1호
    • /
    • pp.13-16
    • /
    • 2015
  • Purpose We conducted a study on the reconstruction of the head's shape in 3D using the ToF depth sensor. A time-of-flight camera (ToF camera) is a range imaging camera system that resolves distance based on the known speed of light, measuring the time-of-flight of a light signal between the camera and the subject for each point of the image. The above method is the safest way of measuring the head shape of plagiocephaly patients in 3D. The texture, appearance and size of the head were reconstructed from the measured data and we used the SDF method for a precise reconstruction. Materials and Methods To generate a precise model, mesh was generated by using Marching cube and SDF. Results The ground truth was determined by measuring 10 people of experiment participants for 3 times repetitively and the created 3D model of the same part from this experiment was measured as well. Measurement of actual head circumference and the reconstructed model were made according to the layer 3 standard and measurement errors were also calculated. As a result, we were able to gain exact results with an average error of 0.9 cm, standard deviation of 0.9, min: 0.2 and max: 1.4. Conclusion The suggested method was able to complete the 3D model by minimizing errors. This model is very effective in terms of quantitative and objective evaluation. However, measurement range somewhat lacks 3D information for the manufacture of protective helmets, as measurements were made according to the layer 3 standard. As a result, measurement range will need to be widened to facilitate production of more precise and perfectively protective helmets by conducting scans on all head circumferences in the future.

3D 점군 데이터에서의 발 고유 변인 검출 시스템 설계 (Design of foot parameter measurement system in 3D Point cloud)

  • 윤정록;김운용;김회민;전성국
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.695-696
    • /
    • 2021
  • 최근 다양한 연령층과 직업군들 사이에서 기능성 신발에 대한 관심이 증대되고 있다. 그러나 기능성 신발 및 맞춤형 신발은 높은 가격대와 긴 제작 시간이 필요하다. 이러한 문제점은 3D 스캐너 도입으로 해결이 가능하나, 정확한 발 형상 측정이 가능한 3D 스캐너는 고가의 장비이기 때문에 매장별 보급이 어렵다. 본 논문은 기능성 신발의 보급을 위하여 저가형 3D 스캐너에서 정확한 발 고유 변인을 측정할 수 있는 시스템에 대해 서술한다. 이를 위해 이를 위해 저가형 Depth Camera를 이용한 저가형 3D 스캐너의 발 형상 3D 점군 데이터를 2차원으로 변형하고, 발 형태를 감싸는 최소 사각형(Min Area Rect)를 형성하여 발 안쪽점 및 발 가쪽점을 추정한다. 생성된 최소 사각형과 발 안쪽점 및 발 가쪽점 등은 발 고유 변인 측정의 기준이 된다. 실험 결과에서는 측정 기준을 이용하여 발 고유 변인인 발 길이, 발 너비, 발꿈치 너비, 발꿈치에서 발안쪽점 및 발 가쪽점 길이 등 5가지 고유 변인을 측정하는 것을 보여준다.

  • PDF

적응형 윈도우를 이용한 스테레오 내시경에서의 깊이추출 연구 (Depth Extraction from Stereo Endoscope Using Adaptive Window)

  • 황도식;김정훈;안종식;이성재;이명호
    • 대한의용생체공학회:학술대회논문집
    • /
    • 대한의용생체공학회 1998년도 추계학술대회
    • /
    • pp.265-266
    • /
    • 1998
  • This paper describes a depth extraction algorithm in the stereo endoscopic images using adaptive window. First, The relation between the 3D coordinates in the world and the 2D coordinates in the image plane is estimated using camera calibration. Next, stereo matching is performed to find the conjugate pairs in the left and right images. To improve the precision of the matching result, adaptive window which can be varied on the shape as well as on the size according to the area characteristics is used. Finally, the result from the stereo matching and that of camera modeling are combined to extract the real depth information.

  • PDF

RAY-SPACE INTERPOLATION BYWARPING DISPARITY MAPS

  • Moriy, Yuji;Yendoy, Tomohiro;Tanimotoy, Masayuki;Fujiiz, Toshiaki
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.583-587
    • /
    • 2009
  • In this paper we propose a new method of Depth-Image-Based Rendering (DIBR) for Free-viewpoint TV (FTV). In the proposed method, virtual viewpoint images are rendered with 3D warping instead of estimating the view-dependent depth since depth estimation is usually costly and it is desirable to eliminate it from the rendering process. However, 3D warping causes some problems that do not occur in the method with view-dependent depth estimation; for example, the appearance of holes on the rendered image, and the occurrence of depth discontinuity on the surface of the object at virtual image plane. Depth discontinuity causes artifacts on the rendered image. In this paper, these problems are solved by reconstructing disparity information at virtual camera position from neighboring two real cameras. In the experiments, high quality arbitrary viewpoint images were obtained.

  • PDF

키넥트 카메라를 이용한 실시간 가상 시점 영상 생성 기법 (Real-Time Virtual-View Image Synthesis Algorithm Using Kinect Camera)

  • 이규철;유지상
    • 한국통신학회논문지
    • /
    • 제38C권5호
    • /
    • pp.409-419
    • /
    • 2013
  • 키넥트 카메라는 마이크로소프트사에서 2010년 11월에 출시한 xbox360의 움직임 감지 카메라로 깊이 영상과 색상 영상을 획득할 수 있다. 하지만 적외선 패턴을 이용한 깊이 영상의 획득 방법의 한계로 인해 객체의 경계 주변으로 홀(hole) 및 잡음이 생기고 영상으로 재생 시 경계 주변에서 흔들림(flickering) 현상이 발생한다. 본 논문에서는 이러한 흔들림 현상을 보정하여 화질이 좋은 가상 시점 영상을 실시간으로 생성하는 기법을 제안한다. 제안하는 기법에서는 먼저 결합형 양방향 필터를 이용하여 경계 주변의 홀을 채운다. 경계 주변의 흔들림 현상은 화소를 탐색하여 처리하는 기법을 적용하여 보정한다. 향상된 깊이 영상과 색상 영상에 3D 워핑(3D warping) 기법을 적용하여 가상 시점 영상을 획득한다. 획득된 영상에서 가려짐 영역(occlusion region)으로 인하여 생기는 홀은 블록기반의 기울기 탐색 기법과 블록의 신뢰도를 이용하여 채우게 된다. 실험을 통해 제안하는 시스템이 가상 시점 영상을 실시간으로 합성하는 것을 확인하였다.

RGB-Depth 카메라를 이용한 현실-가상 융합 홀로그램 생성 시스템 (Real-Virtual Fusion Hologram Generation System using RGB-Depth Camera)

  • 송중석;박정식;박한훈;박종일
    • 방송공학회논문지
    • /
    • 제19권6호
    • /
    • pp.866-876
    • /
    • 2014
  • 컴퓨터 그래픽스(CG)가 포함된 영상 컨텐츠를 홀로그램으로 만들기 위해서는 가상 객체와 현실 공간의 자연스러운 3차원 정보 융합이 필요하다. 본 논문에서는 RGB-Depth 카메라를 이용하여 현실-가상 공간의 3차원 정보를 자연스럽게 융합하고, 융합된 결과를 다중 GPU 기반의 컴퓨터 생성 홀로그램(CGH) 연산부를 사용하여 디지털 홀로그램을 고속 생성하는 시스템을 제안한다. RGB-Depth 카메라를 이용하여 카메라 투영 행렬을 계산하고, 이를 이용하여 가상 객체의 3차원 정보를 계산한다. 계산된 가상 객체의 깊이 정보와 RGB-Depth 카메라로 입력받은 현실 공간의 깊이 영상을 Z 버퍼에 입력하여 자연스럽게 융합한 후, 그 결과를 다중 GPU 기반의 CGH 연산부로 전송하여 고속으로 디지털 홀로그램을 생성한다. 실험 결과, 제안하는 시스템을 통해 만들어진 가상 객체의 3차원 정보는 현실 공간의 3차원 정보와 약 0.5138%의 평균 상대 오차를 나타내어, 약 99%의 정밀도를 갖고 있는 것을 확인할 수 있었고, 현실-가상 융합 깊이 영상을 생성함과 동시에 다중 GPU를 이용하여 고속으로 디지털 홀로그램을 생성할 수 있음을 확인할 수 있었다.

모바일 디바이스를 이용한 3차원 특징점 추출 기법 (3D feature point extraction technique using a mobile device)

  • 김진겸;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.256-257
    • /
    • 2022
  • 본 논문에서는 단일 모바일 디바이스의 움직임을 통해 3차원 특징점을 추출하는 방법에 대해 소개한다. 단안 카메라를 이용해 카메라 움직임에 따라 2D 영상을 획득하고 Baseline을 추정한다. 특징점 기반의 스테레오 매칭을 진행한다. 특징점과 디스크립터를 획득하고 특징점을 매칭한다. 매칭된 특징점을 이용해 디스패리티를 계산하고 깊이값을 생성한다. 3차원 특징점은 카메라 움직임에 따라 업데이트 된다. 마지막으로 장면 전환 검출을 이용하여 장면 전환시 특징점을 리셋한다. 위 과정을 통해 특징점 데이터베이스에 평균 73.5%의 저장공간 추가 확보를 할 수 있다. TUM Dataset의 Depth Ground truth 값과 RGB 영상으로 제안한 알고리즘을 적용하여 3차원 특징점 결과와 비교하여 평균 26.88mm의 거리 차이가 나는것을 확인하였다.

  • PDF