• 제목/요약/키워드: 3D depth sensor camera

검색결과 49건 처리시간 0.024초

CALOS : 주행계 추정을 위한 카메라와 레이저 융합 (CALOS : Camera And Laser for Odometry Sensing)

  • 복윤수;황영배;권인소
    • 로봇학회논문지
    • /
    • 제1권2호
    • /
    • pp.180-187
    • /
    • 2006
  • This paper presents a new sensor system, CALOS, for motion estimation and 3D reconstruction. The 2D laser sensor provides accurate depth information of a plane, not the whole 3D structure. On the contrary, the CCD cameras provide the projected image of whole 3D scene, not the depth of the scene. To overcome the limitations, we combine these two types of sensors, the laser sensor and the CCD cameras. We develop a motion estimation scheme appropriate for this sensor system. In the proposed scheme, the motion between two frames is estimated by using three points among the scan data and their corresponding image points, and refined by non-linear optimization. We validate the accuracy of the proposed method by 3D reconstruction using real images. The results show that the proposed system can be a practical solution for motion estimation as well as for 3D reconstruction.

  • PDF

깊이 영상 카메라로부터 획득된 3D 영상의 품질 향상 방법 (A method of improving the quality of 3D images acquired from RGB-depth camera)

  • 박병서;김동욱;서영호
    • 한국정보통신학회논문지
    • /
    • 제25권5호
    • /
    • pp.637-644
    • /
    • 2021
  • 일반적으로, 컴퓨터 비전, 로보틱스, 증강현실 분야에서 3차원 공간 및 3차원 객체 검출 및 인식기술의 중요성이 대두되고 있다. 특히, 마이크로소프트사의 키넥트(Microsoft Kinect) 방식을 사용하는 영상 센서를 통하여 RGB 영상과 깊이 영상을 실시간 획득하는 것이 가능해짐으로 인하여 객체 검출, 추적 및 인식 연구에 많은 변화를 가져오고 있다. 본 논문에서는 다시점 카메라 시스템 상에서의 깊이 기반(RGB-Depth) 카메라를 통해 획득된 영상을 처리하여 3D 복원 영상의 품질을 향상하는 방법을 제안한다. 본 논문에서는 컬러 영상으로부터 획득한 마스크 적용을 통해 객체 바깥쪽 잡음을 제거하는 방법과 객체 안쪽의 픽셀 간 깊이 정보 차이를 구하는 필터링 연산을 결합하여 적용하는 방법을 제시하였다. 각 실험 결과를 통해 제시한 방법이 효과적으로 잡음을 제거하여 3D 복원 영상의 품질을 향상할 수 있음을 확인하였다.

스테레오 적외선 조명 및 단일카메라를 이용한 3차원 환경인지 (3D Environment Perception using Stereo Infrared Light Sources and a Camera)

  • 이수용;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.519-524
    • /
    • 2009
  • This paper describes a new sensor system for 3D environment perception using stereo structured infrared light sources and a camera. Environment and obstacle sensing is the key issue for mobile robot localization and navigation. Laser scanners and infrared scanners cover $180^{\circ}$ and are accurate but too expensive. Those sensors use rotating light beams so that the range measurements are constrained on a plane. 3D measurements are much more useful in many ways for obstacle detection, map building and localization. Stereo vision is very common way of getting the depth information of 3D environment. However, it requires that the correspondence should be clearly identified and it also heavily depends on the light condition of the environment. Instead of using stereo camera, monocular camera and two projected infrared light sources are used in order to reduce the effects of the ambient light while getting 3D depth map. Modeling of the projected light pattern enabled precise estimation of the range. Two successive captures of the image with left and right infrared light projection provide several benefits, which include wider area of depth measurement, higher spatial resolution and the visibility perception.

ToF와 스테레오 융합을 이용한 3차원 복원 데이터 정밀도 분석 기법 (Analysis of 3D Reconstruction Accuracy by ToF-Stereo Fusion)

  • 정석우;이연성;이경택
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.466-468
    • /
    • 2022
  • 3차원 복원은 AR, XR, 메타버스 등에서 활용되고 있는 중요한 주제입니다. 3차원 재구성을 하기 위해서는 스테레오 카메라, ToF 센서 등을 이용해 깊이 지도를 구해야 합니다. 우리는 두가지 센서를 모두 상호보완적으로 이용하여 3차원 정보를 정밀하게 구하는 방법을 고안하였습니다. 우선 두 카메라의 캘리브레이션을 적용하여 색상 정보와 깊이 정보를 일치시킵니다. 그리고 두 센서로부터의 깊이 지도는 3차원 정합과 재투사 방법을 통하여 융합하였습니다. 융합된 3차원 복원 데이터는 RTC360을 이용해 구한 정밀 데이터와 비교 분석하였습니다. 평균 거리 오차 분석을 위해 상용프로그램 Geomagic Wrap을 활용하였습니다. 제안하는 방법을 구현하고 실공간 데이터를 이용하여 실험을 진행했습니다.

  • PDF

3D Head Modeling using Depth Sensor

  • Song, Eungyeol;Choi, Jaesung;Jeon, Taejae;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제2권1호
    • /
    • pp.13-16
    • /
    • 2015
  • Purpose We conducted a study on the reconstruction of the head's shape in 3D using the ToF depth sensor. A time-of-flight camera (ToF camera) is a range imaging camera system that resolves distance based on the known speed of light, measuring the time-of-flight of a light signal between the camera and the subject for each point of the image. The above method is the safest way of measuring the head shape of plagiocephaly patients in 3D. The texture, appearance and size of the head were reconstructed from the measured data and we used the SDF method for a precise reconstruction. Materials and Methods To generate a precise model, mesh was generated by using Marching cube and SDF. Results The ground truth was determined by measuring 10 people of experiment participants for 3 times repetitively and the created 3D model of the same part from this experiment was measured as well. Measurement of actual head circumference and the reconstructed model were made according to the layer 3 standard and measurement errors were also calculated. As a result, we were able to gain exact results with an average error of 0.9 cm, standard deviation of 0.9, min: 0.2 and max: 1.4. Conclusion The suggested method was able to complete the 3D model by minimizing errors. This model is very effective in terms of quantitative and objective evaluation. However, measurement range somewhat lacks 3D information for the manufacture of protective helmets, as measurements were made according to the layer 3 standard. As a result, measurement range will need to be widened to facilitate production of more precise and perfectively protective helmets by conducting scans on all head circumferences in the future.

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.

랜덤 무향 칼만 필터를 이용한 RGB+D 카메라 센서의 잡음 보정 기법 (Noise Reduction Method Using Randomized Unscented Kalman Filter for RGB+D Camera Sensors)

  • 권오설
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.808-811
    • /
    • 2020
  • 본 논문은 랜덤 무향 칼만 필터를 이용하여 키넥트 카메라 센서의 오차를 최소화하는 방법을 제안한다. RGB 값과 깊이(Depth) 정보를 제공하는 RGB+D 카메라는 센서의 오차로 인해 뻐대 검출 과정에서 성능 저하의 원인을 제공한다. 기존에는 다양한 필터링 기법을 이용하여 오차를 제거하였으나 비선형 잡음을 효과적으로 제거하는데 한계가 있었다. 이에 본 논문에서는 비선형 잡음 특성을 예측하고 업데이트하기 위해 랜덤 무향 칼만 필터를 적용하였으며 이를 바탕으로 뻐대 검출 성능을 높이고자 하였다. 실험 결과 제안한 방법은 기존의 방법에 비해 정량적 오차를 줄였으며 뼈대의 3D 검출 시 우수한 결과를 확인할 수 있었다.

깊이 카메라를 이용한 객체 분리 및 고해상도 깊이 맵 생성 방법 (Foreground Segmentation and High-Resolution Depth Map Generation Using a Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 한국통신학회논문지
    • /
    • 제37C권9호
    • /
    • pp.751-756
    • /
    • 2012
  • 본 논문에서는 색상 카메라와 Time-of-Flight (TOF) 깊이 카메라를 이용해 촬영된 장면에서 전경 영역을 분리하고 영상의 고해상도 깊이 정보를 구하는 방법에 대해 제안한다. 깊이 카메라는 장면의 깊이 정보를 실시간으로 측정할 수 있는 장점이 있지만 잡음과 왜곡이 발생하고 색상 영상과의 상관도도 떨어진다. 따라서 이를 색상 영상과 함께 사용하기 위한 색상 영상의 영역화 및 깊이 카메라 영상의 3차원 투영(warping) 작업, 깊이 경계 영역 탐색 등을 진행한 후, 전경의 객체를 분리하고, 객체와 배경에 대하여 깊이 값 계산한다. 깊이 카메라로부터 얻은 초기 깊이 정보를 이용하여 색상 영상에서 구해진 깊이 맵은 기존의 방법인 스테레오 정합 등의 방법보다 우수한 성능을 나타내었고, 무늬가 없는 영역이나 객체 경계 영역에서도 정확한 깊이 정보를 구할 수 있었다.

슬리트형 레이저 투광기를 이용한 고정밀 3차원 물체계측 (High precision 3-dimensional object measurement using slit type of laser projector)

  • 김태효;박영석;이취중
    • 제어로봇시스템학회논문지
    • /
    • 제3권6호
    • /
    • pp.613-618
    • /
    • 1997
  • In this paper, we designed a line CCD camera for a flying image, which is composed of a line CCD sensor(2048 cells) and a rotating mirror, and investigated its optical properties. We also made the 3-D image from the flying image which is made of 2-D image being juxtaposed to 1-D images obtained by the camera, and performed the calibration to acquire high precision 3-D data. As a result, we obtained the 3-D measurement system using the slit type of laser projector is available to measure the high precision shape of objects.

  • PDF

키넥트 깊이 정보와 DSLR을 이용한 스테레오스코픽 비디오 합성 (Stereoscopic Video Compositing with a DSLR and Depth Information by Kinect)

  • 권순철;강원영;정영후;이승현
    • 한국통신학회논문지
    • /
    • 제38C권10호
    • /
    • pp.920-927
    • /
    • 2013
  • 크로마키 방식에 의한 영상 합성은 색상 정보에 의해 전경 후경을 분리하기 때문에 객체 색상의 제약과 특정 스크린이 위치해 있어야 하는 공간의 제약이 있다. 특히 스테레오스코픽 3D 디스플레이를 위한 영상 합성은 크로마키 방식과는 달리 3D 공간에서의 자연스러운 영상 합성이 요구된다. 본 논문에서는 고해상도의 깊이 정보를 이용하여 깊이 키잉(depth keying) 방식에 의한 3D 공간에서의 스테레오스코픽 영상 합성을 제안하였다. 이를 위해 DSLR과 마이크로소프트사 키넥트 센서간의 카메라 캘리브레이션을 통해 고화질의 깊이 정보 획득 후 RGB 정보와의 정합 과정을 통해 3차원 데이터를 획득하였다. 깊이 정보에 의해 배경과 분리 된 객체는 3차원 공간에서의 포인트 클라우드 형태로 표현되어 가상 배경과 합성하였다. 이후 가상의 스테레오 카메라에 의해 Full HD 스테레오스코픽 비디오 합성 영상 획득 결과를 보였다.