• 제목/요약/키워드: 3D Depth Camera

검색결과 299건 처리시간 0.033초

다중 카메라 시스템을 위한 전방위 Visual-LiDAR SLAM (Omni-directional Visual-LiDAR SLAM for Multi-Camera System)

  • 지샨 자비드;김곤우
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.353-358
    • /
    • 2022
  • Due to the limited field of view of the pinhole camera, there is a lack of stability and accuracy in camera pose estimation applications such as visual SLAM. Nowadays, multiple-camera setups and large field of cameras are used to solve such issues. However, a multiple-camera system increases the computation complexity of the algorithm. Therefore, in multiple camera-assisted visual simultaneous localization and mapping (vSLAM) the multi-view tracking algorithm is proposed that can be used to balance the budget of the features in tracking and local mapping. The proposed algorithm is based on PanoSLAM architecture with a panoramic camera model. To avoid the scale issue 3D LiDAR is fused with omnidirectional camera setup. The depth is directly estimated from 3D LiDAR and the remaining features are triangulated from pose information. To validate the method, we collected a dataset from the outdoor environment and performed extensive experiments. The accuracy was measured by the absolute trajectory error which shows comparable robustness in various environments.

스테레오 영상의 깊이감에 따른 프레즌스, 지각된 특성, 부정적 경험의 차이 (Influence of Depth Differences by Setting 3D Stereoscopic Convergence Point on Presence, Display Perception, and Negative Experiences)

  • 이상욱;정동훈
    • 방송공학회논문지
    • /
    • 제19권1호
    • /
    • pp.44-55
    • /
    • 2014
  • 3D 영상의 궁극적인 목표는 부정적 경험을 최소화하면서 동시에 깊이감 정보를 추가하여 얻을 수 있는 더 큰 몰입감, 사실감과 같은 긍정적 경험을 극대화시키는 것이다. 본 연구는 3D 카메라의 컨버전스 레벨을 다르게 조절했을 때 나타나는 깊이감 차이가 긍정적 그리고 부정적 경험에 어떠한 영향을 미치는지 살펴보고, 최적의 파라미터를 찾는 것을 목적으로 하며 이를 위해 3D 뮤직 비디오를 5개의 다른 컨버전스 레벨에 따라 제작하고 100명을 대상으로 실험을 진행하였다. 연구 결과는 깊이감에 따라 프레즌스와 프레즌스의 하위차원인 공간관여, 몰입실재감 등에서 유의미한 차이가 있었으며, 지각된 특성과 지각된 특성의 하위차원인 깊이 지각감, 화면 전달감, 모양 지각감, 공간 확장감 역시 유의미한 차이가 있었다. 또한 부정적 경험 요인인 피로감과 부자연스러움도 그룹에 따라 각각 차이가 있음을 보여 주었다. 본 연구결과는 3D 영상 제작 시 카메라의 폭주각은 피사체 위치에서의 폭주각보다 $0.17^{\circ}$ 작게 하여 화면보다 18.66cm 돌출된 영상을 제작하는 것이 영상에 대한 프레즌스와 지각된 특성은 높이고 부정적 경험은 줄여주는 최적의 영상경험을 제공하는 것으로 나타났다.

반도체 자동화를 위한 빈피킹 로봇의 비전 기반 캘리브레이션 방법에 관한 연구 (A Study on Vision-based Calibration Method for Bin Picking Robots for Semiconductor Automation)

  • 구교문;김기현;김효영;심재홍
    • 반도체디스플레이기술학회지
    • /
    • 제22권1호
    • /
    • pp.72-77
    • /
    • 2023
  • In many manufacturing settings, including the semiconductor industry, products are completed by producing and assembling various components. Sorting out from randomly mixed parts and classification operations takes a lot of time and labor. Recently, many efforts have been made to select and assemble correct parts from mixed parts using robots. Automating the sorting and classification of randomly mixed components is difficult since various objects and the positions and attitudes of robots and cameras in 3D space need to be known. Previously, only objects in specific positions were grasped by robots or people sorting items directly. To enable robots to pick up random objects in 3D space, bin picking technology is required. To realize bin picking technology, it is essential to understand the coordinate system information between the robot, the grasping target object, and the camera. Calibration work to understand the coordinate system information between them is necessary to grasp the object recognized by the camera. It is difficult to restore the depth value of 2D images when 3D restoration is performed, which is necessary for bin picking technology. In this paper, we propose to use depth information of RGB-D camera for Z value in rotation and movement conversion used in calibration. Proceed with camera calibration for accurate coordinate system conversion of objects in 2D images, and proceed with calibration of robot and camera. We proved the effectiveness of the proposed method through accuracy evaluations for camera calibration and calibration between robots and cameras.

  • PDF

고해상도 스테레오 카메라와 저해상도 깊이 카메라를 이용한 다시점 영상 생성 (Multi-view Generation using High Resolution Stereoscopic Cameras and a Low Resolution Time-of-Flight Camera)

  • 이천;송혁;최병호;호요성
    • 한국통신학회논문지
    • /
    • 제37권4A호
    • /
    • pp.239-249
    • /
    • 2012
  • 최근 자연스러운 3차원 영상의 재현을 위하여 깊이영상을 이용한 영상합성 방법이 널리 이용되고 있다. 깊이영상은 시청자의 눈에 보이지는 않지만 합성영상의 화질을 결정하는 중요한 정보이므로 정확한 깊이영상을 획득하는 것이 중요하다. 특히 적외선 센서를 이용한 깊이 카메라(time-of-flight camera)는 보다 정확한 깊이영상을 획득하는데 이용되고 있다. 깊이 카메라는 스테레오 정합(stereo matching)에 비해 정확하고 실시간으로 깊이정보를 추출할 수 있지만, 제공되는 해상도가 너무 낮다는 단점이 있다. 본 논문에서는 단시점의 깊이영상을 두 시점의 깊이영상으로 확장하고, 이를 이용하여 여러 시점의 중간영상을 생성하는 시스템을 제안한다. 특히 복잡도를 낮춰 빠른 속도로 다시점 영상을 생성하는 시스템을 제안한다. 고해상도의 컬러 영상을 획득하기 위하여 두 대의 컬러 카메라를 설치하고 중간에 깊이 카메라를 획득한다. 그리고 깊이 카메라에서 획득한 깊이영상을 3차원 워핑을 이용하여 양쪽의 컬러 카메라의 위치로 시점 이동한다. 깊이영상과 컬러영상간의 객체 불일치 문제는 깊이값의 신뢰 도를 기반으로 한 조인트 양방향 필터(joint bilateral filter)를 이용하여 보정한다. 이러한 과정을 통해 얻은 깊이영상은 다시점 영상 합성 방법을 이용하여 다시점 영상을 획득한다. 이와 같은 과정은 다중 스레드를 이용하여 빠르게 처리할 수 있도록 구현했다. 실험을 통해 두 시점의 컬러영상과 두 시점의 깊이영상이 실시간으로 획득했고, 약 7 fps의 프레임율로 10시점의 중간시점을 동시에 생성했다.

구형 물체를 이용한 다중 RGB-D 카메라의 간편한 시점보정 (Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object)

  • 박순용;최성인
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권8호
    • /
    • pp.309-314
    • /
    • 2014
  • 물체의 360도 방향에서 다수의 RGB-D(RGB-Depth) 카메라를 이용하여 깊이영상을 획득하고 3차원 모델을 생성하기 위해서는 RGB-D 카메라 간의 3차원 변환관계를 구하여야 한다. 본 논문에서는 구형 물체를 이용하여 4대의 RGB-D 카메라 사이의 변환관계를 간편하게 구할 수 있는 시점보정(view calibration) 방법을 제안한다. 기존의 시점보정 방법들은 평면 형태의 체크보드나 코드화된 패턴을 가진 3차원 물체를 주로 사용함으로써 패턴의 특징이나 코드를 추출하고 정합하는 작업에 상당한 시간이 걸린다. 본 논문에서는 구형 물체의 깊이영상과 사진영상을 동시에 사용하여 간편하게 시점을 보정할 수 있는 방법을 제안한다. 우선 하나의 구를 모델링 공간에서 연속적으로 움직이는 동안 모든 RGB-D 카메라에서 구의 깊이영상과 사진영상을 동시에 획득한다. 다음으로 각 RGB-D 카메라의 좌표계에서 획득한 구의 3차원 중심좌표를 월드좌표계에서 일치되도록 각 카메라의 외부변수를 보정한다.

이종 입체영상 카메라의 피사계심도 일치화 (DOF Correction of Heterogeneous Stereoscopic Cameras)

  • 최성인;박순용
    • 전자공학회논문지
    • /
    • 제51권7호
    • /
    • pp.169-179
    • /
    • 2014
  • 본 논문에서는 서로 다른 광학적 특성을 가지는 3차원 카메라의 내부 변수 값을 자동으로 결정하여 스테레오 영상의 심도를 일치시키는 기술을 제안한다. 3차원 카메라에서 획득한 스테레오 영상에서 물체의 크기가 다르거나 심도의 차이가 큰 경우에 사람의 눈은 시각적 피로감을 느끼게 된다. 획득된 좌, 우 영상에서 물체의 크기가 동일하도록 카메라의 줌(zoom)을 LUT(Look Up Table)을 이용하여 일치시키고 피사체까지의 거리에 따라 전방심도와 후방심도의 범위를 결정한다. 이들을 이용하여 렌즈의 F-값을 결정하고 카메라의 광학 특성값을 자동으로 조절함으로써 스테레오 영상의 심도를 일치시킨다. 주-부 방식의 3차원 카메라와 GUI 소프트웨어를 통한 실험을 통하여 제안한 방법으로 스테레오 영상의 심도를 자동으로 일치시킬 수 있음을 보였다.

스테레오 영상을 이용한 Surface Rendering (Surface Rendering using Stereo Images)

  • 이성재;윤성원;조영빈;이명호
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2818-2820
    • /
    • 2001
  • This paper presents the method of 3D reconstruction of the depth information from the endoscopic stereo scopic images. After camera modeling to find camera parameters, we performed feature-point based stereo matching to find depth information. Acquired some depth information is finally 3D reconstructed using the NURBS(Non Uniform Rational B-Spline) algorithm. The final result image is helpful for the understanding of depth information visually.

  • PDF

깊이 및 컬러 영상을 이용한 실내환경의 3D 복원 (3D Reconstruction of an Indoor Scene Using Depth and Color Images)

  • 김세환;우운택
    • 한국HCI학회논문지
    • /
    • 제1권1호
    • /
    • pp.53-61
    • /
    • 2006
  • 본 논문에서는 다시점 카메라를 이용하여 실내환경의 3D 복원을 위한 새로운 방법을 제안한다. 지금까지 다양한 양안차 추정 알고리즘이 제안되었으며, 이는 활용 가능한 깊이 영상이 다양함을 의미한다. 따라서 본 논문에서는 일반화된 다시점 카메라로 여러 방향에서 획득된 3D 점군을 이용한 실내환경 복원 방법을 다룬다. 첫 번째, 3D 점군들의 시간적 특성을 기반으로 변화량이 큰 3D 점들을 제거하고, 공간적 특성을 기반으로 주변의 3D 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 시점에서의 3D 점군을 동일한 영상평면으로 투영하고 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용하여 대응점을 찾는다. 그리고 대응점간의 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 여러 시점에서 획득된 3D 점군과 한 쌍의 2D 영상을 동시에 이용하여 3D 점들의 위치를 세밀하게 조절함으로써 최종적인 3D 모델을 생성한다. 제안된 방법은 대응점을 2D 영상 평면에서 찾음으로써 계산의 복잡도를 줄였으며, 3D 데이터의 정밀도가 낮은 경우에도 주변화소와의 상관관계를 이용함으로써 효과적으로 동작한다. 또한, 다시점 카메라를 이용함으로써 수 시점에서의 깊이 영상과 컬러 영상만으로도 실내환경에 대한 3D 복원이 가능하다. 제안된 방법은 네비게이션 뿐만 아니라 상호작용을 위한 가상 환경 생성 및 Mediated Reality (MR) 응용 분야에 활용될 수 있다.

  • PDF

Generative Adversarial Network를 이용한 손실된 깊이 영상 복원 (Depth Image Restoration Using Generative Adversarial Network)

  • 나준엽;심창훈;박인규
    • 방송공학회논문지
    • /
    • 제23권5호
    • /
    • pp.614-621
    • /
    • 2018
  • 본 논문에서는 generative adversarial network (GAN)을 이용한 비감독 학습을 통해 깊이 카메라로 깊이 영상을 취득할 때 발생한 손실된 부분을 복원하는 기법을 제안한다. 제안하는 기법은 3D morphable model convolutional neural network (3DMM CNN)와 large-scale CelebFaces Attribute (CelebA) 데이터 셋 그리고 FaceWarehouse 데이터 셋을 이용하여 학습용 얼굴 깊이 영상을 생성하고 deep convolutional GAN (DCGAN)의 생성자(generator)와 Wasserstein distance를 손실함수로 적용한 구별자(discriminator)를 미니맥스 게임기법을 통해 학습시킨다. 이후 학습된 생성자와 손실 부분을 복원해주기 위한 새로운 손실함수를 이용하여 또 다른 학습을 통해 최종적으로 깊이 카메라로 취득된 얼굴 깊이 영상의 손실 부분을 복원한다.

실감방송을 위한 3차원 영상 촬영 및 3차원 콘텐츠 제작 기술 (3D Image Capturing and 3D Content Generation for Realistic Broadcasting)

  • 강윤석;호요성
    • 스마트미디어저널
    • /
    • 제1권1호
    • /
    • pp.10-16
    • /
    • 2012
  • 3차원 영상은 기본적으로 양안식 혹은 다시점 카메라를 이용해 촬영되며, 3차원 공간의 정보를 실시간적으로 얻기 위해 깊이 센서도 함께 사용된다. 이렇게 얻어진 영상은 잡음과 왜곡 제거, 깊이 생성, 중간 시점 합성 등의 3차원 영상처리 기술을 이용하여 3차원 입체영상 콘텐츠로 제작된다. 실감방송은 다양한 실감 콘텐츠를 이용하여 시청자가 마치 현장에 있는 것과 같은 생생함을 느끼게 해주는 차세대 방송이며, 3차원 입체영상 콘텐츠는 실감방송을 위한 가장 기본적인 미디어로 사용된다. 본 논문에서는 다양한 카메라 시스템을 이용하여 3차원 영상을 촬영하고 편집하여 실감방송을 위한 3차원 콘텐츠를 제작하는 연구의 국내외 기술동향을 살펴보고 주요 기술을 소개, 비교 및 분석한다.

  • PDF