• 제목/요약/키워드: RGB-D camera

검색결과 96건 처리시간 0.028초

Object Detection with LiDAR Point Cloud and RGBD Synthesis Using GNN

  • Jung, Tae-Won;Jeong, Chi-Seo;Lee, Jong-Yong;Jung, Kye-Dong
    • International journal of advanced smart convergence
    • /
    • 제9권3호
    • /
    • pp.192-198
    • /
    • 2020
  • The 3D point cloud is a key technology of object detection for virtual reality and augmented reality. In order to apply various areas of object detection, it is necessary to obtain 3D information and even color information more easily. In general, to generate a 3D point cloud, it is acquired using an expensive scanner device. However, 3D and characteristic information such as RGB and depth can be easily obtained in a mobile device. GNN (Graph Neural Network) can be used for object detection based on these characteristics. In this paper, we have generated RGB and RGBD by detecting basic information and characteristic information from the KITTI dataset, which is often used in 3D point cloud object detection. We have generated RGB-GNN with i-GNN, which is the most widely used LiDAR characteristic information, and color information characteristics that can be obtained from mobile devices. We compared and analyzed object detection accuracy using RGBD-GNN, which characterizes color and depth information.

Real-time Human Pose Estimation using RGB-D images and Deep Learning

  • 림빈보니카;성낙준;마준;최유주;홍민
    • 인터넷정보학회논문지
    • /
    • 제21권3호
    • /
    • pp.113-121
    • /
    • 2020
  • Human Pose Estimation (HPE) which localizes the human body joints becomes a high potential for high-level applications in the field of computer vision. The main challenges of HPE in real-time are occlusion, illumination change and diversity of pose appearance. The single RGB image is fed into HPE framework in order to reduce the computation cost by using depth-independent device such as a common camera, webcam, or phone cam. However, HPE based on the single RGB is not able to solve the above challenges due to inherent characteristics of color or texture. On the other hand, depth information which is fed into HPE framework and detects the human body parts in 3D coordinates can be usefully used to solve the above challenges. However, the depth information-based HPE requires the depth-dependent device which has space constraint and is cost consuming. Especially, the result of depth information-based HPE is less reliable due to the requirement of pose initialization and less stabilization of frame tracking. Therefore, this paper proposes a new method of HPE which is robust in estimating self-occlusion. There are many human parts which can be occluded by other body parts. However, this paper focuses only on head self-occlusion. The new method is a combination of the RGB image-based HPE framework and the depth information-based HPE framework. We evaluated the performance of the proposed method by COCO Object Keypoint Similarity library. By taking an advantage of RGB image-based HPE method and depth information-based HPE method, our HPE method based on RGB-D achieved the mAP of 0.903 and mAR of 0.938. It proved that our method outperforms the RGB-based HPE and the depth-based HPE.

실내 이동로봇을 위한 거리 정보 기반 물체 인식 방법 (An Object Recognition Method Based on Depth Information for an Indoor Mobile Robot)

  • 박정길;박재병
    • 제어로봇시스템학회논문지
    • /
    • 제21권10호
    • /
    • pp.958-964
    • /
    • 2015
  • In this paper, an object recognition method based on the depth information from the RGB-D camera, Xtion, is proposed for an indoor mobile robot. First, the RANdom SAmple Consensus (RANSAC) algorithm is applied to the point cloud obtained from the RGB-D camera to detect and remove the floor points. Next, the removed point cloud is classified by the k-means clustering method as each object's point cloud, and the normal vector of each point is obtained by using the k-d tree search. The obtained normal vectors are classified by the trained multi-layer perceptron as 18 classes and used as features for object recognition. To distinguish an object from another object, the similarity between them is measured by using Levenshtein distance. To verify the effectiveness and feasibility of the proposed object recognition method, the experiments are carried out with several similar boxes.

UAV 기반 열적외선 카메라를 이용한 태양광 모듈 고장진단 실험 (Test of Fault Detection to Solar-Light Module Using UAV Based Thermal Infrared Camera)

  • 이근상;이종조
    • 한국지리정보학회지
    • /
    • 제19권4호
    • /
    • pp.106-117
    • /
    • 2016
  • 최근 환경보호와 신재생에너지 확보 일환으로 태양광발전소가 널리 보급되고 있으며, 태양광 모듈의 효율적인 관리를 위해서는 정기적인 점검이 필요하다. 본 연구에서는 UAV 기반 열적외선 카메라와 GIS 공간분석을 통해 태양광 모듈에 대한 고장여부를 진단할 수 있는 실험을 실시하였다. 먼저 고정익 UAV와 RGB 카메라를 이용하여 영상을 촬영한 후 Pix4D SW를 통해 정사영상을 생성하였으며, 정사영상 자료를 이용하여 태양광 모듈 레이어를 구축한 후 코드를 입력하였다. 또한 태양광 모듈 고장여부를 진단하기 위해 고무덮개를 태양광 모듈에 설치하였으며, 열적외선 카메라로부터 얻어진 온도 정보와 태양광 모듈 레이어를 기반으로 Zonalmean 함수를 통해 태양광 모듈별 평균온도를 계산할 수 있었다. 마지막으로 GIS 공간분석을 통해 이상 발열이 확인된 $37^{\circ}C$ 이상의 모듈을 자동으로 추출하고 각 모듈별 고유식별 코드를 식별함으로써 고무 덮개를 설치한 모듈의 위치를 정확하게 분석할 수 있었다.

모바일 디바이스를 이용한 3차원 특징점 추출 기법 (3D feature point extraction technique using a mobile device)

  • 김진겸;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.256-257
    • /
    • 2022
  • 본 논문에서는 단일 모바일 디바이스의 움직임을 통해 3차원 특징점을 추출하는 방법에 대해 소개한다. 단안 카메라를 이용해 카메라 움직임에 따라 2D 영상을 획득하고 Baseline을 추정한다. 특징점 기반의 스테레오 매칭을 진행한다. 특징점과 디스크립터를 획득하고 특징점을 매칭한다. 매칭된 특징점을 이용해 디스패리티를 계산하고 깊이값을 생성한다. 3차원 특징점은 카메라 움직임에 따라 업데이트 된다. 마지막으로 장면 전환 검출을 이용하여 장면 전환시 특징점을 리셋한다. 위 과정을 통해 특징점 데이터베이스에 평균 73.5%의 저장공간 추가 확보를 할 수 있다. TUM Dataset의 Depth Ground truth 값과 RGB 영상으로 제안한 알고리즘을 적용하여 3차원 특징점 결과와 비교하여 평균 26.88mm의 거리 차이가 나는것을 확인하였다.

  • PDF

3D 영상을 활용한 매실 인식 및 크기 추정 (3D Image Processing for Recognition and Size Estimation of the Fruit of Plum(Japanese Apricot))

  • 장은채;박성진;박우준;배영환;김혁주
    • 한국콘텐츠학회논문지
    • /
    • 제21권2호
    • /
    • pp.130-139
    • /
    • 2021
  • 본 연구에서는 매실에 가장 큰 피해를 주는 복숭아 씨살이좀벌의 방제 적기 안내를 위해 3D 영상을 활용한 매실 인식 및 크기 추정 프로그램을 통해 매실 크기를 예측하였다. 3차원 영상 측정이 가능한 Kinect 2.0 Camera 및 RealSense Depth Camera D415를 사용하여 야간 영상 촬영을 진행하였다. 획득한 영상을 토대로 MATLAB R2018a를 이용하여 영상 전처리, 크기 추정이 가능한 매실 추출, RGB 및 Depth 영상 정합 및 매실 크기 추정의 4단계로 구성된 매실 인식 및 추정 프로그램을 구현해 매실 성장 단계를 고려하여 2018년의 5개 영상 및 2019년의 5개의 영상을 분석하였다. 10개 영상에 대해 프로그램을 구동하여 얻은 결과를 통해 매실 인식률의 평균 61.9%, 매실 인식 오류율 평균 0.5% 및 크기 측정 오차율 평균 3.6%를 도출하였다. 이러한 매실 인식 및 크기 추정 프로그램의 지속적인 개발은 향후 정확한 열매 크기 모니터링 및 복숭아 씨살이좀벌의 적기 방제 시스템 개발을 가능하게 할 것으로 예상한다.

얼굴 포즈 추정을 이용한 다중 RGB-D 카메라 기반의 2D - 3D 얼굴 인증을 위한 시스템 (2D - 3D Human Face Verification System based on Multiple RGB-D Camera using Head Pose Estimation)

  • 김정민;이성철;김학일
    • 정보보호학회논문지
    • /
    • 제24권4호
    • /
    • pp.607-616
    • /
    • 2014
  • 현재 영상감시 시스템에서 얼굴 인식을 통한 사람의 신원 확인은 정면 얼굴이 아닌 관계로 매우 어려운 기술에 속한다. 일반적인 사람들의 얼굴 영상과 입력된 얼굴 영상을 비교하여 유사도를 파악하고 신원을 확인 하는 기술은 각도의 차이에 따라 정확도의 오차가 심해진다. 이런 문제를 해결하기 위해 본 논문에서는 POSIT을 사용하여 얼굴 포즈 측정을 하고, 추정된 각도를 이용하여 3D 얼굴 영상을 제작 후 매칭 하여 일반적인 정면 영상끼리의 매칭이 아닌 rotated face를 이용한 매칭을 해보기로 한다. 얼굴을 매칭 하는 데는 상용화된 얼굴인식 알고리즘을 사용하였다. 얼굴 포즈 추정은 $10^{\circ}$이내의 오차를 보였고, 얼굴인증 성능은 약 95% 정도임을 확인하였다.

Stereo Vision Based 3-D Motion Tracking for Human Animation

  • Han, Seung-Il;Kang, Rae-Won;Lee, Sang-Jun;Ju, Woo-Suk;Lee, Joan-Jae
    • 한국멀티미디어학회논문지
    • /
    • 제10권6호
    • /
    • pp.716-725
    • /
    • 2007
  • In this paper we describe a motion tracking algorithm for 3D human animation using stereo vision system. This allows us to extract the motion data of the end effectors of human body by following the movement through segmentation process in HIS or RGB color model, and then blob analysis is used to detect robust shape. When two hands or two foots are crossed at any position and become disjointed, an adaptive algorithm is presented to recognize whether it is left or right one. And the real motion is the 3-D coordinate motion. A mono image data is a data of 2D coordinate. This data doesn't acquire distance from a camera. By stereo vision like human vision, we can acquire a data of 3D motion such as left, right motion from bottom and distance of objects from camera. This requests a depth value including x axis and y axis coordinate in mono image for transforming 3D coordinate. This depth value(z axis) is calculated by disparity of stereo vision by using only end-effectors of images. The position of the inner joints is calculated and 3D character can be visualized using inverse kinematics.

  • PDF

RGB-Depth 카메라와 Deep Convolution Neural Networks 기반의 실시간 사람 양손 3D 포즈 추정 (Real-time 3D Pose Estimation of Both Human Hands via RGB-Depth Camera and Deep Convolutional Neural Networks)

  • 박나현;지용빈;기건;김태연;박혜민;김태성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.686-689
    • /
    • 2018
  • 3D 손 포즈 추정(Hand Pose Estimation, HPE)은 스마트 인간 컴퓨터 인터페이스를 위해서 중요한 기술이다. 이 연구에서는 딥러닝 방법을 기반으로 하여 단일 RGB-Depth 카메라로 촬영한 양손의 3D 손 자세를 실시간으로 인식하는 손 포즈 추정 시스템을 제시한다. 손 포즈 추정 시스템은 4단계로 구성된다. 첫째, Skin Detection 및 Depth cutting 알고리즘을 사용하여 양손을 RGB와 깊이 영상에서 감지하고 추출한다. 둘째, Convolutional Neural Network(CNN) Classifier는 오른손과 왼손을 구별하는데 사용된다. CNN Classifier 는 3개의 convolution layer와 2개의 Fully-Connected Layer로 구성되어 있으며, 추출된 깊이 영상을 입력으로 사용한다. 셋째, 학습된 CNN regressor는 추출된 왼쪽 및 오른쪽 손의 깊이 영상에서 손 관절을 추정하기 위해 다수의 Convolutional Layers, Pooling Layers, Fully Connected Layers로 구성된다. CNN classifier와 regressor는 22,000개 깊이 영상 데이터셋으로 학습된다. 마지막으로, 각 손의 3D 손 자세는 추정된 손 관절 정보로부터 재구성된다. 테스트 결과, CNN classifier는 오른쪽 손과 왼쪽 손을 96.9%의 정확도로 구별할 수 있으며, CNN regressor는 형균 8.48mm의 오차 범위로 3D 손 관절 정보를 추정할 수 있다. 본 연구에서 제안하는 손 포즈 추정 시스템은 가상 현실(virtual reality, VR), 증강 현실(Augmented Reality, AR) 및 융합 현실 (Mixed Reality, MR) 응용 프로그램을 포함한 다양한 응용 분야에서 사용할 수 있다.

Full-Color AMOLED with RGBW Pixel Pattern

  • Amold, A.D.;Hatwar, T.K.;Hettel, M.V.;Kane, P.J.;Miller, M.E.;Murdoch, M.J.;Spindler, J.P.;Slyke, S.A. Van;Mameno, K.;Nishikawa, R.;Omura, T.;Matsumoto, S.
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2004년도 Asia Display / IMID 04
    • /
    • pp.808-811
    • /
    • 2004
  • A full-color AMOLED display with an RGBW color filter pattern has been fabricated. Displays with this format require about $^1/_2$ the power of analogous RGB displays. RGBW and RGB 2.16inch diagonal displays with average power consumptions of 180 mW and 340 mW, respectively, are demonstrated for a set of standard digital still camera images at a luminance of 100 cd/$m^2$. In both cases, a white-emitting AMOLED is used as the light source. The higher efficiency of the RGBW format results because a large fraction of a typical image can be represented as white, and the white sub-pixel in an RGBW AMOLED display is highly efficient because of the absence of any color filter. RGBW and RGB AMOLED displays have the same color gamut and, aside from the power consumption difference, are indistinguishable.

  • PDF