• 제목/요약/키워드: Kinect depth camera

검색결과 76건 처리시간 0.022초

키넥트 깊이 정보와 컨볼루션 신경망을 이용한 개별 돼지의 탐지 (Individual Pig Detection Using Kinect Depth Information and Convolutional Neural Network)

  • 이준희;이종욱;박대희;정용화
    • 한국콘텐츠학회논문지
    • /
    • 제18권2호
    • /
    • pp.1-10
    • /
    • 2018
  • 혼잡한 돈방에서 사육되는 이유자돈들의 공격적인 이상행동들은 축산농가의 경제적 손실을 야기할 뿐만 아니라 동물복지입장에서도 바람직하지 않다. 이러한 문제점의 해결책으로, 최근 IT기반의 연구들이 소개되고 있으나 혼잡한 돈방에서의 돼지 객체 탐지는 여전히 도전적인 문제로 알려져 있다. 본 논문에서는 개별 돼지의 탐지를 위한 키넥트 카메라와 딥러닝 기반의 새로운 모니터링 시스템을 제안한다. 제안된 시스템은 다음과 같다. 1) 키넥트 카메라로부터 취득한 깊이 영상에서 배경 차영상 기법과 깊이 임계값을 이용하여 서있는 돼지만을 탐지한다, 2) 딥러닝 알고리즘 중 최근 가장 빠르고 높은 정확도를 보이는 YOLO(You Only Look Once)를 이용하여 서있는 돼지들을 탐지한다. 본 연구의 실험 결과에 의하면, 제안된 시스템은 경제적인 비용(저가의 키넥트 센서)과 시스템 정확도(평균 99.40% 객체 검출율과 탐지 정확도)로 개별 돼지 객체들을 실시간으로 탐지할 수 있음을 실험적으로 확인하였다.

다시점 촬영 시스템을 위한 카메라 동기화 구현 (Implementation of camera synchronization for multi-view capturing system)

  • 박정탁;박병서;서영호
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.268-269
    • /
    • 2021
  • 본 논문에서는 RGB이미지와 Depth 이미지를 촬영할 수 있는 촬영 장비인 Azure Kinect를 사용해 다시점 촬영 시스템 구성을 위한 카메라 동기화 시스템을 제안한다. 제안한 시스템에는 8대의 Azure Kinect 카메라를 사용하고 있으며 각 카메라는 3.5-mm 오디오 케이블로 연결되어 외부동기화 신호를 전달한다. 그리고 이미지를 저장할 때 발생하는 메모리에서의 병목현상을 최소화하기 위해 촬영 시스템의 동작을 16개의 버퍼로 나누어 병렬 컴퓨팅으로 진행한다. 이후 동기화 여부에 따른 차리를 디바이스 타임스탬프를 기준으로 하여 비교한다.

  • PDF

랜덤 무향 칼만 필터를 이용한 RGB+D 카메라 센서의 잡음 보정 기법 (Noise Reduction Method Using Randomized Unscented Kalman Filter for RGB+D Camera Sensors)

  • 권오설
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.808-811
    • /
    • 2020
  • 본 논문은 랜덤 무향 칼만 필터를 이용하여 키넥트 카메라 센서의 오차를 최소화하는 방법을 제안한다. RGB 값과 깊이(Depth) 정보를 제공하는 RGB+D 카메라는 센서의 오차로 인해 뻐대 검출 과정에서 성능 저하의 원인을 제공한다. 기존에는 다양한 필터링 기법을 이용하여 오차를 제거하였으나 비선형 잡음을 효과적으로 제거하는데 한계가 있었다. 이에 본 논문에서는 비선형 잡음 특성을 예측하고 업데이트하기 위해 랜덤 무향 칼만 필터를 적용하였으며 이를 바탕으로 뻐대 검출 성능을 높이고자 하였다. 실험 결과 제안한 방법은 기존의 방법에 비해 정량적 오차를 줄였으며 뼈대의 3D 검출 시 우수한 결과를 확인할 수 있었다.

깊이 센서를 이용한 등고선 레이어 생성 및 모델링 방법 (A Method for Generation of Contour lines and 3D Modeling using Depth Sensor)

  • 정훈조;이동은
    • 디지털산업정보학회논문지
    • /
    • 제12권1호
    • /
    • pp.27-33
    • /
    • 2016
  • In this study we propose a method for 3D landform reconstruction and object modeling method by generating contour lines on the map using a depth sensor which abstracts characteristics of geological layers from the depth map. Unlike the common visual camera, the depth-sensor is not affected by the intensity of illumination, and therefore a more robust contour and object can be extracted. The algorithm suggested in this paper first abstracts the characteristics of each geological layer from the depth map image and rearranges it into the proper order, then creates contour lines using the Bezier curve. Using the created contour lines, 3D images are reconstructed through rendering by mapping RGB images of the visual camera. Experimental results show that the proposed method using depth sensor can reconstruct contour map and 3D modeling in real-time. The generation of the contours with depth data is more efficient and economical in terms of the quality and accuracy.

깊이 센서를 이용한 능동형태모델 기반의 객체 추적 방법 (Active Shape Model-based Object Tracking using Depth Sensor)

  • 정훈조;이동은
    • 디지털산업정보학회논문지
    • /
    • 제9권1호
    • /
    • pp.141-150
    • /
    • 2013
  • This study proposes technology using Active Shape Model to track the object separating it by depth-sensors. Unlike the common visual camera, the depth-sensor is not affected by the intensity of illumination, and therefore a more robust object can be extracted. The proposed algorithm removes the horizontal component from the information of the initial depth map and separates the object using the vertical component. In addition, it is also a more efficient morphology, and labeling to perform image correction and object extraction. By applying Active Shape Model to the information of an extracted object, it can track the object more robustly. Active Shape Model has a robust feature-to-object occlusion phenomenon. In comparison to visual camera-based object tracking algorithms, the proposed technology, using the existing depth of the sensor, is more efficient and robust at object tracking. Experimental results, show that the proposed ASM-based algorithm using depth sensor can robustly track objects in real-time.

깊이카메라를 이용한 파고장 계측 시스템의 구축 (Development of Wave Height Field Measurement System Using a Depth Camera)

  • 김호용;전찬일;서정화
    • 대한조선학회논문집
    • /
    • 제58권6호
    • /
    • pp.382-390
    • /
    • 2021
  • The present study suggests the application of a depth camera for wave height field measurement, focusing on the calibration procedure and test setup. Azure Kinect system is used to measure the water surface elevation, with a field of view of 800 mm × 800 mm and repetition rate of 30 Hz. In the optimal optical setup, the spatial resolution of the field of view is 288 × 320 pixels. To detect the water surface by the depth camera, tracer particles that float on the water and reflects infrared is added. The calibration consists of wave height scaling and correction of the barrel distortion. A polynomial regression model of image correction is established using machine learning. The measurement results by the depth camera are compared with capacitance type wave height gauge measurement, to show good agreement.

SPAD과 CNN의 특성을 반영한 ToF 센서와 스테레오 카메라 융합 시스템 (Fusion System of Time-of-Flight Sensor and Stereo Cameras Considering Single Photon Avalanche Diode and Convolutional Neural Network)

  • 김동엽;이재민;전세웅
    • 로봇학회논문지
    • /
    • 제13권4호
    • /
    • pp.230-236
    • /
    • 2018
  • 3D depth perception has played an important role in robotics, and many sensory methods have also proposed for it. As a photodetector for 3D sensing, single photon avalanche diode (SPAD) is suggested due to sensitivity and accuracy. We have researched for applying a SPAD chip in our fusion system of time-of-fight (ToF) sensor and stereo camera. Our goal is to upsample of SPAD resolution using RGB stereo camera. Currently, we have 64 x 32 resolution SPAD ToF Sensor, even though there are higher resolution depth sensors such as Kinect V2 and Cube-Eye. This may be a weak point of our system, however we exploit this gap using a transition of idea. A convolution neural network (CNN) is designed to upsample our low resolution depth map using the data of the higher resolution depth as label data. Then, the upsampled depth data using CNN and stereo camera depth data are fused using semi-global matching (SGM) algorithm. We proposed simplified fusion method created for the embedded system.

Convex-hull을 이용한 기하학적 특징 기반의 손 모양 인식 기법 (Hand shape recognition based on geometric feature using the convex-hull)

  • 최인규;유지상
    • 한국정보통신학회논문지
    • /
    • 제18권8호
    • /
    • pp.1931-1940
    • /
    • 2014
  • x본 논문에서는 키넥트(Kinect) 시스템에서 획득한 깊이 영상으로부터 convex-hull을 이용한 기하학적 특징 기반의 손 모양 인식 기법을 제안한다. 키넥트 시스템은 깊이 영상과 사용자의 골격 정보를 제공하는 카메라로 손 영역 검출에 유용하게 활용할 수 있다. 제안하는 기법에서는 키넥트로 획득한 깊이 영상에서 손 영역을 검출하고, 이 손 영역의 convex-hull을 구한다. 손 모양에 따라서 변하는 convex-hull에서 잡음으로 생긴 경계점 및 인식에 불필요한 경계점을 일련의 기법을 통해 제거한다. 추려진 경계점을 통해 재구성된 convex-hull을 특정 다각형으로 판단하고, 이 다각형의 내각의 합을 이용하여 손 모양을 인식하게 된다. 실험을 통해 제안하는 기법이 인식하고자 하는 모델에 대하여 높은 인식률을 보여준다는 것을 확인하였고, 단순히 특정 방향으로 고정된 손 모양뿐만 아니라 같은 모양이나 방향이 틀어진 손 모양에 대해서도 우수한 인식 성능을 확인하였다.

여러 대의 키넥트 뎁스 카메라를 이용한 인간공학 시뮬레이션 모델링 자동화에 관한 연구 (A Study on Modeling Automation of Human Engineering Simulation Using Multi Kinect Depth Cameras)

  • 전찬모;이주연;노상도
    • 한국CDE학회논문집
    • /
    • 제21권1호
    • /
    • pp.9-19
    • /
    • 2016
  • Applying human engineering simulation to analyzing work capability and movements of operators during manufacturing is highly demanded. However, difficulty in modeling digital human required for simulation makes engineers to be reluctant to utilize human simulation for their tasks. This paper addresses such problem on human engineering simulation by developing the technology to automatize human modeling with multiple Kinects at different depths. The Kinects enable us to acquire the movements of digital human which are essential data for implementing human engineering simulation. In this paper, we present a system for modeling automation of digital human. Especially, the system provides a way of generating the digital model of workers' movement and position using multiple Kinects which cannot be generated by single Kinect. Lastly, we verify the effects of the developed system in terms of modeling time and accuracy by applying the system to four different scenarios. In conclusion, the proposed system makes it possible to generate the digital human model easily and reduce costs and time for human engineering simulation.

MultiView-Based Hand Posture Recognition Method Based on Point Cloud

  • Xu, Wenkai;Lee, Ick-Soo;Lee, Suk-Kwan;Lu, Bo;Lee, Eung-Joo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권7호
    • /
    • pp.2585-2598
    • /
    • 2015
  • Hand posture recognition has played a very important role in Human Computer Interaction (HCI) and Computer Vision (CV) for many years. The challenge arises mainly due to self-occlusions caused by the limited view of the camera. In this paper, a robust hand posture recognition approach based on 3D point cloud from two RGB-D sensors (Kinect) is proposed to make maximum use of 3D information from depth map. Through noise reduction and registering two point sets obtained satisfactory from two views as we designed, a multi-viewed hand posture point cloud with most 3D information can be acquired. Moreover, we utilize the accurate reconstruction and classify each point cloud by directly matching the normalized point set with the templates of different classes from dataset, which can reduce the training time and calculation. Experimental results based on posture dataset captured by Kinect sensors (from digit 1 to 10) demonstrate the effectiveness of the proposed method.