• 제목/요약/키워드: Time-of-Flight Camera

검색결과 74건 처리시간 0.026초

입체적 지형을 고려한 무인항공기의 실시간 촬영 영역 분석 알고리즘 (Real-Time Shooting Area Analysis Algorithm of UAV Considering Three-Dimensional Topography)

  • 박우민;최정훈;최성근;황남두;김환철
    • 한국통신학회논문지
    • /
    • 제38C권12호
    • /
    • pp.1196-1206
    • /
    • 2013
  • 본 논문에서는 PTZ(Pan Tilt Zoom) 카메라를 장착한 무인항공기의 항법장치 정보와 촬영지역의 입체적 지형정보를 기반으로, 무인항공기가 촬영하는 지리적 위치를 실시간으로 파악하고 촬영 지역의 면적을 자동 산출할 수 있는 알고리즘을 제안한다. 또한 제안한 알고리즘과 더불어 특정 지역의 촬영 가능 여부를 자동 판단할 수 있는 방안을 설명한다. 무인항공기가 원하는 특정지역의 촬영을 시도할 경우에는 항공기의 위치와 고도뿐만 아니라 해당 지역의 입체적 지형에 의하여 유효한 영상의 획득 가능여부가 결정된다. 본 연구의 결과를 적용하면 지상관제센터에서 무인항공기가 촬영하는 영상이 원하는 지역의 정보인지 실시간으로 판단할 수 있으므로 정확한 실시간 원격 운항 제어가 가능하다. 그리고 제안한 알고리즘과 촬영가능여부를 판단하는 방안은 사전 모의 운항 및 운항경로 설정에 유용하게 응용할 수 있다.

Experimental Framework for Controller Design of a Rotorcraft Unmanned Aerial Vehicle Using Multi-Camera System

  • Oh, Hyon-Dong;Won, Dae-Yeon;Huh, Sung-Sik;Shim, David Hyun-Chul;Tahk, Min-Jea
    • International Journal of Aeronautical and Space Sciences
    • /
    • 제11권2호
    • /
    • pp.69-79
    • /
    • 2010
  • This paper describes the experimental framework for the control system design and validation of a rotorcraft unmanned aerial vehicle (UAV). Our approach follows the general procedure of nonlinear modeling, linear controller design, nonlinear simulation and flight test but uses an indoor-installed multi-camera system, which can provide full 6-degree of freedom (DOF) navigation information with high accuracy, to overcome the limitation of an outdoor flight experiment. In addition, a 3-DOF flying mill is used for the performance validation of the attitude control, which considers the characteristics of the multi-rotor type rotorcraft UAV. Our framework is applied to the design and mathematical modeling of the control system for a quad-rotor UAV, which was selected as the test-bed vehicle, and the controller design using the classical proportional-integral-derivative control method is explained. The experimental results showed that the proposed approach can be viewed as a successful tool in developing the controller of new rotorcraft UAVs with reduced cost and time.

3D Head Modeling using Depth Sensor

  • Song, Eungyeol;Choi, Jaesung;Jeon, Taejae;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제2권1호
    • /
    • pp.13-16
    • /
    • 2015
  • Purpose We conducted a study on the reconstruction of the head's shape in 3D using the ToF depth sensor. A time-of-flight camera (ToF camera) is a range imaging camera system that resolves distance based on the known speed of light, measuring the time-of-flight of a light signal between the camera and the subject for each point of the image. The above method is the safest way of measuring the head shape of plagiocephaly patients in 3D. The texture, appearance and size of the head were reconstructed from the measured data and we used the SDF method for a precise reconstruction. Materials and Methods To generate a precise model, mesh was generated by using Marching cube and SDF. Results The ground truth was determined by measuring 10 people of experiment participants for 3 times repetitively and the created 3D model of the same part from this experiment was measured as well. Measurement of actual head circumference and the reconstructed model were made according to the layer 3 standard and measurement errors were also calculated. As a result, we were able to gain exact results with an average error of 0.9 cm, standard deviation of 0.9, min: 0.2 and max: 1.4. Conclusion The suggested method was able to complete the 3D model by minimizing errors. This model is very effective in terms of quantitative and objective evaluation. However, measurement range somewhat lacks 3D information for the manufacture of protective helmets, as measurements were made according to the layer 3 standard. As a result, measurement range will need to be widened to facilitate production of more precise and perfectively protective helmets by conducting scans on all head circumferences in the future.

고해상도 스테레오 카메라와 저해상도 깊이 카메라를 이용한 다시점 영상 생성 (Multi-view Generation using High Resolution Stereoscopic Cameras and a Low Resolution Time-of-Flight Camera)

  • 이천;송혁;최병호;호요성
    • 한국통신학회논문지
    • /
    • 제37권4A호
    • /
    • pp.239-249
    • /
    • 2012
  • 최근 자연스러운 3차원 영상의 재현을 위하여 깊이영상을 이용한 영상합성 방법이 널리 이용되고 있다. 깊이영상은 시청자의 눈에 보이지는 않지만 합성영상의 화질을 결정하는 중요한 정보이므로 정확한 깊이영상을 획득하는 것이 중요하다. 특히 적외선 센서를 이용한 깊이 카메라(time-of-flight camera)는 보다 정확한 깊이영상을 획득하는데 이용되고 있다. 깊이 카메라는 스테레오 정합(stereo matching)에 비해 정확하고 실시간으로 깊이정보를 추출할 수 있지만, 제공되는 해상도가 너무 낮다는 단점이 있다. 본 논문에서는 단시점의 깊이영상을 두 시점의 깊이영상으로 확장하고, 이를 이용하여 여러 시점의 중간영상을 생성하는 시스템을 제안한다. 특히 복잡도를 낮춰 빠른 속도로 다시점 영상을 생성하는 시스템을 제안한다. 고해상도의 컬러 영상을 획득하기 위하여 두 대의 컬러 카메라를 설치하고 중간에 깊이 카메라를 획득한다. 그리고 깊이 카메라에서 획득한 깊이영상을 3차원 워핑을 이용하여 양쪽의 컬러 카메라의 위치로 시점 이동한다. 깊이영상과 컬러영상간의 객체 불일치 문제는 깊이값의 신뢰 도를 기반으로 한 조인트 양방향 필터(joint bilateral filter)를 이용하여 보정한다. 이러한 과정을 통해 얻은 깊이영상은 다시점 영상 합성 방법을 이용하여 다시점 영상을 획득한다. 이와 같은 과정은 다중 스레드를 이용하여 빠르게 처리할 수 있도록 구현했다. 실험을 통해 두 시점의 컬러영상과 두 시점의 깊이영상이 실시간으로 획득했고, 약 7 fps의 프레임율로 10시점의 중간시점을 동시에 생성했다.

UAV를 이용한 Subcentimeter GSD 영상의 취득 및 시각적 해상도 분석 (Acquisition of Subcentimeter GSD Images Using UAV and Analysis of Visual Resolution)

  • 한수희;홍창기
    • 한국측량학회지
    • /
    • 제35권6호
    • /
    • pp.563-572
    • /
    • 2017
  • 본 연구의 목적은 회전익 UAV를 이용하여 1cm 미만의 GSD를 갖는 초고해상도 영상을 취득하기 위해 비행고도, 비행속도, 카메라 셔터의 노출시간, 자동초점조절 사용 여부가 영상의 시각적 해상도에 미치는 영향을 객관적으로 분석하는 것이다. 아울러 다양한 형태의 항공표적에 대한 인식 용이성을 평가하는 것도 목표로 한다. 이를 위해 35mm 크기의 7952*5304 화소 CMOS 센서와 55mm 단렌즈를 이용하여 비행고도 20m부터 120m에서 20m 간격으로 촬영하고 영상의 시각적 해상도를 분석하였다. 결과로 자동초점조절을 사용한 경우 시각적 해상도는 이론적인 GSD에 비하여 1.1~1.6배로 나타났고, 자동초점조절을 사용하지 않은 경우 1.5~3.5배로 나타났다. 다음으로 비행고도 80m에서 5m/s로 정속 비행하면서 카메라의 노출 시간을 1/60sec에서 1/2000sec까지 1/2씩 줄이면서 촬영하고 시각적 해상도를 분석하였다. 허용 흐려짐을 1 화소로 가정할 때 최장 노출 시간을 준수한 경우 시각적 해상도 는 이론적인 GSD이 비하여 1.3~1.5배로 나타났고, 초과한 경우 1.4~3.0배로 나타났다. A4 용지에 항공표적을 출력하여 비행고도 80m 이내에서 촬영하면 상용소프트웨어를 이용하여 코드화된 항공표적을 자동으로 인식할 수 있으며, 자동 인식이 불가능한 고도에서도 다양한 형태의 일반 항공표적 및 코드화된 항공표적을 큰 어려움 없이 수동으로 인식할 수 있었다.

표적 좌표지향 알고리즘 설계 (Coordinates Tracking Algorithm Design)

  • 박주광
    • 한국군사과학기술학회지
    • /
    • 제5권3호
    • /
    • pp.62-76
    • /
    • 2002
  • This paper describes the design of a Coordinates Tracking algorithm for EOTS and its error analysis. EOTS stabilizes the image sensors such as FLIR, CCD TV camera, LRF/LD, and so on, tracks targets automatically, and provides navigation capability for vehicles. The Coordinates Tracking algorithm calculates the azimuth and the elevation angle of EOTS using the inertial navigation system and the attitude sensors of the vehicle, so that LOS designates the target coordinates which is generated by a Radar or an operator. In the error analysis in this paper, the unexpected behaviors of EOTS that is due to the time delay and deadbeat of the digital signals of the vehicle equipments are anticipated and the countermeasures are suggested. This algorithm is verified and the error analysis is confirmed through simulations. The application of this algorithm to EOTS will improve the operational capability by reducing the time which is required to find the target and support especially the flight in a night time flight and the poor weather condition.

Time-of-Flight 카메라의 잡음 모델링을 통한 적응적 거리 잡음 제거 방법 (Adaptive Depth Noise Removal for Time-of-Flight Camera using Depth Noise Modeling)

  • 김중식;백열민;김회율
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 하계학술대회
    • /
    • pp.325-328
    • /
    • 2013
  • 본 논문에서는 ToF(Time-of-Flight) 카메라의 거리 잡음을 제거하는 방법으로 거리와 진폭에 따른 거리 잡음 모델링을 이용한 적응적인 SUSAN(Smallest Univalue Segment Assimilating Nucleus) 필터를 제안한다. ToF 카메라의 거리 잡음 제거를 위해서 기존에 제안된 여러 가지 방법들은 거리 잡음의 특성을 고려하지 않거나 진폭에 따른 거리 잡음의 특성만을 고려하였다. 하지만 실제 ToF 카메라의 거리 영상에 포함되는 거리 잡음은 진폭과 거리에 따라서 변화하기 때문에 거리와 진폭을 모두 고려한 거리 잡음 모델링이 필요하다. 따라서 제안하는 방법은 우선 거리와 진폭의 변화에 따른 ToF 카메라의 거리 잡음 특성을 모델링 한다. 이후 제안하는 방법은 생성된 거리 잡음 모델에 의해 인자가 결정되는 적응적 SUSAN 필터를 이용하여 ToF 카메라의 거리 영상의 잡음을 제거한다. 실험 결과 제안하는 방법은 기존의 ToF 거리 영상의 거리 잡음제거 방법에 비해 보다 효과적으로 거리 영상의 잡음을 제거하면서 디테일을 잘 보존하였다.

  • PDF

TOF 깊이 카메라와 DSLR을 이용한 복합형 카메라 시스템 구성 방법 (Hybrid Camera System with a TOF and DSLR Cameras)

  • 김수현;김재인;김태정
    • 방송공학회논문지
    • /
    • 제19권4호
    • /
    • pp.533-546
    • /
    • 2014
  • 본 논문은 Time-of-Flight(ToF) 깊이 카메라와 DSLR을 이용한 사진측량 기반의 복합형 카메라시스템 구성방법을 제안한다. ToF 깊이 카메라는 깊이 정보를 실시간으로 출력하는 장점이 있지만 제공되는 명암 영상의 해상도가 낮고 획득한 깊이 정보가 물체의 표면상태에 민감하여 잡음이 발생하는 단점이 있다. 따라서 깊이 카메라를 이용한 입체 모델 생성을 위해선 깊이 정보의 보정과 함께 고해상도 텍스처맵을 제공하는 복합형 카메라의 구성이 필요하다. 이를 위해 본 논문은 상대표정을 수행하여 깊이 카메라와 DSLR의 상대적인 기하관계를 추정하고 공선조건식 기반의 역투영식을 이용하여 텍스처매핑을 수행한다. 성능검증을 위해 기존 기법의 모델 정확도와 텍스처매핑 정확도를 비교 분석한다. 실험결과는 제안 기법의 모델 정확도가 더 높았는데 이는 기존 기법이 깊이 카메라의 잡음이 있는 3차원 정보를 기준점으로 사용하여 절대표정을 수행한 반면에 제안 기법은 오차정보가 없는 두 영상간의 공액점을 이용했기 때문이다.

방패연을 이용한 저비용 비행시험장치 개발 (Development of Low Cost Flight Test Equipment by Using Bang-pai Kite)

  • 박종서;김봉균;이상철
    • 한국항공운항학회지
    • /
    • 제25권3호
    • /
    • pp.68-73
    • /
    • 2017
  • In this study, we design a low-cost test equipment for real-time image observation and transmission/reception distance test using 1m by 1.5m bang-pai kite. The image observation is made by using two servo motors to enable the camera to control the two axis attitude. The image observation equipment is hung on the string of a kite and the test is performed to observe the real time image. The transmission and reception distance test of the wireless RF transceiver module is conducted on the ground and in the air.

정밀조도정보를 이용한 전천카메라 기반의 주·야간 구름영상촬영용 원형장치 개발 (Development of A Prototype Device to Capture Day/Night Cloud Images based on Whole-Sky Camera Using the Illumination Data)

  • 이재원;박인춘;조정호;기균도;김영철
    • 대기
    • /
    • 제28권3호
    • /
    • pp.317-324
    • /
    • 2018
  • In this study, we review the ground-based whole-sky camera (WSC), which is developed to continuously capture day and night cloud images using the illumination data from a precision Lightmeter with a high temporal resolution. The WSC is combined with a precision Lightmeter developed in IYA (International Year of Astronomy) for analysis of an artificial light pollution at night and a DSLR camera equipped with a fish-eye lens widely applied in observational astronomy. The WSC is designed to adjust the shutter speed and ISO of the equipped camera according to illumination data in order to stably capture cloud images. And Raspberry Pi is applied to control automatically the related process of taking cloud and sky images every minute under various conditions depending on illumination data from Lightmeter for 24 hours. In addition, it is utilized to post-process and store the cloud images and to upload the data to web page in real time. Finally, we check the technical possibility of the method to observe the cloud distribution (cover, type, height) quantitatively and objectively by the optical system, through analysis of the captured cloud images from the developed device.