• 제목/요약/키워드: vehicle-mounted camera

검색결과 63건 처리시간 0.023초

버스 승객의 안전한 하차를 위한 컴퓨터비전 기반의 차량 탐지 시스템 개발 (Computer Vision-based Method of detecting a Approaching Vehicle or the Safety of a Bus Passenger Getting off)

  • 이광순;이경복;노광현;한민홍
    • 융합신호처리학회논문지
    • /
    • 제6권1호
    • /
    • pp.1-7
    • /
    • 2005
  • 본 논문은 컴퓨터 비전 기반의 인식 기법으로 주간 시내도로에 정차된 버스와 보도 사이로 접근하는 측후방 차량을 탐지하는 시스템을 설명한다. 이 시스템은 승객의 안전한 하차를 위해 버스 운전자와 승객에게 차량의 접근 유무를 알려준다. 버스의 측후방 영상은 버스가 정차할 때마다 버스 중앙 출입문 상단에 장착된 카메라에서 입력된다. 이 영상에서 버스와 보도 사이에 탐색영역을 설정하고 이 영역에서 영상의 변화와 소벨 필터링으로 차량을 탐지한다. 탐지된 차량의 중심점을 잡은 후, 위치 및 가로 세로의 크기를 이용하여 거리, 속도, 방향을 알아낸다. 이 정보를 이용하여 하차하는 승객에게 위험한 상황이라 판단될 경우, 운전자와 승객에게 위험을 알려준다. 실험결과로 시내 주행시 87% 이상의 탐지율을 나타내었다.

  • PDF

무인수상선의 디지털 트윈 공간 재구성을 위한 이미지 보정 및 점군데이터 간의 매핑 프레임워크 설계 (Design of a Mapping Framework on Image Correction and Point Cloud Data for Spatial Reconstruction of Digital Twin with an Autonomous Surface Vehicle)

  • 허수현;강민주;최진우;박정홍
    • 대한조선학회논문집
    • /
    • 제61권3호
    • /
    • pp.143-151
    • /
    • 2024
  • In this study, we present a mapping framework for 3D spatial reconstruction of digital twin model using navigation and perception sensors mounted on an Autonomous Surface Vehicle (ASV). For improving the level of realism of digital twin models, 3D spatial information should be reconstructed as a digitalized spatial model and integrated with the components and system models of the ASV. In particular, for the 3D spatial reconstruction, color and 3D point cloud data which acquired from a camera and a LiDAR sensors corresponding to the navigation information at the specific time are required to map without minimizing the noise. To ensure clear and accurate reconstruction of the acquired data in the proposed mapping framework, a image preprocessing was designed to enhance the brightness of low-light images, and a preprocessing for 3D point cloud data was included to filter out unnecessary data. Subsequently, a point matching process between consecutive 3D point cloud data was conducted using the Generalized Iterative Closest Point (G-ICP) approach, and the color information was mapped with the matched 3D point cloud data. The feasibility of the proposed mapping framework was validated through a field data set acquired from field experiments in a inland water environment, and its results were described.

격자 단위 특징값을 이용한 도로 영상의 차량 영역 분할 (Vehicle Area Segmentation from Road Scenes Using Grid-Based Feature Values)

  • 김구진;백낙훈
    • 한국멀티미디어학회논문지
    • /
    • 제8권10호
    • /
    • pp.1369-1382
    • /
    • 2005
  • 도로 영상에서 차량 영역을 분할하는 차량 영역 분할(vehicle segmentation) 문제는 지능형 교통 시스템을 비롯한 다양한 응용 분야들에서 중요하게 사용되는 기본 연산(fundamental operation)이다. 본 연구에서는 야외의 도로 상에 설치된 CCD카메라에서 촬영된 정지 영상으로부터 차량 영역을 찾아내는 효율적인 방법을 제안한다 제안하는 방법은 입력되는 영상들을 격자 단위로 분할하여 각 격자에서의 에지 검출 결과를 대표하는 특징값(feature value)들을 통계적으로 분석한 후, 이를 바탕으로 최적해를 구한다. 전처리 과정에서는 다양한 외부 환경에서 촬영한 배경 영상들에 대해서 각 격자에서의 특징값들을 통계 처리한다. 입력된 차량 영상에서는 각 격자의 특징값이 배경 영상의 대응되는 격자에서의 특징값과 통계적으로 얼마나 오차를 보이냐에 따라, 배경 영역인지 차량 영역인지를 판단한다. 격자 별로 차량 영역에 해당하는 지를 판정한 뒤, 이 결과에 동적 프로그래밍(dynamic Programming) 기법을 이용하여 차량을 포함하는 최적의 직사각형 영역을 찾아낸다. 본 논문에서 제안하는 방법은 통계 처리와 전역 탐색 기법을 사용하므로 휴리스틱에 주로 의존하는 기존 연구들에 비해 좀더 체계적이다. 또한, 배경 영상에 대한 통계 처리는 흐리거나 맑은 등의 날씨 변화 및 바람이나 진동에 의한 카메라의 흔들림과 같은 다양한 외부 요인들이 가져올 수 있는 노이즈나 오차에 대해서도 높은 신뢰성을 보여준다. 제안하는 방법을 구현한 프로토타입 시스템은 $1280\times960$ 크기의 차량 영상들을 장당 평균 0.150초의 수행 시간에 처리하였으며, 총 270장의 다양한 노이즈를 가지는 차량 영상들에 대해 $97.03\%$의 성공률을 보였다.

  • PDF

기동형 경계로봇 안정화 시스템의 실험적 검증 (Experimental Verification of Effectiveness of Stabilization Control System for Mobile Surveillance Robot)

  • 김성수;이동염;권정주;박성호
    • 대한기계학회논문집A
    • /
    • 제35권4호
    • /
    • pp.359-365
    • /
    • 2011
  • 기동형 경계 로봇은 공항이나 항구 등의 공공 지역을 보호하기 위한 기동형 차량 시스템에 고정되어 있는 경계 로봇을 말한다. 이러한 기동형 경계 로봇은 사격 시스템, 카메라 시스템, 임베디드 시스템 그리고 AHRS 센서로 구성되어 있다. 또한 고각과 방위각을 위한 2 축 제어가 가능하도록 설계되었다. 안정화된 영상과 사격을 위해 이 시스템은 차량의 모션으로부터 발생하는 외란에 대한 보상을 통해 안정화가 되어야 한다. 본 논문에서는 ADAMS 와 Matlab/Simulink 를 이용해서 기동형 경계로봇의 가상 모델을 생성하고 제안한 안정화 알고리즘을 시뮬레이션을 통해 검증하였다. 또한 가상모델에 상응하는 모형의 기동형 경계 로봇과 6 축 모션 시뮬레이터를 이용하여 안정화 알고리즘을 실험적으로 검증하였다.

Deep Learning Based Real-Time Painting Surface Inspection Algorithm for Autonomous Inspection Drone

  • Chang, Hyung-young;Han, Seung-ryong;Lim, Heon-young
    • Corrosion Science and Technology
    • /
    • 제18권6호
    • /
    • pp.253-257
    • /
    • 2019
  • A deep learning based real-time painting surface inspection algorithm is proposed herein, designed for developing an autonomous inspection drone. The painting surface inspection is usually conducted manually. However, the manual inspection has a limitation in obtaining accurate data for correct judgement on the surface because of human error and deviation of individual inspection experiences. The best method to replace manual surface inspection is the vision-based inspection method with a camera, using various image processing algorithms. Nevertheless, the visual inspection is difficult to apply to surface inspection due to diverse appearances of material, hue, and lightning effects. To overcome technical limitations, a deep learning-based pattern recognition algorithm is proposed, which is specialized for painting surface inspections. The proposed algorithm functions in real time on the embedded board mounted on an autonomous inspection drone. The inspection results data are stored in the database and used for training the deep learning algorithm to improve performance. The various experiments for pre-inspection of painting processes are performed to verify real-time performance of the proposed deep learning algorithm.

HSI/YCbCr 색상모델과 에이다부스트 알고리즘을 이용한 실시간 교통신호 인식 (Real Time Traffic Signal Recognition Using HSI and YCbCr Color Models and Adaboost Algorithm)

  • 박상훈;이준웅
    • 한국자동차공학회논문집
    • /
    • 제24권2호
    • /
    • pp.214-224
    • /
    • 2016
  • This paper proposes an algorithm to effectively detect the traffic lights and recognize the traffic signals using a monocular camera mounted on the front windshield glass of a vehicle in day time. The algorithm consists of three main parts. The first part is to generate the candidates of a traffic light. After conversion of RGB color model into HSI and YCbCr color spaces, the regions considered as a traffic light are detected. For these regions, edge processing is applied to extract the borders of the traffic light. The second part is to divide the candidates into traffic lights and non-traffic lights using Haar-like features and Adaboost algorithm. The third part is to recognize the signals of the traffic light using a template matching. Experimental results show that the proposed algorithm successfully detects the traffic lights and recognizes the traffic signals in real time in a variety of environments.

Study on Reflectance and NDVI of Aerial Images using a Fixed-Wing UAV "Ebee"

  • Lee, Kyung-Do;Lee, Ye-Eun;Park, Chan-Won;Hong, Suk-Young;Na, Sang-Il
    • 한국토양비료학회지
    • /
    • 제49권6호
    • /
    • pp.731-742
    • /
    • 2016
  • Recent technological advance in UAV (Unmanned Aerial Vehicle) technology offers new opportunities for assessing crop situation using UAV imagery. The objective of this study was to assess if reflectance and NDVI derived from consumer-grade cameras mounted on UAVs are useful for crop condition monitoring. This study was conducted using a fixed-wing UAV(Ebee) with Cannon S110 camera from March 2015 to March 2016 in the experiment field of National Institute of Agricultural Sciences. Results were compared with ground-based recordings obtained from consumer-grade cameras and ground multi-spectral sensors. The relationship between raw digital numbers (DNs) of UAV images and measured calibration tarp reflectance was quadratic. Surface (lawn grass, stairs, and soybean cultivation area) reflectance obtained from UAV images was not similar to reflectance measured by ground-based sensors. But NDVI based on UAV imagery was similar to NDVI calculated by ground-based sensors.

무인기 탑재 열화상(IR) 센서의 농작물 대상 최적 활용 방안 연구 (A Study on the Best Applicationsof Infra-Red(IR) Sensors Mounted on the Unmanned Aerial Vehicles(UAV) in Agricultural Crops Field)

  • 손호웅;김태훈;이희우
    • 한국산업융합학회 논문집
    • /
    • 제26권6_2호
    • /
    • pp.1073-1082
    • /
    • 2023
  • Thermal sensors, also called thermal infrared wavelength sensors, measure temperature based on the intensity of infrared signals that reach the sensor. The infrared signals recognized by the sensor include infrared wavelength(0.7~3.0㎛) and radiant infrared wavelength(3.0~100㎛). Infrared(IR) wavelengths are divided into five bands: near infrared(NIR), shortwave infrared(SWIR), midwave infrared(MWIR), longwave infrared(LWIR), and far infrared(FIR). Most thermal sensors use the LWIR to capture images. Thermal sensors measure the temperature of the target in a non-contact manner, and the data can be affected by the sensor's viewing angle between the target and the sensor, the amount of atmospheric water vapor (humidity), air temperature, and ground conditions. In this study, the characteristics of three thermal imaging sensor models that are widely used for observation using unmanned aerial vehicles were evaluated, and the optimal application field was determined.

Imaging Performance Analysis of an EO/IR Dual Band Airborne Camera

  • Lee, Jun-Ho;Jung, Yong-Suk;Ryoo, Seung-Yeol;Kim, Young-Ju;Park, Byong-Ug;Kim, Hyun-Jung;Youn, Sung-Kie;Park, Kwang-Woo;Lee, Haeng-Bok
    • Journal of the Optical Society of Korea
    • /
    • 제15권2호
    • /
    • pp.174-181
    • /
    • 2011
  • An airborne sensor is developed for remote sensing on an aerial vehicle (UV). The sensor is an optical payload for an eletro-optical/infrared (EO/IR) dual band camera that combines visible and IR imaging capabilities in a compact and lightweight package. It adopts a Ritchey-Chr$\'{e}$tien telescope for the common front end optics with several relay optics that divide and deliver EO and IR bands to a charge-coupled-device (CCD) and an IR detector, respectively. The EO/IR camera for dual bands is mounted on a two-axis gimbal that provides stabilized imaging and precision pointing in both the along and cross-track directions. We first investigate the mechanical deformations, displacements and stress of the EO/IR camera through finite element analysis (FEA) for five cases: three gravitational effects and two thermal conditions. For investigating gravitational effects, one gravitational acceleration (1 g) is given along each of the +x, +y and +z directions. The two thermal conditions are the overall temperature change to $30^{\circ}C$ from $20^{\circ}C$ and the temperature gradient across the primary mirror pupil from $-5^{\circ}C$ to $+5^{\circ}C$. Optical performance, represented by the modulation transfer function (MTF), is then predicted by integrating the FEA results into optics design/analysis software. This analysis shows the IR channel can sustain imaging performance as good as designed, i.e., MTF 38% at 13 line-pairs-per-mm (lpm), with refocus capability. Similarly, the EO channel can keep the designed performance (MTF 73% at 27.3 lpm) except in the case of the overall temperature change, in which the EO channel experiences slight performance degradation (MTF 16% drop) for $20^{\circ}C$ overall temperate change.

옥상 색상에 따른 쿨루프 성능평가를 위한 여름철 옥상 표면 및 실내온도 비교 분석 : 무인항공기에 장착된 열적외선 카메라를 이용하여 (Comparison of Rooftop Surface Temperature and Indoor Temperature for the Evaluation of Cool Roof Performance according to the Rooftop Colors in Summer: Using Thermal Infrared Camera Mounted on UAV)

  • 이기림;성지훈;한유경;이원희
    • 한국측량학회지
    • /
    • 제37권1호
    • /
    • pp.9-18
    • /
    • 2019
  • 전 세계적으로 지구온난화현상이 심화되고 있으며, 특히 우리나라의 경우 급격한 산업 발전 등으로 인해 도시화가 진행되면서 도시열섬현상까지 발생되고 있다. 이렇게 도시의 온도가 상승하게 되면 주거 생활의 쾌적성 및 냉방부하와 같은 문제 등을 야기한다. 본 연구에서는 이러한 문제를 줄이기 위해 지붕 색상에 따른 쿨루프 성능 평가를 진행하였으며, 기존의 평지붕 축소 모형, 손잡이 형태의 열화상 카메라 또는 레이저 온도계를 이용하지 않고, 실제 건물과 UAV에 열적외선 카메라를 장착하여 원격탐사 기법으로 옥상 색상 (흰색, 회색, 초록색, 청색, 갈색, 검은색)에 따른 표면 온도를 취득하였다. 그 결과 흰색을 적용한 표면 온도가 다른 색상보다 11도에서 20도 낮게 나타났으며, 에어컨의 실내 온도와 디지털 온도계의 실내 온도 또한 흰색의 색상이 다른 색상보다 약 1.5도에서 4.4도, 약 1.5도에서 3.5도 낮게 측정되었다. 이를 통해 흰색이 쿨루프 성능이 가장 좋음을 확인할 수 있었으며, UAV와 열적외선 카메라를 통해 기존 다른 연구에서 사용했던 방법보다 신속하고, 편리하게 쿨루프 성능 평가가 가능함을 확인할 수 있었다.