• 제목/요약/키워드: radar-vision fusion

검색결과 16건 처리시간 0.025초

레이더와 비전 센서를 이용하여 선행차량의 횡방향 운동상태를 보정하기 위한 IMM-PDAF 기반 센서융합 기법 연구 (A Study on IMM-PDAF based Sensor Fusion Method for Compensating Lateral Errors of Detected Vehicles Using Radar and Vision Sensors)

  • 장성우;강연식
    • 제어로봇시스템학회논문지
    • /
    • 제22권8호
    • /
    • pp.633-642
    • /
    • 2016
  • It is important for advanced active safety systems and autonomous driving cars to get the accurate estimates of the nearby vehicles in order to increase their safety and performance. This paper proposes a sensor fusion method for radar and vision sensors to accurately estimate the state of the preceding vehicles. In particular, we performed a study on compensating for the lateral state error on automotive radar sensors by using a vision sensor. The proposed method is based on the Interactive Multiple Model(IMM) algorithm, which stochastically integrates the multiple Kalman Filters with the multiple models depending on lateral-compensation mode and radar-single sensor mode. In addition, a Probabilistic Data Association Filter(PDAF) is utilized as a data association method to improve the reliability of the estimates under a cluttered radar environment. A two-step correction method is used in the Kalman filter, which efficiently associates both the radar and vision measurements into single state estimates. Finally, the proposed method is validated through off-line simulations using measurements obtained from a field test in an actual road environment.

AVM 카메라와 융합을 위한 다중 상용 레이더 데이터 획득 플랫폼 개발 (Development of Data Logging Platform of Multiple Commercial Radars for Sensor Fusion With AVM Cameras)

  • 진영석;전형철;신영남;현유진
    • 대한임베디드공학회논문지
    • /
    • 제13권4호
    • /
    • pp.169-178
    • /
    • 2018
  • Currently, various sensors have been used for advanced driver assistance systems. In order to overcome the limitations of individual sensors, sensor fusion has recently attracted the attention in the field of intelligence vehicles. Thus, vision and radar based sensor fusion has become a popular concept. The typical method of sensor fusion involves vision sensor that recognizes targets based on ROIs (Regions Of Interest) generated by radar sensors. Especially, because AVM (Around View Monitor) cameras due to their wide-angle lenses have limitations of detection performance over near distance and around the edges of the angle of view, for high performance of sensor fusion using AVM cameras and radar sensors the exact ROI extraction of the radar sensor is very important. In order to resolve this problem, we proposed a sensor fusion scheme based on commercial radar modules of the vendor Delphi. First, we configured multiple radar data logging systems together with AVM cameras. We also designed radar post-processing algorithms to extract the exact ROIs. Finally, using the developed hardware and software platforms, we verified the post-data processing algorithm under indoor and outdoor environments.

레이더와 비전센서 융합을 통한 전방 차량 인식 알고리즘 개발 (Radar and Vision Sensor Fusion for Primary Vehicle Detection)

  • 양승한;송봉섭;엄재용
    • 제어로봇시스템학회논문지
    • /
    • 제16권7호
    • /
    • pp.639-645
    • /
    • 2010
  • This paper presents the sensor fusion algorithm that recognizes a primary vehicle by fusing radar and monocular vision data. In general, most of commercial radars may lose tracking of the primary vehicle, i.e., the closest preceding vehicle in the same lane, when it stops or goes with other preceding vehicles in the adjacent lane with similar velocity and range. In order to improve the performance degradation of radar, vehicle detection information from vision sensor and path prediction predicted by ego vehicle sensors will be combined for target classification. Then, the target classification will work with probabilistic association filters to track a primary vehicle. Finally the performance of the proposed sensor fusion algorithm is validated using field test data on highway.

센서융합 검증을 위한 실시간 모니터링 및 검증 도구 개발 (Development of a Monitoring and Verification Tool for Sensor Fusion)

  • 김현우;신승환;배상진
    • 한국자동차공학회논문집
    • /
    • 제22권3호
    • /
    • pp.123-129
    • /
    • 2014
  • SCC (Smart Cruise Control) and AEBS (Autonomous Emergency Braking System) are using various types of sensors data, so it is important to consider about sensor data reliability. In this paper, data from radar and vision sensor is fused by applying a Bayesian sensor fusion technique to improve the reliability of sensors data. Then, it presents a sensor fusion verification tool developed to monitor acquired sensors data and to verify sensor fusion results, efficiently. A parallel computing method was applied to reduce verification time and a series of simulation results of this method are discussed in detail.

레이더 센서와 비전 센서를 활용한 다중 센서 융합 기반 움직임 검지에 관한 연구 (A Study of Sensor Fusion using Radar Sensor and Vision Sensor in Moving Object Detection)

  • 김세진;변기훈;원인수;권장우
    • 한국ITS학회 논문지
    • /
    • 제16권2호
    • /
    • pp.140-152
    • /
    • 2017
  • 본 논문은 레이더 센서, 비전 센서를 활용한 다중 센서 융합 기반 움직임 검지에 관한 연구를 다룬다. 레이더 센서는 다량의 물체를 검지함에 있어 센서 자체의 움직임이 발생할 경우 주변건물이나 주변 가로수와 같은 사물 혹은 물체를 차량으로 오인하는 경우가 생긴다. 비전 센서의 경우 저렴하고 가장 많이 쓰는 형태이지만 빛, 흔들림, 날씨, 조도 등 외부환경에 취약하다는 문제점이 있다. 각 센서 간의 문제점을 보완하고자 센서 융합을 통한 움직임 검지를 제안하게 되었고 실험환경 내에서 매우 우수한 검지율을 보이게 되었다 센서 간 융합에서 좌표 통일문제와 실시간 전송문제 등을 해결하였으며, 각 센서 간 필터링을 통한 비가공데이터(raw data)의 신뢰성을 높였다. 특히 영상에서는 가우시안 혼합모델(GMM, Gaussian Mixture Model)을 사용하여 레이더 센서의 단점을 극복하고자 했다.

다중주기 칼만 필터를 이용한 비동기 센서 융합 (Asynchronous Sensor Fusion using Multi-rate Kalman Filter)

  • 손영섭;김원희;이승희;정정주
    • 전기학회논문지
    • /
    • 제63권11호
    • /
    • pp.1551-1558
    • /
    • 2014
  • We propose a multi-rate sensor fusion of vision and radar using Kalman filter to solve problems of asynchronized and multi-rate sampling periods in object vehicle tracking. A model based prediction of object vehicles is performed with a decentralized multi-rate Kalman filter for each sensor (vision and radar sensors.) To obtain the improvement in the performance of position prediction, different weighting is applied to each sensor's predicted object position from the multi-rate Kalman filter. The proposed method can provide estimated position of the object vehicles at every sampling time of ECU. The Mahalanobis distance is used to make correspondence among the measured and predicted objects. Through the experimental results, we validate that the post-processed fusion data give us improved tracking performance. The proposed method obtained two times improvement in the object tracking performance compared to single sensor method (camera or radar sensor) in the view point of roots mean square error.

레이더, 비전, 라이더 융합 기반 자율주행 환경 인지 센서 고장 진단 (Radar, Vision, Lidar Fusion-based Environment Sensor Fault Detection Algorithm for Automated Vehicles)

  • 최승리;정용환;이명수;이경수
    • 자동차안전학회지
    • /
    • 제9권4호
    • /
    • pp.32-37
    • /
    • 2017
  • For automated vehicles, the integrity and fault tolerance of environment perception sensor have been an important issue. This paper presents radar, vision, lidar(laser radar) fusion-based fault detection algorithm for autonomous vehicles. In this paper, characteristics of each sensor are shown. And the error of states of moving targets estimated by each sensor is analyzed to present the method to detect fault of environment sensors by characteristic of this error. Each estimation of moving targets isperformed by EKF/IMM method. To guarantee the reliability of fault detection algorithm of environment sensor, various driving data in several types of road is analyzed.

레이더와 비전센서 융합기반의 움직임추정을 이용한 전방차량 검출 및 추적 (Preceding Vehicle Detection and Tracking with Motion Estimation by Radar-vision Sensor Fusion)

  • 장재환;김경환
    • 전자공학회논문지
    • /
    • 제49권12호
    • /
    • pp.265-274
    • /
    • 2012
  • 본 논문에서는 레이더와 비전센서 융합 기반의 움직임추정을 이용한 전방차량 검출 및 추적 방법을 제안한다. 제안하는 방법은 움직임추정을 통하여 레이더로 관측한 타겟의 부정확한 횡방향 위치를 보정할 뿐만 아니라 자차의 거동에 따른 자차-지면 간의 기하학적 관계 변화에 적응적으로 전방차량을 검출하고 추적한다. 또한 연산량 부담이 적은 특징점기반의 움직임추정 방법을 사용하여 차량을 검증하는 과정의 수행 횟수 감소를 도모하였다. 제안하는 움직임추정 방법으로 보정한 타겟이 기존의 방법에 비해 높은 시간적 일관성(temporal consistency)을 가지고 전방차량을 추적하는 것은 물론 다양한 도로환경에서 강건하게 전방차량을 검출하는 것을 실험을 통해 입증하였다.

차선 변경 지원을 위한 레이더 및 비전센서 융합기반 다중 차량 인식 (Multiple Vehicle Recognition based on Radar and Vision Sensor Fusion for Lane Change Assistance)

  • 김형태;송봉섭;이훈;장형선
    • 제어로봇시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.121-129
    • /
    • 2015
  • This paper presents a multiple vehicle recognition algorithm based on radar and vision sensor fusion for lane change assistance. To determine whether the lane change is possible, it is necessary to recognize not only a primary vehicle which is located in-lane, but also other adjacent vehicles in the left and/or right lanes. With the given sensor configuration, two challenging problems are considered. One is that the guardrail detected by the front radar might be recognized as a left or right vehicle due to its genetic characteristics. This problem can be solved by a guardrail recognition algorithm based on motion and shape attributes. The other problem is that the recognition of rear vehicles in the left or right lanes might be wrong, especially on curved roads due to the low accuracy of the lateral position measured by rear radars, as well as due to a lack of knowledge of road curvature in the backward direction. In order to solve this problem, it is proposed that the road curvature measured by the front vision sensor is used to derive the road curvature toward the rear direction. Finally, the proposed algorithm for multiple vehicle recognition is validated via field test data on real roads.

영상 및 레이저레이더 정보융합을 통한 자율주행자동차의 주행환경인식 및 추적방법 (Information Fusion of Cameras and Laser Radars for Perception Systems of Autonomous Vehicles)

  • 이민채;한재현;장철훈;선우명호
    • 한국지능시스템학회논문지
    • /
    • 제23권1호
    • /
    • pp.35-45
    • /
    • 2013
  • 자동차의 자율주행기능 실현을 위해서는 기존의 지능형자동차 인식시스템 보다 강인하고 우수한 성능의 주행환경 인식시스템이 요구된다. 특히, 카메라와 레이저레이더 센서는 물체의 특징, 거리 등의 정보를 제공하는 대표적인 주행환경인식 센서로, 이를 이용한 단일센서기반 인식시스템 연구가 활발히 이루어지고 있다. 일반적으로 레이저레이더 센서의 거리정보는 도로의 구조, 차량, 보행자 등의 인식을 위하여 많이 사용되며, 카메라의 영상정보는 차선, 횡단보도, 표지판 등의 주행환경 인지에 사용된다. 하지만, 단일센서기반 인식시스템은 센서의 특성 및 주행환경에 의한 오검출 또는 미검출 발생률이 높기 때문에 자율주행기능 구현에 적합하지 않다. 따라서 단일센서기반의 인식시스템의 한계를 극복하기 위하여 카메라, 레이저레이더, GPS 등을 이용한 정보융합 인식시스템 개발이 필수적이다. 이 연구에서는 영상 및 레이저레이더의 정보융합을 통해 강인한 차선인식, 횡단보도 인식 등을 수행하는 자율주행자동차의 주행환경 인식기술을 개발하였다. 이 연구를 통해 개발된 주행환경 인식기술은 자율주행자동차에 적용되어 다양한 주행시험을 통해 신뢰성 및 안정성이 검증되었다.