• 제목/요약/키워드: multiple sensor fusion

검색결과 92건 처리시간 0.029초

센서 융합을 이용한 움직이는 물체의 동작예측에 관한 연구 (Motion Estimation of 3D Planar Objects using Multi-Sensor Data Fusion)

  • 양우석
    • 센서학회지
    • /
    • 제5권4호
    • /
    • pp.57-70
    • /
    • 1996
  • Motion can be estimated continuously from each sensor through the analysis of the instantaneous states of an object. This paper is aimed to introduce a method to estimate the general 3D motion of a planar object from the instantaneous states of an object using multi-sensor data fusion. The instantaneous states of an object is estimated using the linear feedback estimation algorithm. The motion estimated from each sensor is fused to provide more accurate and reliable information about the motion of an unknown planar object. We present a fusion algorithm which combines averaging and deciding. With the assumption that the motion is smooth, the approach can handle the data sequences from multiple sensors with different sampling times. Simulation results show proposed algorithm is advantageous in terms of accuracy, speed, and versatility.

  • PDF

지형 정보를 사용한 다중 지상 표적 추적 알고리즘의 연구 (Study on Multiple Ground Target Tracking Algorithm Using Geographic Information)

  • 김인택;이응기
    • 제어로봇시스템학회논문지
    • /
    • 제6권2호
    • /
    • pp.173-180
    • /
    • 2000
  • During the last decade many researches have been working on multiple target tracking problem in the area of radar application, Various approaches have been proposed to solve the tracking problem and the concept of sensor fusion was established as an effort. In this paper utilization of geographic information for ground target tracking is investigated and performance comparison with the results of applying sensor fusion is described. Geographic information is used in three aspects: association masking target measurement and re-striction of removing true target. Simulation results indicate that using two sensors shows better performance with respect to tracking but a single with geographic information is a winner in reducing the number of false tracks.

  • PDF

능동 소나망 분산탐지 체계의 모델링 및 설계 (Modeling and Design of a Distributed Detection System Based on Active Sonar Sensor Networks)

  • 최원용;김송근;홍순목
    • 한국군사과학기술학회지
    • /
    • 제14권1호
    • /
    • pp.123-131
    • /
    • 2011
  • In this paper, modeling and design of a distributed detection system are considered for an active sonar sensor network. The sensor network has a parallel configuration and it consists of a fusion center and a set of receiver nodes. A system with two receiver nodes is considered to investigate a theoretical aspect of design. To be specific, AND rule and OR rule are considered as the fusion rules of the sensor network. For the fusion rules, it is shown that a threshold rule of each sensor node has uniformly most powerful properties. Optimum threshold for each sensor is obtained that maximizes the probability of detection given probability of false alarm. Numerical experiments were also performed to investigate the detection characteristics of a distributed detection system with multiple sensor nodes. The experimental results show how signal strength, false alarm probability, and the distance between nodes in a sensor field affect the system detection performances.

스마트팩토리 실현을 위한 다중센서기반 모바일로봇의 위치 및 자세제어에 관한 연구 (A Study on Orientation and Position Control of Mobile Robot Based on Multi-Sensors Fusion for Implimentation of Smart FA)

  • 동근한;김희진;배호영;김상현;백영태;한성현
    • 한국산업융합학회 논문집
    • /
    • 제22권2호
    • /
    • pp.209-218
    • /
    • 2019
  • This study proposes a new approach to Control the Orientation and position based on obstacle avoidance technology by multi sensors fusion and autonomous travelling control of mobile robot system for implimentation of Smart FA. The important focus is to control mobile robot based on by the multiple sensor module for autonomous travelling and obstacle avoidance of proposed mobile robot system, and the multiple sensor module is consit with sonar sensors, psd sensors, color recognition sensors, and position recognition sensors. Especially, it is proposed two points for the real time implementation of autonomous travelling control of mobile robot in limited manufacturing environments. One is on the development of the travelling trajectory control algorithm which obtain accurate and fast in considering any constraints. such as uncertain nonlinear dynamic effects. The other is on the real time implementation of obstacle avoidance and autonomous travelling control of mobile robot based on multiple sensors. The reliability of this study has been illustrated by the computer simulation and experiments for autonomous travelling control and obstacle avoidance.

다중센서자료 시뮬레이터 설계 및 자료융합 알고리듬 개발 (Design of a Multi-Sensor Data Simulator and Development of Data Fusion Algorithm)

  • 이용재;이자성;고선준;송종화
    • 한국항공우주학회지
    • /
    • 제34권5호
    • /
    • pp.93-100
    • /
    • 2006
  • 본 논문에서는 레이더와 원격측정시스템으로부터 수신되는 다중센서자료를 모사하는 시뮬레이터 설계와 이들 자료를 융합하기 위한 알고리듬 개발에 대하여 소개한다. 설계된 데이터 시뮬레이터는 실제 센서 시스템으로부터 얻게 되는 시간의 비동기, 통신지연, 다중 갱신주기들을 갖는 모의센서 자료를 생성하며 실제적인 센서 모델을 이용하여 측정 잡음을 생성한다. 융합알고리듬은 센서 바이어스 상태를 고려한 PVA모델을 기초로 21차 분산형 칼만 필터로 설계되었고, 센서의 이상이나 정상적이 아닌 측정치를 검출하기 위한 로직도 포함되었다. 설계된 알고리듬을 시뮬레이터에서 생성한 모의 자료 및 실제 자료를 적용하여 검증하였다.

칼만 필터를 이용한 GPS/INS융합의 다중 보정 방법 (GPS/INS Fusion Using Multiple Compensation Method Based on Kalman Filter)

  • 권영민
    • 전자공학회논문지
    • /
    • 제52권5호
    • /
    • pp.190-196
    • /
    • 2015
  • 본 논문은 항법장치 위치보정을 위해 칼만필터를 적용한 GPS/INS융합의 다중보정방법을 제안한다. 연구에서는 관성항법장치를 구현하기 위해 9축 항법장치로 보정알고리즘을 적용하여 위치오차를 감소시킨 방법을 적용했다. 일반적으로 GPS/INS는 위치정보를 얻어낼 수 있지만 위치정보를 구하는 과정에서 오차 또한 더불어 커지게 되기에 이를 보정하기 위한 강인한 오차 보정 알고리즘이 필요하다. 본 논문에서는 9축 관성센서(mpu-9150)의 외란에 대한 강인성 향상을 위해 가속도계 보정 알고리즘을 사용하여 tilt보정을 수행했으며, 제어 대상체의 정확한 방위를 파악할 수 있도록 Yaw각 재정의 알고리즘을 적용하였다. 최종적으로 GPS/INS와 칼만 필터를 함께 결합한 통합시스템을 구현하였다.

고부가 활용을 위한 이종영상 융합 소프트웨어(InFusion) 개발 (Development of Multi-sensor Image Fusion software(InFusion) for Value-added applications)

  • 최명진;정인협;고형균;장수민
    • 한국위성정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.15-21
    • /
    • 2017
  • 2012년 5월 다목적실용위성 KOMPSAT-3 발사 성공 이후, 2013년 8월 KOMPSAT-5, 2015년 3월 KOMPSAT-3A의 발사 성공으로 국내는 광학, 레이더, 열적외선 센서를 통합 운영할 수 있게 되었으며, 각 센서들의 특성을 융합 활용할 수 있는 기반을 마련하였다. 단일 센서가 가지고 있는 활용의 적용 범위나 산출물 정확도에 한계점을 극복하고자 다중 센서들의 장점을 취하고 단점은 상호 보완하는 다종센서간 영상융합기술이 대두하게 되었다. 본 논문에서는 다목적실용위성 군을 활용한 영상 융합 및 고부가 산출물 생성을 위한 소프트웨어(InFusion) 개발에 대하여 소개하고자 한다. 먼저 각 센서들의 특징 설명과 융합 소프트웨어 개발의 필요성에 대하여 기술하고, 개발 전과정에 대하여 상세히 설명하고자 한다. 국내외 다목적실용위성 군의 자료 활용성을 증대시키고 고부가 제품생성을 통한 국내 소프트웨어의 우수성을 알리는 계기가 되고자 한다.

비동기 다중 레이더 융합을 통한 실시간 궤도 추정 알고리즘 (Real time orbit estimation using asynchronous multiple RADAR data fusion)

  • 송하룡;문병진;조동현
    • 항공우주기술
    • /
    • 제13권2호
    • /
    • pp.66-72
    • /
    • 2014
  • 본 논문에서는 비동기 다중 레이더의 추적데이터 융합을 통한 우주 물체 추적 알고리즘을 소개하였다. 지구저궤도에 분포되어 있는 우주 물체 추적을 위하여 다중의 레이더를 사용한 추적 시나리오를 설정하였고, 각 레이더의 우주 물체 추적을 위하여 선형화 칼만 필터를 사용하였다. 샘플링 시간이 서로 다른 다중 레이더의 데이터를 융합하기 위해서 각각의 레이더에서 측정 가능한 범위를 STK/ODTK를 사용하여 결정하고, 다중 레이더가 동시에 우주 물체를 추적 하는 시간 동안 칼만 필터 기반의 비동기 융합 알고리즘을 적용하여 우주 물체의 궤도를 추정하였으며, 시뮬레이션을 통해 다중 레이더 융합을 통한 궤도 추정의 성능을 분석하였다.

3차원 물체의 인식 성능 향상을 위한 감각 융합 시스템 (Sensor Fusion System for Improving the Recognition Performance of 3D Object)

  • Kim, Ji-Kyoung;Oh, Yeong-Jae;Chong, Kab-Sung;Wee, Jae-Woo;Lee, Chong-Ho
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.107-109
    • /
    • 2004
  • In this paper, authors propose the sensor fusion system that can recognize multiple 3D objects from 2D projection images and tactile information. The proposed system focuses on improving recognition performance of 3D object. Unlike the conventional object recognition system that uses image sensor alone, the proposed method uses tactual sensors in addition to visual sensor. Neural network is used to fuse these informations. Tactual signals are obtained from the reaction force by the pressure sensors at the fingertips when unknown objects are grasped by four-fingered robot hand. The experiment evaluates the recognition rate and the number of teaming iterations of various objects. The merits of the proposed systems are not only the high performance of the learning ability but also the reliability of the system with tactual information for recognizing various objects even though visual information has a defect. The experimental results show that the proposed system can improve recognition rate and reduce learning time. These results verify the effectiveness of the proposed sensor fusion system as recognition scheme of 3D object.

  • PDF

3차원 물체의 인식 성능 향상을 위한 감각 융합 신경망 시스템 (Neural Network Approach to Sensor Fusion System for Improving the Recognition Performance of 3D Objects)

  • 동성수;이종호;김지경
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제54권3호
    • /
    • pp.156-165
    • /
    • 2005
  • Human being recognizes the physical world by integrating a great variety of sensory inputs, the information acquired by their own action, and their knowledge of the world using hierarchically parallel-distributed mechanism. In this paper, authors propose the sensor fusion system that can recognize multiple 3D objects from 2D projection images and tactile informations. The proposed system focuses on improving recognition performance of 3D objects. Unlike the conventional object recognition system that uses image sensor alone, the proposed method uses tactual sensors in addition to visual sensor. Neural network is used to fuse the two sensory signals. Tactual signals are obtained from the reaction force of the pressure sensors at the fingertips when unknown objects are grasped by four-fingered robot hand. The experiment evaluates the recognition rate and the number of learning iterations of various objects. The merits of the proposed systems are not only the high performance of the learning ability but also the reliability of the system with tactual information for recognizing various objects even though the visual sensory signals get defects. The experimental results show that the proposed system can improve recognition rate and reduce teeming time. These results verify the effectiveness of the proposed sensor fusion system as recognition scheme for 3D objects.