• 제목/요약/키워드: Sensor-Fusion

검색결과 812건 처리시간 0.027초

데이터 퓨전을 위한 무선 센서 네트워크용 스패닝 트리 : FST (FST : Fusion Rate Based Spanning Tree for Wireless Sensor Networks)

  • 서창진;신지수
    • 정보처리학회논문지C
    • /
    • 제16C권1호
    • /
    • pp.83-90
    • /
    • 2009
  • 무선 센서 네트워크(Wireless Sensor Network : WSN)는 자율적으로 라우팅 경로를 구성하여 물리적으로 떨어진 지역의 데이터를 수집하는 무선망이다. 본 논문은 주기적으로 수집한 모든 데이터를 하나의 기지 노드로 전달하는 convergecast 환경에서 퓨전(fusion)을 반영한 라우팅 방법을 제안한다. 지금까지 대부분의 연구는 무퓨전(no-fusion)과 전퓨전(full-fusion)의 두 경우만을 다루었다. 제안하는 Fusion rate based Spanning Tree(FST)는 임의의 퓨전율 f ($0{\leq}f{\leq}1$)에서 총 전송 에너지 비용을 줄이는 라우팅 경로를 제공 한다. FST는 무퓨전(f = 0)과 전퓨전(f = 1)의 convergecast에서 각각 최적의 토폴로지인 최소 경로 트리(Shortest Path spanning Tree : SPT)와 최소 스패닝 트리(Minimum Spanning Tree : MST)를 제공하며, 임의의 f (0 < f < 1)에 대해서도 SPT나 MST보다 우수한 토폴로지를 제공한다. 시뮬레이션은 100-노드 WSN에서 모든 f ($0{\leq}f{\leq}1$)에 대해 FST의 총 길이가 평균적으로 MST보다 약 31%, SPT보다 약 8% 절약 됨을 보여준다. 따라서 우리는 FST가 WSN에서 매우 유용한 토폴로지임을 확인하였다.

카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion (Camera and LiDAR Sensor Fusion for Improving Object Detection)

  • 이종서;김만규;김학일
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.580-591
    • /
    • 2019
  • 본 논문의 목적은 자율주행을 위하여 카메라와 라이다를 이용하여 객체를 검출하고 각 센서에서 검출된 객체를 late fusion 방식으로 융합을 하여 성능을 향상하는 것을 목적으로 한다. 카메라를 이용한 객체 검출은 one-stage 검출인 YOLOv3을, 검출된 객체의 거리 추정은 perspective matrix를, 라이다의 객체 검출은 K-means 군집화 기반 객체 검출을 각각 이용하였다. 카메라와 라이다 calibration은 PnP-RANSAC을 이용하여 회전, 변환 행렬을 구하였다. 센서 융합은 라이다에서 검출된 객체를 이미지 평면에 옮겨 Intersection over union(IoU)을 계산하고, 카메라에서 검출된 객체를 월드 좌표에 옮겨 거리, 각도를 계산하여 IoU, 거리 그리고 각도 세 가지 속성을 로지스틱 회귀를 이용하여 융합을 하였다. 융합을 통하여 각 센서에서 검출되지 않은 객체를 보완해주어 성능이 약 5% 증가하였다.

능동 소나망 분산탐지 체계의 모델링 및 설계 (Modeling and Design of a Distributed Detection System Based on Active Sonar Sensor Networks)

  • 최원용;김송근;홍순목
    • 한국군사과학기술학회지
    • /
    • 제14권1호
    • /
    • pp.123-131
    • /
    • 2011
  • In this paper, modeling and design of a distributed detection system are considered for an active sonar sensor network. The sensor network has a parallel configuration and it consists of a fusion center and a set of receiver nodes. A system with two receiver nodes is considered to investigate a theoretical aspect of design. To be specific, AND rule and OR rule are considered as the fusion rules of the sensor network. For the fusion rules, it is shown that a threshold rule of each sensor node has uniformly most powerful properties. Optimum threshold for each sensor is obtained that maximizes the probability of detection given probability of false alarm. Numerical experiments were also performed to investigate the detection characteristics of a distributed detection system with multiple sensor nodes. The experimental results show how signal strength, false alarm probability, and the distance between nodes in a sensor field affect the system detection performances.

다중센서 데이터융합 기반 상황추론에서 시간경과를 고려한 클러스터링 기법 (A Novel Clustering Method with Time Interval for Context Inference based on the Multi-sensor Data Fusion)

  • 유창근;박찬봉
    • 한국전자통신학회논문지
    • /
    • 제8권3호
    • /
    • pp.397-402
    • /
    • 2013
  • 다중센서를 이용한 상황인식에서 시간변화는 고려해야 하는 요소이다. 센서가 감지하여 보고한 정보를 바탕으로 상황추론에 도달하고자 하는 경우, 일정 시간 간격별로 묶어서 검토하는 것이 유용하다. 본 논문에서는 시간경과를 고려하는 클러스터링 기법을 이용한 다중센서 데이터융합을 제안한다. 각 센서별로 일정시간 간격동안 수집되어 보고된 센싱 정보를 묶어 1차 데이터융합을 실시하고 그 결과를 대상으로 다시 2차 데이터융합을 실시하였다. Dempster-Shafer이론을 이용하여 다중센서 데이터융합을 실시하고 그 결과를 분석하여 상황을 추론하는데 시간간격을 기준으로 세분화시켜 평가하고 이것을 다시 융합함으로써 향상된 상황 정보를 추론할 수 있다.

센서 융합을 이용한 움직이는 물체의 동작예측에 관한 연구 (Motion Estimation of 3D Planar Objects using Multi-Sensor Data Fusion)

  • 양우석
    • 센서학회지
    • /
    • 제5권4호
    • /
    • pp.57-70
    • /
    • 1996
  • Motion can be estimated continuously from each sensor through the analysis of the instantaneous states of an object. This paper is aimed to introduce a method to estimate the general 3D motion of a planar object from the instantaneous states of an object using multi-sensor data fusion. The instantaneous states of an object is estimated using the linear feedback estimation algorithm. The motion estimated from each sensor is fused to provide more accurate and reliable information about the motion of an unknown planar object. We present a fusion algorithm which combines averaging and deciding. With the assumption that the motion is smooth, the approach can handle the data sequences from multiple sensors with different sampling times. Simulation results show proposed algorithm is advantageous in terms of accuracy, speed, and versatility.

  • PDF

레이더와 비전센서 융합을 통한 전방 차량 인식 알고리즘 개발 (Radar and Vision Sensor Fusion for Primary Vehicle Detection)

  • 양승한;송봉섭;엄재용
    • 제어로봇시스템학회논문지
    • /
    • 제16권7호
    • /
    • pp.639-645
    • /
    • 2010
  • This paper presents the sensor fusion algorithm that recognizes a primary vehicle by fusing radar and monocular vision data. In general, most of commercial radars may lose tracking of the primary vehicle, i.e., the closest preceding vehicle in the same lane, when it stops or goes with other preceding vehicles in the adjacent lane with similar velocity and range. In order to improve the performance degradation of radar, vehicle detection information from vision sensor and path prediction predicted by ego vehicle sensors will be combined for target classification. Then, the target classification will work with probabilistic association filters to track a primary vehicle. Finally the performance of the proposed sensor fusion algorithm is validated using field test data on highway.

영상유도수술을 위한 광학추적 센서 및 관성항법 센서 네트웍의 칼만필터 기반 자세정보 융합 (Kalman Filter Baded Pose Data Fusion with Optical Traking System and Inertial Navigation System Networks for Image Guided Surgery)

  • 오현민;김민영
    • 전기학회논문지
    • /
    • 제66권1호
    • /
    • pp.121-126
    • /
    • 2017
  • Tracking system is essential for Image Guided Surgery(IGS). Optical Tracking System(OTS) is widely used to IGS for its high accuracy and easy usage. However, OTS doesn't work when occlusion of marker occurs. In this paper sensor data fusion with OTS and Inertial Navigation System(INS) is proposed to solve this problem. The proposed system improves the accuracy of tracking system by eliminating gaussian error of the sensor and supplements the disadvantages of OTS and IMU through sensor fusion based on Kalman filter. Also, sensor calibration method that improves the accuracy is introduced. The performed experiment verifies the effectualness of the proposed algorithm.

간접 칼만 필터 기반의 센서융합을 이용한 실외 주행 이동로봇의 위치 추정 (Localization of Outdoor Wheeled Mobile Robots using Indirect Kalman Filter Based Sensor fusion)

  • 권지욱;박문수;김태은;좌동경;홍석교
    • 제어로봇시스템학회논문지
    • /
    • 제14권8호
    • /
    • pp.800-808
    • /
    • 2008
  • This paper presents a localization algorithm of the outdoor wheeled mobile robot using the sensor fusion method based on indirect Kalman filter(IKF). The wheeled mobile robot considered with in this paper is approximated to the two wheeled mobile robot. The mobile robot has the IMU and encoder sensor for inertia positioning system and GPS. Because the IMU and encoder sensor have bias errors, divergence of the estimated position from the measured data can occur when the mobile robot moves for a long time. Because of many natural and artificial conditions (i.e. atmosphere or GPS body itself), GPS has the maximum error about $10{\sim}20m$ when the mobile robot moves for a short time. Thus, the fusion algorithm of IMU, encoder sensor and GPS is needed. For the sensor fusion algorithm, we use IKF that estimates the errors of the position of the mobile robot. IKF proposed in this paper can be used other autonomous agents (i.e. UAV, UGV) because IKF in this paper use the position errors of the mobile robot. We can show the stability of the proposed sensor fusion method, using the fact that the covariance of error state of the IKF is bounded. To evaluate the performance of proposed algorithm, simulation and experimental results of IKF for the position(x-axis position, y-axis position, and yaw angle) of the outdoor wheeled mobile robot are presented.

항공전자 멀티센서 정보 융합 구조 연구 (A Study on a Multi-sensor Information Fusion Architecture for Avionics)

  • 강신우;이승필;박준현
    • 한국항행학회논문지
    • /
    • 제17권6호
    • /
    • pp.777-784
    • /
    • 2013
  • 다른 종류의 센서에서 생산되는 데이터를 하나의 정보로 종합하는 공정으로 멀티 센서 데이터 융합이 연구되고 있으며 다양한 플랫폼에서 활용되고 있다. 항공기도 여러 종류의 센서들을 장착하고 있으며 항공전자 체계에서 이를 통합하여 관리하고 있다. 항공기 센서의 성능이 높아지면서 항공전자 관점에서 센서 정보의 통합이 점차 증가하고 있다. 센서에서 생산된 데이터를 하나의 융합된 정보로 항공기 조종사에게 전시 장비로 시현하기 위한 융합을 담당하는 소프트웨어 관점에서 정보 융합을 다루는 연구는 활성화 되지 않고 있다. 항공기에서 정보 융합의 목적은 올바른 전투상황을 조종사에게 제공하여 임무를 수행하는 데에 필요한 결정을 돕고 이를 위한 조종 업무량을 최소화하는 것이다. 본 논문에서는 다양한 센서들이 운용되는 항공전자 시스템의 멀티센서데이터 융합을 위한 소프트웨어 관점에서 센서들이 생산하는 데이터가 사용자에게 종합된 정보 형태로 제공되기 위한 구조를 보인다.

센서데이터 융합을 이용한 원주형 물체인식 (Cylindrical Object Recognition using Sensor Data Fusion)

  • 김동기;윤광익;윤지섭;강이석
    • 제어로봇시스템학회논문지
    • /
    • 제7권8호
    • /
    • pp.656-663
    • /
    • 2001
  • This paper presents a sensor fusion method to recognize a cylindrical object a CCD camera, a laser slit beam and ultrasonic sensors on a pan/tilt device. For object recognition with a vision sensor, an active light source projects a stripe pattern of light on the object surface. The 2D image data are transformed into 3D data using the geometry between the camera and the laser slit beam. The ultrasonic sensor uses an ultrasonic transducer array mounted in horizontal direction on the pan/tilt device. The time of flight is estimated by finding the maximum correlation between the received ultrasonic pulse and a set of stored templates - also called a matched filter. The distance of flight is calculated by simply multiplying the time of flight by the speed of sound and the maximum amplitude of the filtered signal is used to determine the face angle to the object. To determine the position and the radius of cylindrical objects, we use a statistical sensor fusion. Experimental results show that the fused data increase the reliability for the object recognition.

  • PDF