• 제목/요약/키워드: sensor data fusion

검색결과 382건 처리시간 0.023초

명령융합과 퍼지기반의 지능형 시스템-이동로봇주행적용 (Intelligent System based on Command Fusion and Fuzzy Logic Approaches - Application to mobile robot navigation)

  • 진태석;김현덕
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1034-1041
    • /
    • 2014
  • 본 논문은 능동카메라가 장착된 이동로봇의 장애물 회피를 위한 퍼지추론방법 제시하였다. 영상센서를 이용하여 상황적 판단에 근거한 명령융합을 사용하여 미지의 환경에서의 목적지까지의 지능적인 탐색을 수행하도록 하였다. 본 연구를 검증하기 위하여 환경모델과 센서데이터에 기반 한 이동로봇의 경로생성을 위한 물리적 센서융합을 시도하지 않고, 환경에 따른 각각의 로봇의 주행행동을 제어하기 위한 명령융합 적용하였다. 주행을 위한 전략으로는 목적지 접근과 장애물 회피를 수행할 수 있도록 퍼지규칙 조합을 통해 판단하도록 수행하였다. 제안한 방법을 검증하기 위하여 영상데이터를 사용한 성공적인 주행 실험 결과를 제시하였다.

무인잠수정의 수중합법을 위한 센서융합 (Sensor Fusion for Underwater Navigation of Unmanned Underwater Vehicle)

  • 서주노
    • 한국군사과학기술학회지
    • /
    • 제8권4호
    • /
    • pp.14-23
    • /
    • 2005
  • In this paper we propose a sensor fusion method for the navigation algorithm which can be used to estimate state vectors such as position and velocity for its motion control using multi-sensor output measurements. The output measurement we will use in estimating the state is a series of known multi-sensor asynchronous outputs with measurement noise. This paper investigates the Extended Kalman Filtering method to merge asynchronous heading, heading rate, velocity of DVL, and SSBL information to produce a single state vector. Different complexity of Kalman Filter, with. biases and measurement noise, are investigated with theoretically data from MOERI's SAUV. All levels of complexity of the Kalman Filters are shown to be much more close and smooth to real trajectories then the basic underwater acoustic navigation system commonly used aboard underwater vehicle.

A Data Fusion Algorithm of the Nonlinear System Based on Filtering Step By Step

  • Wen Cheng-Lin;Ge Quan-Bo
    • International Journal of Control, Automation, and Systems
    • /
    • 제4권2호
    • /
    • pp.165-171
    • /
    • 2006
  • This paper proposes a data fusion algorithm of nonlinear multi sensor dynamic systems of synchronous sampling based on filtering step by step. Firstly, the object state variable at the next time index can be predicted by the previous global information with the systems, then the predicted estimation can be updated in turn by use of the extended Kalman filter when all of the observations aiming at the target state variable arrive. Finally a fusion estimation of the object state variable is obtained based on the system global information. Synchronously, we formulate the new algorithm and compare its performances with those of the traditional nonlinear centralized and distributed data fusion algorithms by the indexes that include the computational complexity, data communicational burden, time delay and estimation accuracy, etc.. These compared results indicate that the performance from the new algorithm is superior to the performances from the two traditional nonlinear data fusion algorithms.

이동 로봇의 강인 위치 추정을 위한 단안 비젼 센서와 레이저 구조광 센서의 베이시안 센서융합 (Bayesian Sensor Fusion of Monocular Vision and Laser Structured Light Sensor for Robust Localization of a Mobile Robot)

  • 김민영;안상태;조형석
    • 제어로봇시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.381-390
    • /
    • 2010
  • This paper describes a procedure of the map-based localization for mobile robots by using a sensor fusion technique in structured environments. A combination of various sensors with different characteristics and limited sensibility has advantages in view of complementariness and cooperation to obtain better information on the environment. In this paper, for robust self-localization of a mobile robot with a monocular camera and a laser structured light sensor, environment information acquired from two sensors is combined and fused by a Bayesian sensor fusion technique based on the probabilistic reliability function of each sensor predefined through experiments. For the self-localization using the monocular vision, the robot utilizes image features consisting of vertical edge lines from input camera images, and they are used as natural landmark points in self-localization process. However, in case of using the laser structured light sensor, it utilizes geometrical features composed of corners and planes as natural landmark shapes during this process, which are extracted from range data at a constant height from the navigation floor. Although only each feature group of them is sometimes useful to localize mobile robots, all features from the two sensors are simultaneously used and fused in term of information for reliable localization under various environment conditions. To verify the advantage of using multi-sensor fusion, a series of experiments are performed, and experimental results are discussed in detail.

GPS 기반 추적레이더 실시간 바이어스 추정 및 비동기 정보융합을 통한 발사체 추적 성능 개선 (Performance enhancement of launch vehicle tracking using GPS-based multiple radar bias estimation and sensor fusion)

  • 송하룡
    • 한국산업정보학회논문지
    • /
    • 제20권6호
    • /
    • pp.47-56
    • /
    • 2015
  • 다중센서 시스템에서 센서 바이어스를 제거하는 센서 등록 과정은 각각의 센서가 공통된 좌표를 갖게 하기 위해 반드시 필요하다. 만약 센서 등록 과정을 적절하게 처리하지 않는다면, 거대한 추적 에러 또는 같은 목표물을 향한 다수의 허수 트랙이 발생하게 되어 추적에 실패하게 된다. 특히, 발사체 추적에 있어서 각각의 추적 장비는 반드시 적절한 센서등록 과정을 거쳐야 하며, 이 후 다중센서 융합알고리즘을 활용하면 발사체 추적 성능을 높이고 다중 추적 시스템에 정확한 지향입력으로 활용 가능하게 된다. 본 논문에서는 실시간 바이어스 추정/제거 알고리즘과 비동기 다중 센서 융합 기법을 제안하였다. 제안된 바이어스 추정 알고리즘은 GPS와 다중 레이더 간의 의사 바이어스 측정치를 활용하였고, 비동기 센서 융합알고리즘 적용을 통해 추적 성능을 향상하였다.

구간변화율을 고려한 기본확률배정함수 결정 (A Novel Method of Basic Probability Assignment Calculation with Signal Variation Rate)

  • 서동혁;박찬봉
    • 한국전자통신학회논문지
    • /
    • 제8권3호
    • /
    • pp.465-470
    • /
    • 2013
  • Dempster-Shafe 증거이론은 다중센서 데이터융합을 위한 좋은 계산방법을 제공해준다. 이때 기본확률배정 함수가 절대적으로 필요하다. 본 논문에서는 신호를 평가하여 기본확률배정함수를 계산하고 결정하는 방법을 제안한다. 센서들이 보내온 신호를 구간별로 변화율을 평가하고 이 평가를 기초로 기본확률배정함수를 정하도록 한다. 센서들이 감지하여 보고한 신호들은 상황발생 요인과 관련 있는데, 시간간격에 따라서 변화하는 신호값의 추이를 평가하였다. 센서가 감지한 신호의 변화는 상황구성 및 병화와 밀접한 관련이 있으므로 신호값의 변화를 평가하는 것은 상황추론에 도움이 되는 것이었다. 이것을 기본확률배정함수 결정에 포함함으로써 사전정보가 없는 경우에 대해서도 상황추론이 가능할 수 있음을 보였다.

New Medical Image Fusion Approach with Coding Based on SCD in Wireless Sensor Network

  • Zhang, De-gan;Wang, Xiang;Song, Xiao-dong
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권6호
    • /
    • pp.2384-2392
    • /
    • 2015
  • The technical development and practical applications of big-data for health is one hot topic under the banner of big-data. Big-data medical image fusion is one of key problems. A new fusion approach with coding based on Spherical Coordinate Domain (SCD) in Wireless Sensor Network (WSN) for big-data medical image is proposed in this paper. In this approach, the three high-frequency coefficients in wavelet domain of medical image are pre-processed. This pre-processing strategy can reduce the redundant ratio of big-data medical image. Firstly, the high-frequency coefficients are transformed to the spherical coordinate domain to reduce the correlation in the same scale. Then, a multi-scale model product (MSMP) is used to control the shrinkage function so as to make the small wavelet coefficients and some noise removed. The high-frequency parts in spherical coordinate domain are coded by improved SPIHT algorithm. Finally, based on the multi-scale edge of medical image, it can be fused and reconstructed. Experimental results indicate the novel approach is effective and very useful for transmission of big-data medical image(especially, in the wireless environment).

A Study on Indoor Mobile Robot Navigation Used Space and Time Sensor Fusion

  • Jin, Tae-Seok;Ko, Jae-Pyung;Lee, Jang-Myung
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2002년도 ICCAS
    • /
    • pp.104.2-104
    • /
    • 2002
  • This paper proposes a sensor-fusion technique where the data sets for the previous moments are properly transformed and fused into the current data sets to enable accurate measurement, such as, distance to an obstacle and location of the service robot itself. In the conventional fusion schemes, the measurement is dependent on the current data sets. As the results, more of sensors are required to measure a certain physical parameter or to improve the accuracy of the measurement. However, in this approach, instead of adding more sensors to the system , the temporal sequence of the data sets are stored and utilized for the measurement improvement. Theoretical basis is il lustrated by examples and...

  • PDF

레이더 센서와 비전 센서를 활용한 다중 센서 융합 기반 움직임 검지에 관한 연구 (A Study of Sensor Fusion using Radar Sensor and Vision Sensor in Moving Object Detection)

  • 김세진;변기훈;원인수;권장우
    • 한국ITS학회 논문지
    • /
    • 제16권2호
    • /
    • pp.140-152
    • /
    • 2017
  • 본 논문은 레이더 센서, 비전 센서를 활용한 다중 센서 융합 기반 움직임 검지에 관한 연구를 다룬다. 레이더 센서는 다량의 물체를 검지함에 있어 센서 자체의 움직임이 발생할 경우 주변건물이나 주변 가로수와 같은 사물 혹은 물체를 차량으로 오인하는 경우가 생긴다. 비전 센서의 경우 저렴하고 가장 많이 쓰는 형태이지만 빛, 흔들림, 날씨, 조도 등 외부환경에 취약하다는 문제점이 있다. 각 센서 간의 문제점을 보완하고자 센서 융합을 통한 움직임 검지를 제안하게 되었고 실험환경 내에서 매우 우수한 검지율을 보이게 되었다 센서 간 융합에서 좌표 통일문제와 실시간 전송문제 등을 해결하였으며, 각 센서 간 필터링을 통한 비가공데이터(raw data)의 신뢰성을 높였다. 특히 영상에서는 가우시안 혼합모델(GMM, Gaussian Mixture Model)을 사용하여 레이더 센서의 단점을 극복하고자 했다.

도심의 정밀 모니터링을 위한 LiDAR 자료와 고해상영상의 융합 (the fusion of LiDAR Data and high resolution Image for the Precise Monitoring in Urban Areas)

  • 강준묵;강영미;이형석
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2004년도 춘계학술발표회논문집
    • /
    • pp.383-388
    • /
    • 2004
  • The fusion of a different kind sensor is fusion of the obtained data by the respective independent technology. This is a important technology for the construction of 3D spatial information. particularly, information is variously realized by the fusion of LiDAR and mobile scanning system and digital map, fusion of LiDAR data and high resolution, LiDAR etc. This study is to generate union DEM and digital ortho image by the fusion of LiDAR data and high resolution image and monitor precisely topology, building, trees etc in urban areas using the union DEM and digital ortho image. using only the LiDAR data has some problems because it needs manual linearization and subjective reconstruction.

  • PDF