• 제목/요약/키워드: Multi-Sensor Fusion

검색결과 203건 처리시간 0.029초

센서 융합기반의 추측항법을 통한 야지 주행 이동로봇의 위치 추정 및 제어 (Localization and Control of an Outdoor Mobile Robot Based on an Estimator with Sensor Fusion)

  • 전상운;정슬
    • 대한임베디드공학회논문지
    • /
    • 제4권2호
    • /
    • pp.69-78
    • /
    • 2009
  • Localization is a very important technique for the mobile robot to navigate in outdoor environment. In this paper, the development of the sensor fusion algorithm for controlling mobile robots in outdoor environments is presented. The multi-sensorial dead-reckoning subsystem is established based on the optimal filtering by first fusing a heading angle reading data from a magnetic compass, a rate-gyro, and two encoders mounted on the robot wheels, thereby computing the dead-reckoned location. These data and the position data provided by a global sensing system are fused together by means of an extended Kalman filter. The proposed algorithm is proved by simulation studies of controlling a mobile robot controlled by a backstepping controller and a cascaded controller. Performances of each controller are compared.

  • PDF

New Medical Image Fusion Approach with Coding Based on SCD in Wireless Sensor Network

  • Zhang, De-gan;Wang, Xiang;Song, Xiao-dong
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권6호
    • /
    • pp.2384-2392
    • /
    • 2015
  • The technical development and practical applications of big-data for health is one hot topic under the banner of big-data. Big-data medical image fusion is one of key problems. A new fusion approach with coding based on Spherical Coordinate Domain (SCD) in Wireless Sensor Network (WSN) for big-data medical image is proposed in this paper. In this approach, the three high-frequency coefficients in wavelet domain of medical image are pre-processed. This pre-processing strategy can reduce the redundant ratio of big-data medical image. Firstly, the high-frequency coefficients are transformed to the spherical coordinate domain to reduce the correlation in the same scale. Then, a multi-scale model product (MSMP) is used to control the shrinkage function so as to make the small wavelet coefficients and some noise removed. The high-frequency parts in spherical coordinate domain are coded by improved SPIHT algorithm. Finally, based on the multi-scale edge of medical image, it can be fused and reconstructed. Experimental results indicate the novel approach is effective and very useful for transmission of big-data medical image(especially, in the wireless environment).

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

유한 상태 기계를 이용한 자율무인기뢰처리기의 다중센서융합기반 수중유도항법시스템 설계 (Multi-sensor Fusion Based Guidance and Navigation System Design of Autonomous Mine Disposal System Using Finite State Machine)

  • 김기훈;최현택;이종무
    • 전자공학회논문지SC
    • /
    • 제47권6호
    • /
    • pp.33-42
    • /
    • 2010
  • 본 연구에서는 실해역에서 해류를 고려한 실용적인 유도 시스템을 제안하고 있다. 본 논문에서는 생성된 경로의 최적성은 주요 이슈가 아니다. 시작점부터 목표점까지의 경로는 주요 해류의 방향축을 고려하여 운용 경험이 많은 전문가의 경유점 선택을 통하여 생성된다. 본 논문에서는 또한 초단기선, GPS, 도플러 속도계 그리고 자세센서 등의 계측치를 통해서 다중센서융합알고리즘을 이용하여 정밀 수중항법 솔루션 구현에 대하여 설명하고 있다. 정밀하고 정확하고 갱신 주기가 빠른 수중항법 솔루션을 구현하기 위하여 세 가지 전략을 사용하였다. 첫째는 추측항법의 단독 성능을 향상시키기 위하여 선수각 정밀 정렬을 수행하였다. 둘째는 기본이 되는 단독추측항법이 적분 알고리즘에 기반을 두었기 때문에 시간의 추이에 따른 누적오차의 증가 특성을 가지고 있는데 이를 막기 위하여 주기적으로 절대 위치 정보를 다중센서융합 기법을 이용하여 융합하여 주는 것이다. 셋째는 융합알고리즘의 품질 향상을 위하여 효율적인 특이점 제거 알고리즘을 도입하는 것이다. 개발된 정밀수중항법알고리즘의 성능을 검증하기 위하여 자율기뢰처리기와 심해무인잠수정의 실해역 데이터를 사용하였다.

Multi-lag Out of Sequence Measurement 환경에서의 IMM-MPDA 필터 성능 분석 (The Performance Analysis of IMM-MPDA Filter in Multi-lag Out of Sequence Measurement Environment)

  • 서일환;송택렬
    • 전기학회논문지
    • /
    • 제56권8호
    • /
    • pp.1476-1483
    • /
    • 2007
  • In a multi-sensor target tracking systems, the local sensors have the role of tracking the target and transferring the measurements to the fusion center. The measurements from the same target can arrive out of sequence called, the out-of-sequence measurements(OOSMs). The OOSM can arise in a form of single-lag or multi-lag throughout the transfer at the fusion center. The recursive retrodiction step was proposed to update the current state estimates with the multi-lag OOSM from the several previous papers. The real world has the possible situations that the maneuvering target informations can arrive at the fusion center with the random clutter in the possible OOSMs. In this paper, we incorporate the IMM-MPDA(Interacting Multiple Model - Most Probable Data Association) into the multi-lag OOSM update. The performance of the IMM-MPDA filter with multi-lag OOSM update is analyzed for the various clutter densities, OOSM lag numbers, and target maneuvering indexes. Simulation results show that IMM-MPDA is sufficient to be used in out of sequence environment and it is necessary to correct the current state estimates with OOSM except a very old OOSM.

고해상도 SAR와 광학영상의 고주파 정보를 이용한 다중센서 융합 (Image Fusion of High Resolution SAR and Optical Image Using High Frequency Information)

  • 변영기;채태병
    • 한국측량학회지
    • /
    • 제30권1호
    • /
    • pp.75-86
    • /
    • 2012
  • SAR는 기상상태와 태양고도 제약을 받지 않고 영상을 취득할 수 있는 장점을 갖지만 광학영상에 비해 시각적 가독성이 떨어지는 단점을 갖는다. 광학영상의 다중분광정보를 융합하여 SAR 영상의 가독성을 향상시키기 위한 다중센서 융합기술에 대한 관심이 증대되고 있다. 본 연구에서는 고속 퓨리에 변환을 통한 고주파 정보 추출 및 이상치 제거과정을 통해 SAR 영상의 공간적 세밀함과 다중분광영상의 분광정보를 유지할 수 있는 새로운 다중센서 융합기술을 제안하였다. 실험데이터로는 KOMPSAT-5호와 동일한 고해상도 X-band SAR 시스템을 장착한 TerraSAR-X 영상과 KOMPSAT-2호의 다중분광영상을 사용하였다. 제안기법의 효용성을 평가하기 위해 기존에 위성영상융합에 많이 사용된 융합기법과의 시각적/정량적 비교평가를 수행하였다. 실험 결과 기존 영상융합알고리즘에 비해 분광정보 보존측면에서 보다 향상된 결과를 보임을 확인할 수 있었다.

Multiple Color and ToF Camera System for 3D Contents Generation

  • Ho, Yo-Sung
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제6권3호
    • /
    • pp.175-182
    • /
    • 2017
  • In this paper, we present a multi-depth generation method using a time-of-flight (ToF) fusion camera system. Multi-view color cameras in the parallel type and ToF depth sensors are used for 3D scene capturing. Although each ToF depth sensor can measure the depth information of the scene in real-time, it has several problems to overcome. Therefore, after we capture low-resolution depth images by ToF depth sensors, we perform a post-processing to solve the problems. Then, the depth information of the depth sensor is warped to color image positions and used as initial disparity values. In addition, the warped depth data is used to generate a depth-discontinuity map for efficient stereo matching. By applying the stereo matching using belief propagation with the depth-discontinuity map and the initial disparity information, we have obtained more accurate and stable multi-view disparity maps in reduced time.

영상처리와 센서융합을 활용한 지능형 6족 이동 로봇 (Intelligent Hexapod Mobile Robot using Image Processing and Sensor Fusion)

  • 이상무;김상훈
    • 제어로봇시스템학회논문지
    • /
    • 제15권4호
    • /
    • pp.365-371
    • /
    • 2009
  • A intelligent mobile hexapod robot with various types of sensors and wireless camera is introduced. We show this mobile robot can detect objects well by combining the results of active sensors and image processing algorithm. First, to detect objects, active sensors such as infrared rays sensors and supersonic waves sensors are employed together and calculates the distance in real time between the object and the robot using sensor's output. The difference between the measured value and calculated value is less than 5%. This paper suggests effective visual detecting system for moving objects with specified color and motion information. The proposed method includes the object extraction and definition process which uses color transformation and AWUPC computation to decide the existence of moving object. We add weighing values to each results from sensors and the camera. Final results are combined to only one value which represents the probability of an object in the limited distance. Sensor fusion technique improves the detection rate at least 7% higher than the technique using individual sensor.