• 제목/요약/키워드: Multi-sensor data fusion

검색결과 128건 처리시간 0.03초

Gate Data Gathering in WiFi-embedded Smart Shoes with Gyro and Acceleration Sensor

  • Jeong, KiMin;Lee, Kyung-chang
    • 한국산업융합학회 논문집
    • /
    • 제22권4호
    • /
    • pp.459-465
    • /
    • 2019
  • There is an increasing interest in health and research on methods for measuring human body information. The importance of continuously observing information such as the step change and the walking speed is increasing. At a person's gait, information about the disease and the currently weakened area can be known. In this paper, gait is measured using wearable walking module built in shoes. We want to make continuous measurement possible by simplifying gait measurement method. This module is designed to receive information of gyro sensor and acceleration sensor. The designed module is capable of WiFi communication and the collected walking information is stored in the server. The information stored in the server is corrected by integrating the acceleration sensor and the gyro sensor value. A band-pass filter was used to reduce the error. This data is categorized by the Gait Finder into walking and waiting states. When walking, each step is divided and stored separately for analysis.

Accurate Vehicle Positioning on a Numerical Map

  • Laneurit Jean;Chapuis Roland;Chausse Fr d ric
    • International Journal of Control, Automation, and Systems
    • /
    • 제3권1호
    • /
    • pp.15-31
    • /
    • 2005
  • Nowadays, the road safety is an important research field. One of the principal research topics in this field is the vehicle localization in the road network. This article presents an approach of multi sensor fusion able to locate a vehicle with a decimeter precision. The different informations used in this method come from the following sensors: a low cost GPS, a numeric camera, an odometer and a steer angle sensor. Taking into account a complete model of errors on GPS data (bias on position and nonwhite errors) as well as the data provided by an original approach coupling a vision algorithm with a precise numerical map allow us to get this precision.

Specialized Product-Line Development Methodology for Developing the Embedded System

  • Hong Ki-Sam;Yoon Hee-Byung
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권3호
    • /
    • pp.268-273
    • /
    • 2005
  • We propose the specialized product-line development methodology for developing the embedded system of an MSDFS (Multi Sensor Data Fusion System : called MSDFS). The product-line methodology provides a simultaneous design between software and hardware, high level reusability. However this is insufficient in requirement analysis stage due to be focused on software architecture, detailed design and code. Thus we apply the business model based on IDEF0 technique to traditional methodology. In this paper, we describe the processes of developing Core-Asset, which are requirement analysis, feature modeling, validation. The proposed model gives the efficient result for eliciting features, and ensures the high level reusability of modules performing on embedded system.

이동로봇의 자율주행을 위한 다중센서융합기반의 지도작성 및 위치추정 (Map-Building and Position Estimation based on Multi-Sensor Fusion for Mobile Robot Navigation in an Unknown Environment)

  • 진태석;이민중;이장명
    • 제어로봇시스템학회논문지
    • /
    • 제13권5호
    • /
    • pp.434-443
    • /
    • 2007
  • Presently, the exploration of an unknown environment is an important task for thee new generation of mobile service robots and mobile robots are navigated by means of a number of methods, using navigating systems such as the sonar-sensing system or the visual-sensing system. To fully utilize the strengths of both the sonar and visual sensing systems. This paper presents a technique for localization of a mobile robot using fusion data of multi-ultrasonic sensors and vision system. The mobile robot is designed for operating in a well-structured environment that can be represented by planes, edges, comers and cylinders in the view of structural features. In the case of ultrasonic sensors, these features have the range information in the form of the arc of a circle that is generally named as RCD(Region of Constant Depth). Localization is the continual provision of a knowledge of position which is deduced from it's a priori position estimation. The environment of a robot is modeled into a two dimensional grid map. we defines a vision-based environment recognition, phisically-based sonar sensor model and employs an extended Kalman filter to estimate position of the robot. The performance and simplicity of the approach is demonstrated with the results produced by sets of experiments using a mobile robot.

다중 센서 융합을 위한 무인항공기 물리 오프셋 검보정 방법 (Physical Offset of UAVs Calibration Method for Multi-sensor Fusion)

  • 김철욱;임평채;지준화;김태정;이수암
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1125-1139
    • /
    • 2022
  • 무인항공기에 부착된 위성 항법 시스템/관성 측정 센서(global positioning system/inertial measurement unit, GPS/IMU)와 관측 센서 사이에는 물리적인 위치와 자세 오차가 존재한다. 해당 물리 오프셋으로 인해, 관측 데이터는 비행 방향에 따라 서로 위치가 어긋나는 이격 오차가 발생한다. 특히나, 다중 센서를 활용하여 데이터를 취득하는 다중 센서 무인항공기의 경우, 관측 센서가 변경될 때마다 고액의 비용을 지불하고 외산 소프트웨어 의존하여 물리 오프셋을 조정하고 있는 실정이다. 본 연구에서는 다중 센서에 적용 가능한 초기 센서 모델식을 수립하고 물리 오프셋 추정 방법을 제안한다. 제안된 방안은 크게 3가지 단계로 구성된다. 먼저, 직접지리 참조를 위한 회전 행렬 정의 및 초기 센서 모델식을 수립한다. 다음으로, 지상기준점과 관측 센서에서 취득된 데이터 간의 대응점을 추출하여 물리 오프셋 추정을 위한 관측방정식을 수립한다. 마지막으로, 관측 자료를 기반으로 물리 오프셋을 추정하고, 추정된 파라미터를 초기 센서 모델식에 적용한다. 전주, 인천, 알래스카, 노르웨이 지역에서 취득된 데이터셋에 적용한 결과, 4개 지역 모두 물리 오프셋 적용 전에 발생되던 영상 접합부의 이격 오차가 물리 오프셋을 적용 후 제거되는 것을 확인했다. 인천 지역의 지상기준점 대비 절대 위치 정확도를 분석한 결과, 초분광 영상의 경우, X, Y 방향으로 약 0.12 m 위치 편차를 보였으며, 라이다 포인트 클라우드의 경우 약 0.03 m의 위치 편차를 보여줬다. 더 나아가 영상 내 특징점에 대하여 초분광, 라이다 데이터의 상대 위치 정확도를 분석한 결과, 센서 데이터 간의 위치 편차가 약 0.07 m인 것을 확인했다. 따라서, 제안된 물리 오프셋 추정 및 적용을 통해 별도 기준점 없이 정밀한 데이터 매핑이 가능한 직접 지리 참조가 가능하다는 것을 확인했으며, 다중 센서를 부착한 무인항공기에서 취득된 센서 데이터 간의 융합 가능성에 대해 확인하였다. 본 연구를 통해 독자적인 물리 파라미터 추정 기술 보유를 통한 경제적 비용 절감 효과 및 관측 조건에 따른 유연한 다중 센서 플랫폼 시스템 운용을 기대한다.

우주발사체 비행안전시스템을 위한 다중센서 융합필터 구현 (Multi-sensor Fusion Filter for the Flight Safety System of a Space Launch Vehicle)

  • 류성숙;김정래;송용규;고정환;최규성
    • 한국항공우주학회지
    • /
    • 제37권2호
    • /
    • pp.156-165
    • /
    • 2009
  • 우주발사체는 군용 미사일이나 과학로켓에 비해 크기가 크고 비행거리가 멀어 고장상황 발생 시 매우 위험하다. 따라서 비행시험 시 사고의 위험을 최소화시키기 위해 비행안전시스템의 운용이 필수적으로 요구된다. 이 때, 비행안전시스템에 적용되는 추적 필터는 일반적인 필터와는 달리 필터의 정확성보다는 안정성이 우선 시 된다. 본 논문에서는 전 비행 구간에 걸쳐 안정적으로 비행 정보를 획득하기 위해서 다중센서를 이용하여 융합필터를 구성하였다. 추정된 위치 및 순간낙하점 오차를 분석하여 구현된 융합필터의 성능을 분석하였다. 또한 각 센서에 연결된 부필터에 고장검출 알고리듬을 적용함으로써 비정상 상태일 경우 융합에서 제외하여 전체 필터의 신뢰성을 유지하게 됨을 검증하였다.

AUTOMATIC ROAD NETWORK EXTRACTION. USING LIDAR RANGE AND INTENSITY DATA

  • Kim, Moon-Gie;Cho, Woo-Sug
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.79-82
    • /
    • 2005
  • Recently the necessity of road data is still being increased in industrial society, so there are many repairing and new constructions of roads at many areas. According to the development of government, city and region, the update and acquisition of road data for GIS (Geographical Information System) is very necessary. In this study, the fusion method with range data(3D Ground Coordinate System Data) and Intensity data in stand alone LiDAR data is used for road extraction and then digital image processing method is applicable. Up to date Intensity data of LiDAR is being studied. This study shows the possibility method for road extraction using Intensity data. Intensity and Range data are acquired at the same time. Therefore LiDAR does not have problems of multi-sensor data fusion method. Also the advantage of intensity data is already geocoded, same scale of real world and can make ortho-photo. Lastly, analysis of quantitative and quality is showed with extracted road image which compare with I: 1,000 digital map.

  • PDF

환경변화에 강인한 단안카메라 레이더 적외선거리계 센서 융합 기반 교통정보 수집 시스템 개발 (Development of A Multi-sensor Fusion-based Traffic Information Acquisition System with Robust to Environmental Changes using Mono Camera, Radar and Infrared Range Finder)

  • 변기훈;김세진;권장우
    • 한국ITS학회 논문지
    • /
    • 제16권2호
    • /
    • pp.36-54
    • /
    • 2017
  • 본 논문은 환경변화에 강인한 센서 융합 교통정보 수집 시스템을 제안한다. 제안된 시스템은 각 센서의 특징을 융합하여 영상 검지기에 비해 환경에 강인하고, 주 야간 등 시간에 영향을 받지 않으며 루프 검지기에 비해 유지보수에 드는 비용이 적다. 이는 레이더의 물체 추적 기법과 영상검지기의 차량분류, 적외선거리계의 신뢰성 높은 객체검지 정보를 융합하고 각 센서의 문제점을 보완하여 개선을 이루었다. 구현된 시스템을 보행자의 통행이 가능한 도로에서 주 야간 5일에 걸쳐 6시간 동안 실험한 결과 88.7%의 분류정확도와 95.5%의 차량 검지율을 나타내었다. 본 시스템의 파라미터 최적화 작업을 실험환경에 따라 적응되는 방식으로 보완한다면 교통정보 수집 체계의 고도화에 기여할 수 있을 것으로 기대된다.

다중센서융합 기반의 심해무인잠수정 정밀수중항법 구현 (Implementation of Deep-sea UUV Precise Underwater Navigation based on Multiple Sensor Fusion)

  • 김기훈;최현택;이종무;김시문;이판묵;조성권
    • 한국해양공학회지
    • /
    • 제24권3호
    • /
    • pp.46-51
    • /
    • 2010
  • This paper describes the implementation of a precise underwater navigation solution using a multi-sensor fusion technique based on USBL, DVL, and IMU measurements. To implement this precise underwater navigation solution, three strategies are chosen. The first involves heading alignment angle identification to enhance the performance of a standalone dead-reckoning algorithm. In the second, the absolute position is found quickly to prevent the accumulation of integration error. The third one is the introduction of an effective outlier rejection algorithm. The performance of the developed algorithm was verified with experimental data acquired by the deep-sea ROV, Hemire, in the East-sea during a survey of a methane gas seepage area at a 1,500 m depth.