• 제목/요약/키워드: fusion of sensor information

검색결과 410건 처리시간 0.029초

유한 상태 기계를 이용한 자율무인기뢰처리기의 다중센서융합기반 수중유도항법시스템 설계 (Multi-sensor Fusion Based Guidance and Navigation System Design of Autonomous Mine Disposal System Using Finite State Machine)

  • 김기훈;최현택;이종무
    • 전자공학회논문지SC
    • /
    • 제47권6호
    • /
    • pp.33-42
    • /
    • 2010
  • 본 연구에서는 실해역에서 해류를 고려한 실용적인 유도 시스템을 제안하고 있다. 본 논문에서는 생성된 경로의 최적성은 주요 이슈가 아니다. 시작점부터 목표점까지의 경로는 주요 해류의 방향축을 고려하여 운용 경험이 많은 전문가의 경유점 선택을 통하여 생성된다. 본 논문에서는 또한 초단기선, GPS, 도플러 속도계 그리고 자세센서 등의 계측치를 통해서 다중센서융합알고리즘을 이용하여 정밀 수중항법 솔루션 구현에 대하여 설명하고 있다. 정밀하고 정확하고 갱신 주기가 빠른 수중항법 솔루션을 구현하기 위하여 세 가지 전략을 사용하였다. 첫째는 추측항법의 단독 성능을 향상시키기 위하여 선수각 정밀 정렬을 수행하였다. 둘째는 기본이 되는 단독추측항법이 적분 알고리즘에 기반을 두었기 때문에 시간의 추이에 따른 누적오차의 증가 특성을 가지고 있는데 이를 막기 위하여 주기적으로 절대 위치 정보를 다중센서융합 기법을 이용하여 융합하여 주는 것이다. 셋째는 융합알고리즘의 품질 향상을 위하여 효율적인 특이점 제거 알고리즘을 도입하는 것이다. 개발된 정밀수중항법알고리즘의 성능을 검증하기 위하여 자율기뢰처리기와 심해무인잠수정의 실해역 데이터를 사용하였다.

GOCI와 Landsat OLI 영상 융합을 통한 적조 탐지 (Red Tide Detection through Image Fusion of GOCI and Landsat OLI)

  • 신지선;김근용;민지은;유주형
    • 대한원격탐사학회지
    • /
    • 제34권2_2호
    • /
    • pp.377-391
    • /
    • 2018
  • 광역범위에 대한 적조의 효율적인 모니터링을 위하여 원격탐사의 필요성이 점차 증가하고 있다. 하지만 기존 연구에서는 다양한 센서 중 해색 센서만을 위한 적조 탐지 알고리즘 개발에만 집중되어 있는 실정이다. 본 연구에서는 위성 기반 적조 모니터링의 한계로 지적되고 있는 탁도가 높은 연안역의 적조 탐지와 원격탐사 자료의 부정확성을 개선하고자 다중센서의 활용을 제시하고자 한다. 국립수산과학원 적조속보 정보를 바탕으로 적조 발생해역을 선정하였고, 해색 센서인 GOCI 영상과 육상 센서인 Landsat OLI 영상을 이용하여 공간적인 융합과 분광기반 융합을 시도하였다. 두 영상의 공간 융합을 통하여, GOCI 영상에서 관측 불가능하였던 연안지역의 적조와 Landsat OLI 영상의 품질이 낮았던 외해역의 적조 모두 개선된 탐지결과 획득 가능하였다. Feature-level과 rawdata-level로 나누어 진행된 분광 융합 결과, 두 방법에서 도출된 적조 분포 양상은 큰 차이를 보이지 않았다. 하지만 feature-level 방법에서는 영상의 공간해상도가 낮을수록 적조 면적이 과대추정되는 경향이 나타났다. Linear spectral unmixing 방법으로 픽셀을 세분화한 결과, 적조 비율이 낮은 픽셀의 수가 많을수록 적조 면적의 차이는 심화되는 것으로 나타났다. Rawdata-level의 경우Gram-Schmidt가 PC spectral sharpening 기법보다 다소 넓은 면적이 추정되었지만, 큰 차이는 나타나지 않았다. 본 연구에서는 해색 센서와 육상 센서의 공간 융합을 통해 외해뿐만 아니라 탁도가 높은 연안의 적조 역시 탐지가 가능함을 보여주었고, 다양한 분광 융합 방법을 제시함으로써 더욱 정확한 적조 면적 추정 방법을 제시하였다. 이 결과는 한반도 주변의 적조를 더욱 정확하게 탐지하고, 적조를 효과적으로 제어하기 위한 대응대책 수립을 결정하는데 필요한 정확한 적조 면적 정보를 제공할 수 있을 것으로 기대된다.

측정치 융합에 기반을 둔 다중표적 방위각 추적 알고리즘 (Mutiple Target Angle Tracking Algorithm Based on measurement Fusion)

  • 류창수
    • 전자공학회논문지 IE
    • /
    • 제43권3호
    • /
    • pp.13-21
    • /
    • 2006
  • Ryu 등은 배열센서 출력을 이용하여 추정한 신호부공간으로부터 표적의 방위각 측정치를 구하고, 이를 이용하여 표적의 방위각 궤적을 추적하는 알고리즘을 제안하였다. Ryu 등이 제안한 방위각 추적 알고리즘은 별도의 데이터연관 필터가 필요 없으며 구조가 간단하다는 장점을 가지고 있다. Ryu의 방위각 추적 알고리즘에서는 신호부공간이 센서출력에 의해서 계속 쇄신되고 있지만 표본시간의 신호부공간에서 구한 측정치만을 사용하고 있으며, 신호대잡음비가 낮은 경우에는 Ryu 알고리즘의 추적 성능이 매우 급격히 저하되는 문제점을 가지고 있다. 본 논문에서는 Ryu 알고리즘의 방위각 추적 성능을 개선하기 위하여 표본시간의 신호부공간에서 구한 측정치뿐만 아니라 표본시간에 인접한 신호부공간으로부터 구한 측정치까지 사용할 수 있도록 ML(Maximum Lekelihood)에 기반을 둔 측정치 융합 기법을 제안한다. 그리고 제안한 측정치 융합 기법을 이용하여 Ryu 알고리즘과 같은 구조를 가지는 새로운 방위각 추적 알고리즘을 제안한다. 제안한 방위각 추적 알고리즘은 Ryu 알고리즘의 장점을 그대로 유지하면서 Ryu 알고리즘보다 향상된 추적 성능을 가진다.

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.

3축 이동량 측정을 이용한 LED조명과 스마트단말 카메라기반 위치정보 획득 기법 (Position Information Acquisition Method Based on LED Lights and Smart Device Camera Using 3-Axis Moving Distance Measurement)

  • 정순호;이민우;김기윤;차재상
    • 한국통신학회논문지
    • /
    • 제40권1호
    • /
    • pp.226-232
    • /
    • 2015
  • 스마트기기 시대가 도래함에 따라, 최근 스마폰과 관련한 많은 응용 서비스들이 개발되고 있으며, LBS(Location Based Service) 기술은 위치 기반 서비스를 제공하기 위해 가장 중요한 기술 중의 하나로 인식되고 있다. 일반적으로 스마트폰의 위치인식은 GPS(Global Positioning System), G-Sensor와 같은 위치 인식 시스템 및 센서를 이용하여 위치 정보를 획득하게 된다. 그러나 실내에서는 위성으로부터의 GPS 신호를 수신하기가 거의 불가능하므로 실내 환경을 위한 새로운 LBS 기술이 필요하다. 본 논문에서는 이러한 문제를 해결하기 위해 LED 조명과 스마트폰의 카메라 센서를 이용한 위치정보 송수신기를 제안한다. 제안 위치 인식 시스템의 실용성 검증을 위해 실험실 환경에서의 실험을 통해 그 가능성을 입증하였다.

교통인프라 센서융합 기술을 활용한 실시간 교통정보 생성 기술 개발 (Development of Real-time Traffic Information Generation Technology Using Traffic Infrastructure Sensor Fusion Technology)

  • 김성진;한수호;김기환;김정래
    • 한국IT서비스학회지
    • /
    • 제22권2호
    • /
    • pp.57-70
    • /
    • 2023
  • In order to establish an autonomous driving environment, it is necessary to study traffic safety and demand prediction by analyzing information generated from the transportation infrastructure beyond relying on sensors by the vehicle itself. In this paper, we propose a real-time traffic information generation method using sensor convergence technology of transportation infrastructure. The proposed method uses sensors such as cameras and radars installed in the transportation infrastructure to generate information such as crosswalk pedestrian presence or absence, crosswalk pause judgment, distance to stop line, queue, head distance, and car distance according to each characteristic. create information An experiment was conducted by comparing the proposed method with the drone measurement result by establishing a demonstration environment. As a result of the experiment, it was confirmed that it was possible to recognize pedestrians at crosswalks and the judgment of a pause in front of a crosswalk, and most data such as distance to the stop line and queues showed more than 95% accuracy, so it was judged to be usable.

IoT Enabled Smart Emergency LED Exit Sign controller Design using Arduino

  • Jung, Joonseok;Kwon, Jongman;Mfitumukiza, Joseph;Jung, Soonho;Lee, Minwoo;Cha, Jaesang
    • International journal of advanced smart convergence
    • /
    • 제6권1호
    • /
    • pp.76-81
    • /
    • 2017
  • This paper presents a low cost and flexible IoT enabled smart LED controller using Arduino that is used for emergency exit signs. The Internet of Things (IoT) is become a global network that put together physical objects using network communications for the purpose of inter-communication of devices, access information on internet, interaction with users as well as permanent connected environment. A crucial point in this paper, is underlined on the potential key points of applying the Arduino platform as low cost, easy to use microcontroller with combination of various sensors applied in IoT technology to facilitate and establishment of intelligent products. To demonstrate the feasibility and effectiveness of the system, devices such as LED strip, combination of various sensors, Arduino, power plug and ZigBee module have been integrated to setup smart emergency exit sign system. The general concept of the proposed system design discussed in this paper is all about the combination of various sensor such as smoke detector sensor, humidity, temperature sensor, glass break sensors as well as camera sensor that are connected to the main controller (Arduino) for the purpose of communicating with LED exit signs displayer and dedicated PC monitors from integrated system monitoring (controller room) through gateway devices using Zig bee module. A critical appraisal of the approach in the area concludes the paper.

퍼지 클래스 벡터를 이용하는 다중센서 융합에 의한 무감독 영상분류 (Unsupervised Image Classification through Multisensor Fusion using Fuzzy Class Vector)

  • 이상훈
    • 대한원격탐사학회지
    • /
    • 제19권4호
    • /
    • pp.329-339
    • /
    • 2003
  • 본 연구에서는 무감독 영상분류를 위하여 특성이 다른 센서로 수집된 영상들에 대한 의사결정 수준의 영상 융합기법을 제안하였다. 제안된 기법은 공간 확장 분할에 근거한 무감독 계층군집 영상분류기법을 개개의 센서에서 수집된 영상에 독립적으로 적용한 후 그 결과로 생성되는 분할지역의 퍼지 클래스 벡터(fuzzy class vector)를 이용하여 각 센서의 분류 결과를 융합한다. 퍼지 클래스벡터는 분할지역이 각 클래스에 속할 확률을 표시하는 지시(indicator) 벡터로 간주되며 기대 최대화 (EM: Expected Maximization) 추정 법에 의해 관련 변수의 최대 우도 추정치가 반복적으로 계산되어진다. 본 연구에서는 같은 특성의 센서 혹은 밴드 별로 분할과 분류를 수행한 후 분할지역의 분류결과를 퍼지 클래스 벡터를 이용하여 합성하는 접근법을 사용하고 있으므로 일반적으로 다중센서의 영상의 분류기법에 사용하는 화소수준의 영상융합기법에서처럼 서로 다른 센서로부터 수집된 영상의 화소간의 공간적 일치에 대한 높은 정확도를 요구하지 않는다. 본 연구는 한반도 전라북도 북서지역에서 관측된 다중분광 SPOT 영상자료와 AIRSAR 영상자료에 적용한 결과 제안된 영상 융합기법에 의한 피복 분류는 확장 벡터의 접근법에 의한 영상 융합보다 서로 다른 센서로부터 얻어지는 정보를 더욱 적합하게 융합한다는 것을 보여주고 있다.

정보보안을 위한 생체 인식 모델에 관한 연구 (A Study on Biometric Model for Information Security)

  • 김준영;정세훈;심춘보
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.317-326
    • /
    • 2024
  • 생체 인식은 사람의 생체적, 행동적 특징 정보를 특정 장치로 추출하여 본인 여부를 판별하는 기술이다. 생체 인식 분야에서 생체 특성 위조, 복제, 해킹 등 사이버 위협이 증가하고 있다. 이에 대응하여 보안 시스템이 강화되고 복잡해지며, 개인이 사용하기 어려워지고 있다. 이를 위해 다중 생체 인식 모델이 연구되고 있다. 기존 연구들은 특징 융합 방법을 제시하고 있으나, 특징 융합 방법 간의 비교는 부족하다. 이에 본 논문에서는 지문, 얼굴, 홍채 영상을 이용한 다중 생체 인식 모델의 융합 방법을 비교 평가했다. 특징 추출을 위해VGG-16, ResNet-50, EfficientNet-B1, EfficientNet-B4, EfficientNet-B7, Inception-v3를 사용했으며, 특성융합을 위해 'Sensor-Level', 'Feature-Level', 'Score-Level', 'Rank-Level' 융합 방법을 비교 평가했다. 비교평가결과 'Feature-Level' 융합 방법에서 EfficientNet-B7 모델이 98.51%의 정확도를 보이며 높은 안정성을 보였다. 그러나 EfficietnNet-B7모델의 크기가 크기 때문에 생체 특성 융합을 위한 모델 경량화 연구가 필요하다.

Segment-based Image Classification of Multisensor Images

  • Lee, Sang-Hoon
    • 대한원격탐사학회지
    • /
    • 제28권6호
    • /
    • pp.611-622
    • /
    • 2012
  • This study proposed two multisensor fusion methods for segment-based image classification utilizing a region-growing segmentation. The proposed algorithms employ a Gaussian-PDF measure and an evidential measure respectively. In remote sensing application, segment-based approaches are used to extract more explicit information on spatial structure compared to pixel-based methods. Data from a single sensor may be insufficient to provide accurate description of a ground scene in image classification. Due to the redundant and complementary nature of multisensor data, a combination of information from multiple sensors can make reduce classification error rate. The Gaussian-PDF method defines a regional measure as the PDF average of pixels belonging to the region, and assigns a region into a class associated with the maximum of regional measure. The evidential fusion method uses two measures of plausibility and belief, which are derived from a mass function of the Beta distribution for the basic probability assignment of every hypothesis about region classes. The proposed methods were applied to the SPOT XS and ENVISAT data, which were acquired over Iksan area of of Korean peninsula. The experiment results showed that the segment-based method of evidential measure is greatly effective on improving the classification via multisensor fusion.