• 제목/요약/키워드: multiple sensor fusion

검색결과 92건 처리시간 0.023초

DIND Data Fusion with Covariance Intersection in Intelligent Space with Networked Sensors

  • Jin, Tae-Seok;Hashimoto, Hideki
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제7권1호
    • /
    • pp.41-48
    • /
    • 2007
  • Latest advances in network sensor technology and state of the art of mobile robot, and artificial intelligence research can be employed to develop autonomous and distributed monitoring systems. In this study, as the preliminary step for developing a multi-purpose "Intelligent Space" platform to implement advanced technologies easily to realize smart services to human. We will give an explanation for the ISpace system architecture designed and implemented in this study and a short review of existing techniques, since there exist several recent thorough books and review paper on this paper. Instead we will focus on the main results with relevance to the DIND data fusion with CI of Intelligent Space. We will conclude by discussing some possible future extensions of ISpace. It is first dealt with the general principle of the navigation and guidance architecture, then the detailed functions tracking multiple objects, human detection and motion assessment, with the results from the simulations run.

정보보안을 위한 생체 인식 모델에 관한 연구 (A Study on Biometric Model for Information Security)

  • 김준영;정세훈;심춘보
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.317-326
    • /
    • 2024
  • 생체 인식은 사람의 생체적, 행동적 특징 정보를 특정 장치로 추출하여 본인 여부를 판별하는 기술이다. 생체 인식 분야에서 생체 특성 위조, 복제, 해킹 등 사이버 위협이 증가하고 있다. 이에 대응하여 보안 시스템이 강화되고 복잡해지며, 개인이 사용하기 어려워지고 있다. 이를 위해 다중 생체 인식 모델이 연구되고 있다. 기존 연구들은 특징 융합 방법을 제시하고 있으나, 특징 융합 방법 간의 비교는 부족하다. 이에 본 논문에서는 지문, 얼굴, 홍채 영상을 이용한 다중 생체 인식 모델의 융합 방법을 비교 평가했다. 특징 추출을 위해VGG-16, ResNet-50, EfficientNet-B1, EfficientNet-B4, EfficientNet-B7, Inception-v3를 사용했으며, 특성융합을 위해 'Sensor-Level', 'Feature-Level', 'Score-Level', 'Rank-Level' 융합 방법을 비교 평가했다. 비교평가결과 'Feature-Level' 융합 방법에서 EfficientNet-B7 모델이 98.51%의 정확도를 보이며 높은 안정성을 보였다. 그러나 EfficietnNet-B7모델의 크기가 크기 때문에 생체 특성 융합을 위한 모델 경량화 연구가 필요하다.

퍼지 클래스 벡터를 이용하는 다중센서 융합에 의한 무감독 영상분류 (Unsupervised Image Classification through Multisensor Fusion using Fuzzy Class Vector)

  • 이상훈
    • 대한원격탐사학회지
    • /
    • 제19권4호
    • /
    • pp.329-339
    • /
    • 2003
  • 본 연구에서는 무감독 영상분류를 위하여 특성이 다른 센서로 수집된 영상들에 대한 의사결정 수준의 영상 융합기법을 제안하였다. 제안된 기법은 공간 확장 분할에 근거한 무감독 계층군집 영상분류기법을 개개의 센서에서 수집된 영상에 독립적으로 적용한 후 그 결과로 생성되는 분할지역의 퍼지 클래스 벡터(fuzzy class vector)를 이용하여 각 센서의 분류 결과를 융합한다. 퍼지 클래스벡터는 분할지역이 각 클래스에 속할 확률을 표시하는 지시(indicator) 벡터로 간주되며 기대 최대화 (EM: Expected Maximization) 추정 법에 의해 관련 변수의 최대 우도 추정치가 반복적으로 계산되어진다. 본 연구에서는 같은 특성의 센서 혹은 밴드 별로 분할과 분류를 수행한 후 분할지역의 분류결과를 퍼지 클래스 벡터를 이용하여 합성하는 접근법을 사용하고 있으므로 일반적으로 다중센서의 영상의 분류기법에 사용하는 화소수준의 영상융합기법에서처럼 서로 다른 센서로부터 수집된 영상의 화소간의 공간적 일치에 대한 높은 정확도를 요구하지 않는다. 본 연구는 한반도 전라북도 북서지역에서 관측된 다중분광 SPOT 영상자료와 AIRSAR 영상자료에 적용한 결과 제안된 영상 융합기법에 의한 피복 분류는 확장 벡터의 접근법에 의한 영상 융합보다 서로 다른 센서로부터 얻어지는 정보를 더욱 적합하게 융합한다는 것을 보여주고 있다.

제약 전파 기법을 적용한 다중 이동 로봇의 상호 협동 위치 추정 (Cooperative Localization for Multiple Mobile Robots using Constraints Propagation Techniques on Intervals)

  • 조경환;장철수;이지홍
    • 제어로봇시스템학회논문지
    • /
    • 제14권3호
    • /
    • pp.273-283
    • /
    • 2008
  • This article describes a cooperative localization technique of multiple robots sharing position information of each robot. In case of conventional methods such as EKF, they need to linearization process. Consequently, they are not able to guarantee that their result is range containing true value. In this paper, we propose a method to merge the data of redundant sensors based on constraints propagation techniques on intervals. The proposed method has a merit guaranteeing true value. Especially, we apply the constraints propagation technique fusing wheel encoders, a gyro, and an inexpensive GPS receiver. In addition, we utilize the correlation between GPS data in common workspace to improve localization performance for multiple robots. Simulation results show that proposed method improve considerably localization performance of multiple robots.

다중 센서에 의한 다중 지상 표적 추적시 지형 정보가 미치는 영향 (Effects of Geographic Information on the Performance of Multiple Ground Target Tracking System Using Multiple Sensors)

  • 김인택;이응기;김웅수
    • 한국항행학회논문지
    • /
    • 제2권1호
    • /
    • pp.43-52
    • /
    • 1998
  • 본 논문에서는 다중 센서를 사용하는 센서 융합 환경에서 지형 정보의 사용이 다중 지상 표적 추적 성능에 어떠한 영향을 미치는가를 조사하였다. 지형 정보의 사용을 연계시와 표적의 발생을 제한하는 두 가지 경우에 대해 적용하였다. 전자의 경우는 거의 영향이 없었으나 후자의 경우는 오궤적의 수가 줄어드는 긍정적인 결과를 가져왔다. 결론적으로 지형 정보의 사용은 부가적인 센서의 운영으로 간주할 수 있기 때문에 좀 더 조심스러운 지형 정보의 사용이 요구된다.

  • PDF

등록 지문의 정보 융합에 관한 연구 (Fingerprint Fusion Based on Minutiae and Ridge for Enrollment)

  • 이동재;최경택;이상훈;김재희
    • 대한전자공학회논문지SP
    • /
    • 제41권3호
    • /
    • pp.93-100
    • /
    • 2004
  • 본 논문은 등록 지문의 정보를 융합하여 보다 많은 정보를 이용함으로써 지문 검증의 성능을 향상시키는 방법을 제안한다. 크기가 작은 센서는 많은 응용 분야에 적용시킬 수 있는 장점을 가지지만, 실제 지문을 입력 받는 센서 입력창의 물리적인 크기가 작기 때문에 지문 정보를 충분히 입력받지 못할 뿐만 아니라 등록된 지문 영상과 검증을 위해 입력된 지문 영상 사이의 공통영역이 축소되어 전체적인 시스템의 성능을 저하시키는 문제점이 있다. 이러한 문제점은 등록 영상을 여러 장 받아 그 정보를 융합하여 보다 큰 지문 영역을 표현하도록 함으로써 해결할 수 있다. 이를 위해서는 등록 영상간의 좌표계를 정밀하게 일치시키는 과정이 무엇보다 중요하다. 본 논문에서는 먼저 등록영상 사이의 대응 특징점 쌍을 이용하여 거칠게 일치시킨 다음, 융선의 정보를 포함하는 Distance Map을 이용하여 정밀하게 일치시키는 방법을 사용하였다. 정밀하게 일치된 좌표계를 통해 각각의 등록 지문들의 특징 정보는 하나의 큰 등록 정보로 형성된다. 제안된 방법을 통해 형성된 특징 융합 정보는 보다 넓은 면적의 지문을 표현할 수 있기 때문에 센서 입력창이 작아서 생기는 문제를 극복함으로써 지문 인식기의 성능을 향상시킨다. 본 논문의 실험 견과는 제안한 융합 특징 정보를 이용하는 방법이 그렇지 않은 방법보다 지문 인식기의 성능을 월등하게 향상시킴을 보여준다.

Segment-based Image Classification of Multisensor Images

  • Lee, Sang-Hoon
    • 대한원격탐사학회지
    • /
    • 제28권6호
    • /
    • pp.611-622
    • /
    • 2012
  • This study proposed two multisensor fusion methods for segment-based image classification utilizing a region-growing segmentation. The proposed algorithms employ a Gaussian-PDF measure and an evidential measure respectively. In remote sensing application, segment-based approaches are used to extract more explicit information on spatial structure compared to pixel-based methods. Data from a single sensor may be insufficient to provide accurate description of a ground scene in image classification. Due to the redundant and complementary nature of multisensor data, a combination of information from multiple sensors can make reduce classification error rate. The Gaussian-PDF method defines a regional measure as the PDF average of pixels belonging to the region, and assigns a region into a class associated with the maximum of regional measure. The evidential fusion method uses two measures of plausibility and belief, which are derived from a mass function of the Beta distribution for the basic probability assignment of every hypothesis about region classes. The proposed methods were applied to the SPOT XS and ENVISAT data, which were acquired over Iksan area of of Korean peninsula. The experiment results showed that the segment-based method of evidential measure is greatly effective on improving the classification via multisensor fusion.

Multiple Color and ToF Camera System for 3D Contents Generation

  • Ho, Yo-Sung
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제6권3호
    • /
    • pp.175-182
    • /
    • 2017
  • In this paper, we present a multi-depth generation method using a time-of-flight (ToF) fusion camera system. Multi-view color cameras in the parallel type and ToF depth sensors are used for 3D scene capturing. Although each ToF depth sensor can measure the depth information of the scene in real-time, it has several problems to overcome. Therefore, after we capture low-resolution depth images by ToF depth sensors, we perform a post-processing to solve the problems. Then, the depth information of the depth sensor is warped to color image positions and used as initial disparity values. In addition, the warped depth data is used to generate a depth-discontinuity map for efficient stereo matching. By applying the stereo matching using belief propagation with the depth-discontinuity map and the initial disparity information, we have obtained more accurate and stable multi-view disparity maps in reduced time.

A Tracking Algorithm for Autonomous Navigation of AGVs: Federated Information Filter

  • Kim, Yong-Shik;Hong, Keum-Shik
    • 한국항해항만학회지
    • /
    • 제28권7호
    • /
    • pp.635-640
    • /
    • 2004
  • In this paper, a tracking algorithm for autonomous navigation of automated guided vehicles (AGVs) operating in container terminals is presented. The developed navigation algorithm takes the form of a federated information filter used to detect other AGVs and avoid obstacles using fused information from multiple sensors. Being equivalent to the Kalman filter (KF) algebraically, the information filter is extended to N-sensor distributed dynamic systems. In multi-sensor environments, the information-based filter is easier to decentralize, initialize, and fuse than a KF-based filter. It is proved that the information state and the information matrix of the suggested filter, which are weighted in terms of an information sharing factor, are equal to those of a centralized information filter under the regular conditions. Numerical examples using Monte Carlo simulation are provided to compare the centralized information filter and the proposed one.

Efficiently Managing Collected from External Wireless Sensors on Smart Devices Using a Sensor Virtualization Framework

  • 이병복;홍상기;이계선;김내수;고정길
    • 정보와 통신
    • /
    • 제30권10호
    • /
    • pp.79-85
    • /
    • 2013
  • By interacting with external wireless sensors, smartphones can gather high-fidelity data on the surrounding environment to develop various environment-aware, personalized applications. In this work we introduce the sensor virtualization module (SVM), which virtualizes external sensors so that smartphone applications can easily utilize a large number of external sensing resources. Implemented on the Android platform, our SVM simplifies the management of external sensors by abstracting them as virtual sensors to provide the capability of resolving conflicting data requests from multiple applications and also allowing sensor data fusion for data from different sensors to create new customized sensors elements. We envision our SVM to open the possibilities of designing novel personalized smartphone applications.