• 제목/요약/키워드: Real-time data fusion

검색결과 126건 처리시간 0.028초

A comparative study of machine learning methods for automated identification of radioisotopes using NaI gamma-ray spectra

  • Galib, S.M.;Bhowmik, P.K.;Avachat, A.V.;Lee, H.K.
    • Nuclear Engineering and Technology
    • /
    • 제53권12호
    • /
    • pp.4072-4079
    • /
    • 2021
  • This article presents a study on the state-of-the-art methods for automated radioactive material detection and identification, using gamma-ray spectra and modern machine learning methods. The recent developments inspired this in deep learning algorithms, and the proposed method provided better performance than the current state-of-the-art models. Machine learning models such as: fully connected, recurrent, convolutional, and gradient boosted decision trees, are applied under a wide variety of testing conditions, and their advantage and disadvantage are discussed. Furthermore, a hybrid model is developed by combining the fully-connected and convolutional neural network, which shows the best performance among the different machine learning models. These improvements are represented by the model's test performance metric (i.e., F1 score) of 93.33% with an improvement of 2%-12% than the state-of-the-art model at various conditions. The experimental results show that fusion of classical neural networks and modern deep learning architecture is a suitable choice for interpreting gamma spectra data where real-time and remote detection is necessary.

교통인프라 센서융합 기술을 활용한 실시간 교통정보 생성 기술 개발 (Development of Real-time Traffic Information Generation Technology Using Traffic Infrastructure Sensor Fusion Technology)

  • 김성진;한수호;김기환;김정래
    • 한국IT서비스학회지
    • /
    • 제22권2호
    • /
    • pp.57-70
    • /
    • 2023
  • In order to establish an autonomous driving environment, it is necessary to study traffic safety and demand prediction by analyzing information generated from the transportation infrastructure beyond relying on sensors by the vehicle itself. In this paper, we propose a real-time traffic information generation method using sensor convergence technology of transportation infrastructure. The proposed method uses sensors such as cameras and radars installed in the transportation infrastructure to generate information such as crosswalk pedestrian presence or absence, crosswalk pause judgment, distance to stop line, queue, head distance, and car distance according to each characteristic. create information An experiment was conducted by comparing the proposed method with the drone measurement result by establishing a demonstration environment. As a result of the experiment, it was confirmed that it was possible to recognize pedestrians at crosswalks and the judgment of a pause in front of a crosswalk, and most data such as distance to the stop line and queues showed more than 95% accuracy, so it was judged to be usable.

ToF와 스테레오 융합을 이용한 3차원 복원 데이터 정밀도 분석 기법 (Analysis of 3D Reconstruction Accuracy by ToF-Stereo Fusion)

  • 정석우;이연성;이경택
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.466-468
    • /
    • 2022
  • 3차원 복원은 AR, XR, 메타버스 등에서 활용되고 있는 중요한 주제입니다. 3차원 재구성을 하기 위해서는 스테레오 카메라, ToF 센서 등을 이용해 깊이 지도를 구해야 합니다. 우리는 두가지 센서를 모두 상호보완적으로 이용하여 3차원 정보를 정밀하게 구하는 방법을 고안하였습니다. 우선 두 카메라의 캘리브레이션을 적용하여 색상 정보와 깊이 정보를 일치시킵니다. 그리고 두 센서로부터의 깊이 지도는 3차원 정합과 재투사 방법을 통하여 융합하였습니다. 융합된 3차원 복원 데이터는 RTC360을 이용해 구한 정밀 데이터와 비교 분석하였습니다. 평균 거리 오차 분석을 위해 상용프로그램 Geomagic Wrap을 활용하였습니다. 제안하는 방법을 구현하고 실공간 데이터를 이용하여 실험을 진행했습니다.

  • PDF

협동 표적 추적을 위한 확률적 데이터 연관 기반 레이더 및 ESM 센서 측정치 융합 기법의 실험적 연구 (Experimental Research on Radar and ESM Measurement Fusion Technique Using Probabilistic Data Association for Cooperative Target Tracking)

  • 이새움;김은찬;정효영;김기성;김기선
    • 한국통신학회논문지
    • /
    • 제37권5C호
    • /
    • pp.355-364
    • /
    • 2012
  • 협동교전능력을 위한 표적정보 수집, 실시간 정보융합, 공동 상황인식 기능 구현을 위하여 표적 처리기법 연구는 중요하다. 이러한 표적 처리 연구 중, 표적의 추적의 문제는 센서로부터 얻어진 측정값을 사용하여 표적의 상태를 예측하는 것으로부터 시작한다. 그러나 상태 예측에 사용되는 센서의 측정값들은 불확실성을 갖고 있기 때문에 측정된 정보에 어느 정도의 신뢰성을 부여할 수 있느냐가 중요한 문제가 된다. 따라서 이를 위해 다중 센서를 이용한 기법이 요구되고, 보편적으로 사용되는 확률적 데이터연관 기법으로부터 다중 센서를 이용한 표적 추적을 위해서는 이종 센서로부터 제공된 측정값들을 처리하기 위한 정보융합 기법이 필요하다. 본 논문에서는 레이더 및 ESM 센서에서 측정된 측정값 정보융합을 통하여 확률데이터연관 필터를 이용한 표적의 트랙 추정 성능을 향상시키기 위한 방법을 구체적으로 분석하여 정보를 결합하기 위한 새로운 실시간측정값 융합 기법을 제안하고 확률데이터연관을 통해 추적할 표적의 트랙을 추정하는 방법을 분석하였다. 모의실험을 통해 제안된 기법들이 선형 혹은 회전 운동하는 모델들에 대해 향상된 추정 결과를 보여준다.

다시점 카메라와 깊이 카메라를 이용한 고화질 깊이 맵 제작 기술 (High-resolution Depth Generation using Multi-view Camera and Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 대한전자공학회논문지SP
    • /
    • 제48권6호
    • /
    • pp.1-7
    • /
    • 2011
  • 깊이 카메라는 Time-of-Flight (TOF) 기술을 이용하여 장면 내 물체들의 거리 정보를 실시간으로 측정하며, 측정된 값은 깊이 영상으로 출력되어 양안식 혹은 다시점 카메라와 함께 장면의 고화질 깊이 맵을 제작하는 데 사용된다. 그러나 깊이 카메라 자체가 가지는 기술적 한계로 인하여 영상에 잡음과 왜곡이 포함되어 있기 때문에 이를 효과적으로 제거할 수 있는 기술이 요구되며, 처리 된 깊이 카메라 영상은 다양한 방법으로 색상 영상과 융합되어 장면의 깊이 정보를 생성할 수 있다. 본 논문에서는 이와 같이 다시 점 카메라와 깊이 카메라를 함께 사용하여 고화질의 깊이 정보를 획득할 수 있는 혼합형 카메라 방식의 원리와 깊이 영상 처리 및 깊이 생성을 위한 기술 동향을 설명한다.

히스토리컬 프로파일 구축과 시.공간 자료합성에 의한 단속류 통행시간 예측 (Travel Time Forecasting in an Interrupted Traffic Flow by adopting Historical Profile and Time-Space Data Fusion)

  • 여태동;한경수;배상훈
    • 대한교통학회지
    • /
    • 제27권2호
    • /
    • pp.133-144
    • /
    • 2009
  • 현재 국내에서는 지역간 교통의 이동성 및 안전성을 향상시키기 위해 국도를 대상으로 ITS사업을 추진중에 있다. 이러한 ITS 사업을 통해 교통정보를 이용자에게 실시간으로 제공해 줌으로써 기존의 교통시설의 이용을 극대화 하는데 목적을 두고 있다. 이러한 정보 제공시 운전자에게 보다 정확한 통행시간정보를 제공해 주는것이 가장 중요하므로 본 연구에서는 자료의 전처리를 통해 원시데이터의 이상치 제거 및 결측처리를 실시하였다. 이를 통해 통행시간 예측의 기본이 되는 원시데이터의 정확성을 향상시켜 정보의 신뢰도를 높일 수 있는 방안을 모색하였다. 그리고 통행시간 예측을 위해 단속류 도로의 특성을 보다 정확히 반영할 수 있는 히스토리컬 프로파일 모형을 구축하였으며 실제 교통류의 특성을 적극적으로 반영하기 위해 보정식을 개발하였다. 따라서 제안된 모형과 히스토리컬 프로파일 모형과 보정식을 통해 통행시간을 예측한 후 기존의 방식인 신경망 모형, 칼만필터 모형과의 비교검증을 실시하였다. 결과적으로 일반적인 상황에서는 칼만필터 모형과 비슷한 예측력을 보였으나, 첨두시나 유고상황에서는 개발모형이 실제 교통흐름을 상대적으로 정확히 반영하여 예측을 수행함을 확인하였다.

Preliminary Application of Synthetic Computed Tomography Image Generation from Magnetic Resonance Image Using Deep-Learning in Breast Cancer Patients

  • Jeon, Wan;An, Hyun Joon;Kim, Jung-in;Park, Jong Min;Kim, Hyoungnyoun;Shin, Kyung Hwan;Chie, Eui Kyu
    • Journal of Radiation Protection and Research
    • /
    • 제44권4호
    • /
    • pp.149-155
    • /
    • 2019
  • Background: Magnetic resonance (MR) image guided radiation therapy system, enables real time MR guided radiotherapy (RT) without additional radiation exposure to patients during treatment. However, MR image lacks electron density information required for dose calculation. Image fusion algorithm with deformable registration between MR and computed tomography (CT) was developed to solve this issue. However, delivered dose may be different due to volumetric changes during image registration process. In this respect, synthetic CT generated from the MR image would provide more accurate information required for the real time RT. Materials and Methods: We analyzed 1,209 MR images from 16 patients who underwent MR guided RT. Structures were divided into five tissue types, air, lung, fat, soft tissue and bone, according to the Hounsfield unit of deformed CT. Using the deep learning model (U-NET model), synthetic CT images were generated from the MR images acquired during RT. This synthetic CT images were compared to deformed CT generated using the deformable registration. Pixel-to-pixel match was conducted to compare the synthetic and deformed CT images. Results and Discussion: In two test image sets, average pixel match rate per section was more than 70% (67.9 to 80.3% and 60.1 to 79%; synthetic CT pixel/deformed planning CT pixel) and the average pixel match rate in the entire patient image set was 69.8%. Conclusion: The synthetic CT generated from the MR images were comparable to deformed CT, suggesting possible use for real time RT. Deep learning model may further improve match rate of synthetic CT with larger MR imaging data.

Dynamic displacement estimation by fusing biased high-sampling rate acceleration and low-sampling rate displacement measurements using two-stage Kalman estimator

  • Kim, Kiyoung;Choi, Jaemook;Koo, Gunhee;Sohn, Hoon
    • Smart Structures and Systems
    • /
    • 제17권4호
    • /
    • pp.647-667
    • /
    • 2016
  • In this paper, dynamic displacement is estimated with high accuracy by blending high-sampling rate acceleration data with low-sampling rate displacement measurement using a two-stage Kalman estimator. In Stage 1, the two-stage Kalman estimator first approximates dynamic displacement. Then, the estimator in Stage 2 estimates a bias with high accuracy and refines the displacement estimate from Stage 1. In the previous Kalman filter based displacement techniques, the estimation accuracy can deteriorate due to (1) the discontinuities produced when the estimate is adjusted by displacement measurement and (2) slow convergence at the beginning of estimation. To resolve these drawbacks, the previous techniques adopt smoothing techniques, which involve additional future measurements in the estimation. However, the smoothing techniques require more computational time and resources and hamper real-time estimation. The proposed technique addresses the drawbacks of the previous techniques without smoothing. The performance of the proposed technique is verified under various dynamic loading, sampling rate and noise level conditions via a series of numerical simulations and experiments. Its performance is also compared with those of the existing Kalman filter based techniques.

깊이 카메라를 이용한 객체 분리 및 고해상도 깊이 맵 생성 방법 (Foreground Segmentation and High-Resolution Depth Map Generation Using a Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 한국통신학회논문지
    • /
    • 제37C권9호
    • /
    • pp.751-756
    • /
    • 2012
  • 본 논문에서는 색상 카메라와 Time-of-Flight (TOF) 깊이 카메라를 이용해 촬영된 장면에서 전경 영역을 분리하고 영상의 고해상도 깊이 정보를 구하는 방법에 대해 제안한다. 깊이 카메라는 장면의 깊이 정보를 실시간으로 측정할 수 있는 장점이 있지만 잡음과 왜곡이 발생하고 색상 영상과의 상관도도 떨어진다. 따라서 이를 색상 영상과 함께 사용하기 위한 색상 영상의 영역화 및 깊이 카메라 영상의 3차원 투영(warping) 작업, 깊이 경계 영역 탐색 등을 진행한 후, 전경의 객체를 분리하고, 객체와 배경에 대하여 깊이 값 계산한다. 깊이 카메라로부터 얻은 초기 깊이 정보를 이용하여 색상 영상에서 구해진 깊이 맵은 기존의 방법인 스테레오 정합 등의 방법보다 우수한 성능을 나타내었고, 무늬가 없는 영역이나 객체 경계 영역에서도 정확한 깊이 정보를 구할 수 있었다.

Acquisition of Grass Harvesting Characteristics Information and Improvement of the Accuracy of Topographical Surveys for the GIS by Sensor Fusion (I) - Analysis of Grass Harvesting Characteristics by Sensor Fusion -

  • Choi, Jong-Min;Kim, Woong;Kang, Tae-Hwan
    • Journal of Biosystems Engineering
    • /
    • 제40권1호
    • /
    • pp.28-34
    • /
    • 2015
  • Purpose: This study aimed to install an RTK-GPS (Real Time Kinematic-Global Positioning System) and IMU (Inertial Measurement Unit) on a tractor used in a farm to measure positions, pasture topography, posture angles, and vibration accelerations, translate the information into maps using the GIS, analyze the characteristics of grass harvesting work, and establish new technologies and construction standards for pasture infrastructure improvement based on the analyzed data. Method: Tractor's roll, pitch, and yaw angles and vibration accelerations along the three axes during grass harvesting were measured and a GIS map prepared from the data. A VRS/RTK-GPS (MS750, Trimble, USA) tractor position measuring system and an IMU (JCS-7401A, JAE, JAPAN) tractor vibration acceleration measuring systems were mounted on top of a tractor and below the operator's seat to obtain acceleration in the direction of progression, transverse acceleration, and vertical acceleration at 10Hz. In addition, information on regions with bad workability was obtained from an operator performing grass harvesting and compared with information on changes in tractor posture angles and vibration acceleration. Results: Roll and pitch angles based on the y-axis, the direction of forward movements of tractor coordinate systems, changed by at least $9-13^{\circ}$ and $8-11^{\circ}$ respectively, leading to changes in working postures in the central and northern parts of the pasture that were designated as regions with bad workability during grass harvesting. These changes were larger than those in other regions. The synthesized vectors of the vibration accelerations along the y-axis, the x-axis (transverse direction), and the z-axis (vertical direction) were higher in the central and northwestern parts of the pasture at 3.0-4.5 m/s2 compared with other regions. Conclusions: The GIS map developed using information on posture angles and vibration accelerations by position in the pasture is considered sufficiently utilizable as data for selection of construction locations for pasture infrastructure improvement.