• 제목/요약/키워드: Kullback-Leibler method

검색결과 38건 처리시간 0.027초

A Study on Particle Filter based on KLD-Resampling for Wireless Patient Tracking

  • Ly-Tu, Nga;Le-Tien, Thuong;Mai, Linh
    • Industrial Engineering and Management Systems
    • /
    • 제16권1호
    • /
    • pp.92-102
    • /
    • 2017
  • In this paper, we consider a typical health care system via the help of Wireless Sensor Network (WSN) for wireless patient tracking. The wireless patient tracking module of this system performs localization out of samples of Received Signal Strength (RSS) variations and tracking through a Particle Filter (PF) for WSN assisted by multiple transmit-power information. We propose a modified PF, Kullback-Leibler Distance (KLD)-resampling PF, to ameliorate the effect of RSS variations by generating a sample set near the high-likelihood region for improving the wireless patient tracking. The key idea of this method is to approximate a discrete distribution with an upper bound error on the KLD for reducing both location error and the number of particles used. To determine this bound error, an optimal algorithm is proposed based on the maximum gap error between the proposal and Sampling Important Resampling (SIR) algorithms. By setting up these values, a number of simulations using the health care system's data sets which contains the real RSSI measurements to evaluate the location error in term of various power levels and density nodes for all methods. Finally, we point out the effect of different power levels vs. different density nodes for the wireless patient tracking.

Automatic Detection of Texture-defects using Texture-periodicity and Jensen-Shannon Divergence

  • Asha, V.;Bhajantri, N.U.;Nagabhushan, P.
    • Journal of Information Processing Systems
    • /
    • 제8권2호
    • /
    • pp.359-374
    • /
    • 2012
  • In this paper, we propose a new machine vision algorithm for automatic defect detection on patterned textures with the help of texture-periodicity and the Jensen-Shannon Divergence, which is a symmetrized and smoothed version of the Kullback-Leibler Divergence. Input defective images are split into several blocks of the same size as the size of the periodic unit of the image. Based on histograms of the periodic blocks, Jensen-Shannon Divergence measures are calculated for each periodic block with respect to itself and all other periodic blocks and a dissimilarity matrix is obtained. This dissimilarity matrix is utilized to get a matrix of true-metrics, which is later subjected to Ward's hierarchical clustering to automatically identify defective and defect-free blocks. Results from experiments on real fabric images belonging to 3 major wallpaper groups, namely, pmm, p2, and p4m with defects, show that the proposed method is robust in finding fabric defects with a very high success rates without any human intervention.

A copula based bias correction method of climate data

  • Gyamfi Kwame Adutwum;Eun-Sung Chung
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.160-160
    • /
    • 2023
  • Generally, Global Climate Models (GCM) cannot be used directly due to their inherent error arising from over or under-estimation of climate variables compared to the observed data. Several bias correction methods have been devised to solve this problem. Most of the traditional bias correction methods are one dimensional as they bias correct the climate variables separately. One such method is the Quantile Mapping method which builds a transfer function based on the statistical differences between the GCM and observed variables. Laux et al. introduced a copula-based method that bias corrects simulated climate data by employing not one but two different climate variables simultaneously and essentially extends the traditional one dimensional method into two dimensions. but it has some limitations. This study uses objective functions to address specifically, the limitations of Laux's methods on the Quantile Mapping method. The objective functions used were the observed rank correlation function, the observed moment function and the observed likelihood function. To illustrate the performance of this method, it is applied to ten GCMs for 20 stations in South Korea. The marginal distributions used were the Weibull, Gamma, Lognormal, Logistic and the Gumbel distributions. The tested copula family include most Archimedean copula families. Five performance metrics are used to evaluate the efficiency of this method, the Mean Square Error, Root Mean Square Error, Kolmogorov-Smirnov test, Percent Bias, Nash-Sutcliffe Efficiency and the Kullback Leibler Divergence. The results showed a significant improvement of Laux's method especially when maximizing the observed rank correlation function and when maximizing a combination of the observed rank correlation and observed moments functions for all GCMs in the validation period.

  • PDF

영어 동사의 의미적 유사도와 논항 선택 사이의 연관성 : ICE-GB와 WordNet을 이용한 통계적 검증 (The Strength of the Relationship between Semantic Similarity and the Subcategorization Frames of the English Verbs: a Stochastic Test based on the ICE-GB and WordNet)

  • 송상헌;최재웅
    • 한국언어정보학회지:언어와정보
    • /
    • 제14권1호
    • /
    • pp.113-144
    • /
    • 2010
  • The primary goal of this paper is to find a feasible way to answer the question: Does the similarity in meaning between verbs relate to the similarity in their subcategorization? In order to answer this question in a rather concrete way on the basis of a large set of English verbs, this study made use of various language resources, tools, and statistical methodologies. We first compiled a list of 678 verbs that were selected from the most and second most frequent word lists from the Colins Cobuild English Dictionary, which also appeared in WordNet 3.0. We calculated similarity measures between all the pairs of the words based on the 'jcn' algorithm (Jiang and Conrath, 1997) implemented in the WordNet::Similarity module (Pedersen, Patwardhan, and Michelizzi, 2004). The clustering process followed, first building similarity matrices out of the similarity measure values, next drawing dendrograms on the basis of the matricies, then finally getting 177 meaningful clusters (covering 437 verbs) that passed a certain level set by z-score. The subcategorization frames and their frequency values were taken from the ICE-GB. In order to calculate the Selectional Preference Strength (SPS) of the relationship between a verb and its subcategorizations, we relied on the Kullback-Leibler Divergence model (Resnik, 1996). The SPS values of the verbs in the same cluster were compared with each other, which served to give the statistical values that indicate how much the SPS values overlap between the subcategorization frames of the verbs. Our final analysis shows that the degree of overlap, or the relationship between semantic similarity and the subcategorization frames of the verbs in English, is equally spread out from the 'very strongly related' to the 'very weakly related'. Some semantically similar verbs share a lot in terms of their subcategorization frames, and some others indicate an average degree of strength in the relationship, while the others, though still semantically similar, tend to share little in their subcategorization frames.

  • PDF

혼합 교차-엔트로피 알고리즘을 활용한 다수 에이전트-다수 작업 할당 문제 (Multi Agents-Multi Tasks Assignment Problem using Hybrid Cross-Entropy Algorithm)

  • 김광
    • 한국산업정보학회논문지
    • /
    • 제27권4호
    • /
    • pp.37-45
    • /
    • 2022
  • 본 논문에서는 대표적인 조합 최적화(combinatorial optimization) 문제인 다수 에이전트-다수 작업 할당 문제를 제시한다. 할당 문제의 목적은 각 작업의 달성률(achievement rate)의 합을 최대로 하는 에이전트-작업 할당을 결정하는 것이다. 달성률은 각 작업의 할당된 에이전트의 수에 따라 아래 오목 증가(concave down increasing)형태로 다루어지며, 본 할당 문제는 비선형(non-linearity)의 목적함수를 갖는 NP-난해(NP-hard) 문제로 표현된다. 본 논문에서는 할당 문제를 해결하기 위한 효과적이면서 효율적인 문제 해결 방법론으로 혼합 교차-엔트로피 알고리즘(hybrid cross-entropy algorithm)을 제안한다. 일반적인 교차-엔트로피 알고리즘은 문제 상황에 따라 느린 매개변수 업데이트 속도와 조기수렴(premature convergence)이 발생할 수 있다. 본 연구에서 제안하는 문제 해결 방법론은 이러한 단점의 발생 확률을 낮추도록 설계되었으며, 실험적으로도 우수한 성능을 보이는 알고리즘임을 수치실험을 통해 제시한다.

비음수행렬분해 기반 연속파 잔향 제거 기법의 초매개변숫값에 따른 실험적 성능 분석 (Experimental performance analysis on the non-negative matrix factorization-based continuous wave reverberation suppression according to hyperparameters)

  • 이용곤;이석진;김기만;김근환
    • 한국음향학회지
    • /
    • 제42권1호
    • /
    • pp.32-41
    • /
    • 2023
  • 최근 비음수행렬분해 기법을 이용한 잔향 제거 연구가 활발히 이루어지고 있다. 비음수행렬분해 기법은 최적화를 위해 쿨백라이블러 발산 기반의 비용함수를 사용하며, 시간 연속성, 펄스 길이, 잔향과 표적 간 에너지 비율 등 제약사항들이 추가된다. 그리고 초매개변수를 이용하여 제약사항이 적용되는 경향을 조절한다. 따라서 효율적인 잔향 제거를 위해서는 초매개변수를 최적화해야 하지만 현재까지는 관련된 연구가 미흡한 실정이다. 본 논문에서는 실제 해상실험 데이터를 이용하여 비음수행렬분해 기반 잔향 제거 기법의 세 가지 초매개변수에 따른 잔향 제거 성능을 분석하였다. 분석결과, 시간 연속성과 펄스 길이에 대한 초매개변수는 값이 높을 경우 잔향과 표적 간의 에너지 비율은 0.4 이하에서 우수한 성능을 보였으나, 변화하는 송수신 환경에 따라서 성능의 변동성이 있음을 확인하였다. 본 논문의 분석 결과가 향후 비음수행렬분해 기반 연속파 잔향 제거 기법의 초매개변수를 최적화하기 위한 정밀한 실험을 계획하는 것에 유용한 지침표가 될 수 있을 것으로 기대한다.

동적 $H_2^{15}O$ PET에서 앙상블 독립성분분석법을 이용한 심근 혈류 정량화 방법 개발 (Development of Quantification Methods for the Myocardial Blood Flow Using Ensemble Independent Component Analysis for Dynamic $H_2^{15}O$ PET)

  • 이병일;이재성;이동수;강원준;이종진;김수진;최승진;정준기;이명철
    • 대한핵의학회지
    • /
    • 제38권6호
    • /
    • pp.486-491
    • /
    • 2004
  • 목적: 요소분석법. 독립성분분석법 등이 PET을 이용하여 심근혈류를 비침습적으로 측정하기 위하여 사용되어 왔다. 이론적으로 뛰어나고 새로운 방법인 앙상블 독려성분분석법을 이용하여 $H_2^{15}O$ 동적 심근 PET데이터의 정량분석방법을 개발하였다. 이 연구에서 사용한 앙상블 독려성분분석법을 이용하여 환자의 혈류를 정량화 하였다. 대상 및 방법: 관동맥질환이 의심되어 관류 SPECT를 시행한 환자 20명을 대상으로 $H_2^{15}O$ 동적 심근 PET을 시행한 후 앙상블 독립성분분석법을 이용하여 심근 독립성분영상을 추출하였으며, 좌심실영역과 심근영역에 대한 영상대조도를 조사하였다. 앙상블 학습은 독립성분과 가중치 행렬에 대한 확률분포를 가정하고 베이지안 이론에 의해서 혼합자료에 대한 확률분포를 추정한다. 이렇게 추정한 혼합자료의 확률분포와 실제 분포간의 차이인 Kullback-Leibler 발산치가 최소가 되도록 독립성분과 가중치 행렬을 순차적으로 변화시켜가며 최종 해를 찾는 방식이다. 이 연구에서 사후확률분포는 동적 핵의학 영상에 적합한 비음성제약조건과 함께 수정된 가우시안 분포를 이용하여 최적화 하였다. 혈류량은 심첨부, 중벽 네 부분, 하벽 네 부분의 9개 영역으로 나누어 측정하였으며, 측정결과에 대해 관류 SPECT 소견과 관동맥조영술의 소견과 비교하였다. 결과: 전체 20명의 휴식기 및 부하기 영상에서 5명을 제외한 15명의 데이터에 대해 심근혈류를 측정할 수 있었다. $H_2^{15}O$ 동적 심근 PET에서 앙상블 독립성분분석법을 이용하여 정량화한 휴식기 혈류량은 $1.2{\pm}0.40$ ml/min/g, 부하기 혈류량은 $1.85{\pm}1.12$ml/min/g이었다. 같은 영역에 대해 두 번 측정했을 때 측정된 심근혈류값의 상관계수는 0.99로 재현성이 높았다. 분리된 독립성분영상에서 영상대조도는 좌심실에 대한 심근영역의 비는 평균 1:2.7이었다. 관동맥 조영술을 시행한 9명에서 협착이 없는 분절과 협착이 있는 분절의 혈류예비능에 유의한 차이가 있었다(P<0.01). 또한, 관동맥조영술에서 협착이 확인된 66분절의 심근관류 SPECT 소견에서 가역적 혈류감소를 보인 분절의 혈류예비능이 더 많이 감소되는 경향을 보였으나 통계적 유의성을 보이지는 않았다. 결론: 앙상블 학습을 이용한 독립성분분석방법을 이용하여 심근혈류가 측정이 되었다. 앙상블 독립성분분석법을 이용한 $H_2^{15}O$ 동적 심근 PET 분석방법이 관상동맥 질환의 분석 및 동적 핵의학 영상 데이터의 연구에 도움이 될 것으로 기대된다.

MSSSIM 및 쿨백-라이블러 발산 기반 의사 율-왜곡 평가 함수와 복수개의 영상처리 필터를 이용한 동영상 전처리 방법 (Image Processing of Pseudo-rate-distortion Function Based on MSSSIM and KL-Divergence, Using Multiple Video Processing Filters for Video Compression)

  • 석진욱;조승현;김휘용;최진수
    • 방송공학회논문지
    • /
    • 제23권6호
    • /
    • pp.768-779
    • /
    • 2018
  • 본 논문에서는 동영상 화질을 최대한 유지하면서 압축 비트량 절감을 효율적으로 이루기 위해 복수개의 영상처리 필터를 영상의 블록에 따라 선택적으로 적용하고, 영상처리 필터의 선택을 위한 MSSSIM(Multi-Scale Structural SIMilarity) 및 쿨백-라이블러 발산(Kullback-Leibler divergence: KL-Divergence) 기반의 영상 처리 평가 함수를 제안한다. 영상압축의 경우, 영상 내 특징에 따라 화질과 비트량 절감의 특성이 다르며, 이에 따라 단일 목적을 가진 영상처리 필터로서는 화질을 유지하면서, 비트량 절감이라는 목적을 동시에 만족 시키기 어렵다. 이에 따라, 주관적 화질을 최대한 유지하면서, 비트량을 절감시키기 위해 주관적 화질 측도로서 MSSSIM를 사용하고 비트 량 측도를 위하여 쿨백-라이블러 발산을 사용함과 동시에 두 가지 척도를 하나의 척도로 결합시키기 위한 방법을 제안한다. 아울러 제안한 측도를 사용하여 서로 다른 특성을 가진 영상처리 필터를 전처리 필터로 사용할 경우, 주관적 화질을 최대한 유지하면서 비트량 절감을 유지할 수 있도록 동영상 압축이 가능함을 확인할 수 있었다.