• 제목/요약/키워드: Gibbs Algorithm

검색결과 90건 처리시간 0.023초

Inverted exponentiated Weibull distribution with applications to lifetime data

  • Lee, Seunghyung;Noh, Yunhwan;Chung, Younshik
    • Communications for Statistical Applications and Methods
    • /
    • 제24권3호
    • /
    • pp.227-240
    • /
    • 2017
  • In this paper, we introduce the inverted exponentiated Weibull (IEW) distribution which contains exponentiated inverted Weibull distribution, inverse Weibull (IW) distribution, and inverted exponentiated distribution as submodels. The proposed distribution is obtained by the inverse form of the exponentiated Weibull distribution. In particular, we explain that the proposed distribution can be interpreted by Marshall and Olkin's book (Lifetime Distributions: Structure of Non-parametric, Semiparametric, and Parametric Families, 2007, Springer) idea. We derive the cumulative distribution function and hazard function and calculate expression for its moment. The hazard function of the IEW distribution can be decreasing, increasing or bathtub-shaped. The maximum likelihood estimation (MLE) is obtained. Then we show the existence and uniqueness of MLE. We can also obtain the Bayesian estimation by using the Gibbs sampler with the Metropolis-Hastings algorithm. We also give applications with a simulated data set and two real data set to show the flexibility of the IEW distribution. Finally, conclusions are mentioned.

정규확률변수 관측치열에 대한 베이지안 변화점 분석 : 서울지역 겨울철 평균기온 자료에의 적용 (Bayesian Change Point Analysis for a Sequence of Normal Observations: Application to the Winter Average Temperature in Seoul)

  • 김경숙;손영숙
    • 응용통계연구
    • /
    • 제17권2호
    • /
    • pp.281-301
    • /
    • 2004
  • 본 논문에서는 일변량 정규분포를 따르는 확률변수의 관측치열에 대한 변화점 문제(change point problem)를 고찰한다. 변화점의 존재유무, 그리고 만일 변화점이 존재한다면 어떠한 유형으로 발생했는지 즉, 변화점 발생 이후로 평균만 변화, 분산만 변화, 또는 평균과 분산 모두가 변화했는지를 밝힌다. 가능한 여러 유형의 변화모형들 가운데 최적의 모형을 선택하기 위해 베이지안 모형선택 기법을 이용하고, 선택된 모형에 내재된 모수를 추정 하기 위해 메트로폴리스-혜스팅스 알고리 즘을 포함한 깁스샘플링 을 이용한다. 이러한 방법론은 모의실험을 통해 검토되고, 또한 서울지역의 겨울철 평균기온 자료에 적용된다.

An Improved 2-D Moment Algorithm for Pattern Classification

  • Yoon, myoung-Young
    • 한국산업정보학회논문지
    • /
    • 제4권2호
    • /
    • pp.1-6
    • /
    • 1999
  • 화상 데이터의 특성을 표현하는데 적합한 깁스분포를 바탕으로 특징벡터를 추출하여 패턴을 분류하는 새로운 알고리즘을 제안하였다. 특징벡터는 화상의 크기, 위치, 회전에 대해서 불변이며 접영에 대해서도 덜 민감한 특징을 갖는 2차원 모멘트들의 원소로 만들어진다. 알고리즘은 공간정보를 갖는 2차원 모멘트를 이용하여 특징벡터를 추출하는 과정과 거리함수를 이용하여 패턴을 분류하는 과정으로 구축하였다. 특징벡터는 깁스분포의 묘수를 추정하여 2차원 조건부 모멘트를 추출하여 구성한다. 패턴 분류 과정은 추출된 특징벡터로부터 제안된 판별거리함수를 계산하여 여러 원형 패턴 가운데 최소거리를 산출한 미지의 패턴을 원형패턴으로 분류한다. 제안된 방법의 성능을 검증하기 위하여 대문자와 소문자 52자로 구성된 훈련 데이터를 만들어 SUN ULTRA 10 워크스테이션에서 실험을 한 결과 98%이상의 분류성능이 있음을 밝혔다.

  • PDF

멀티콥터의 효율적 멀티미디어 전송을 위한 이미지 복원 기법의 성능 (Performance of Image Reconstruction Techniques for Efficient Multimedia Transmission of Multi-Copter)

  • 황유민;이선의;이상운;김진영
    • 한국위성정보통신학회논문지
    • /
    • 제9권4호
    • /
    • pp.104-110
    • /
    • 2014
  • 본 논문에서는 무인항공기인 방송용 멀티콥터를 이용한 Full-HD급 이상 화질의 이미지를 효율적으로 전송하기 위해 이미지 압축 센싱 기법을 적용하고, Sparse 신호의 효율적 복원을 위해 Turbo 알고리즘과 Markov chain Monte Carlo (MCMC) 알고리즘의 복원 성능을 모의실험을 통해 비교 분석하였다. 제안된 복원 기법은 압축 센싱에 기반하여 데이터 용량을 줄이고 빠르고 오류 없는 원신호 복원에 중점을 두었다. 다수의 이미지 파일로 모의실험을 진행한 결과 Loopy belief propagation(BP) 기반의 Turbo 복원 알고리즘이 Gibbs sampling기반 알고리즘을 수행하는 MCMC 알고리즘 보다 평균 복원 연산 시간, NMSE 값에서 우수하여 보다 효율적인 복원 방법으로 생각된다.

Bayesian analysis of random partition models with Laplace distribution

  • Kyung, Minjung
    • Communications for Statistical Applications and Methods
    • /
    • 제24권5호
    • /
    • pp.457-480
    • /
    • 2017
  • We develop a random partition procedure based on a Dirichlet process prior with Laplace distribution. Gibbs sampling of a Laplace mixture of linear mixed regressions with a Dirichlet process is implemented as a random partition model when the number of clusters is unknown. Our approach provides simultaneous partitioning and parameter estimation with the computation of classification probabilities, unlike its counterparts. A full Gibbs-sampling algorithm is developed for an efficient Markov chain Monte Carlo posterior computation. The proposed method is illustrated with simulated data and one real data of the energy efficiency of Tsanas and Xifara (Energy and Buildings, 49, 560-567, 2012).

DEFAULT BAYESIAN INFERENCE OF REGRESSION MODELS WITH ARMA ERRORS UNDER EXACT FULL LIKELIHOODS

  • Son, Young-Sook
    • Journal of the Korean Statistical Society
    • /
    • 제33권2호
    • /
    • pp.169-189
    • /
    • 2004
  • Under the assumption of default priors, such as noninformative priors, Bayesian model determination and parameter estimation of regression models with stationary and invertible ARMA errors are developed under exact full likelihoods. The default Bayes factors, the fractional Bayes factor (FBF) of O'Hagan (1995) and the arithmetic intrinsic Bayes factors (AIBF) of Berger and Pericchi (1996a), are used as tools for the selection of the Bayesian model. Bayesian estimates are obtained by running the Metropolis-Hastings subchain in the Gibbs sampler. Finally, the results of numerical studies, designed to check the performance of the theoretical results discussed here, are presented.

Bayesian Approach for Determining the Order p in Autoregressive Models

  • Kim, Chansoo;Chung, Younshik
    • Communications for Statistical Applications and Methods
    • /
    • 제8권3호
    • /
    • pp.777-786
    • /
    • 2001
  • The autoregressive models have been used to describe a wade variety of time series. Then the problem of determining the order in the times series model is very important in data analysis. We consider the Bayesian approach for finding the order of autoregressive(AR) error models using the latent variable which is motivated by Tanner and Wong(1987). The latent variables are combined with the coefficient parameters and the sequential steps are proposed to set up the prior of the latent variables. Markov chain Monte Carlo method(Gibbs sampler and Metropolis-Hasting algorithm) is used in order to overcome the difficulties of Bayesian computations. Three examples including AR(3) error model are presented to illustrate our proposed methodology.

  • PDF

Bayesian Inference for Switching Mean Models with ARMA Errors

  • Son, Young Sook;Kim, Seong W.;Cho, Sinsup
    • Communications for Statistical Applications and Methods
    • /
    • 제10권3호
    • /
    • pp.981-996
    • /
    • 2003
  • Bayesian inference is considered for switching mean models with the ARMA errors. We use noninformative improper priors or uniform priors. The fractional Bayes factor of O'Hagan (1995) is used as the Bayesian tool for detecting the existence of a single change or multiple changes and the usual Bayes factor is used for identifying the orders of the ARMA error. Once the model is fully identified, the Gibbs sampler with the Metropolis-Hastings subchains is constructed to estimate parameters. Finally, we perform a simulation study to support theoretical results.

깁스 표본 기법을 이용한 베이지안 계층적 모형: 야생쥐의 예 (Bayesian Hierachical Model using Gibbs Sampler Method: Field Mice Example)

  • 송재기;이군희;하일도
    • Journal of the Korean Data and Information Science Society
    • /
    • 제7권2호
    • /
    • pp.247-256
    • /
    • 1996
  • 본 논문은 깁스 표본 기법을 이용하여 Demster et al.(1981)에 의해 소개된 Field Mice자료를 분석하기 위하여 베이지안 계층적 모형을 적용시켜 보았다. Jeffrey의 사전확률을 이용한 사후 평균을 깁스 표본 기법을 이용하여 구하였고, 이로 부터 얻은 베이지안 추정량을 최소 자승 추정량, EM알고리즘을 이용한 랜덤 효과를 포함한 가능도함수에 대한 최대 가능도 추정량(MLR)과 비교하였다.

  • PDF

Generative probabilistic model with Dirichlet prior distribution for similarity analysis of research topic

  • Milyahilu, John;Kim, Jong Nam
    • 한국멀티미디어학회논문지
    • /
    • 제23권4호
    • /
    • pp.595-602
    • /
    • 2020
  • We propose a generative probabilistic model with Dirichlet prior distribution for topic modeling and text similarity analysis. It assigns a topic and calculates text correlation between documents within a corpus. It also provides posterior probabilities that are assigned to each topic of a document based on the prior distribution in the corpus. We then present a Gibbs sampling algorithm for inference about the posterior distribution and compute text correlation among 50 abstracts from the papers published by IEEE. We also conduct a supervised learning to set a benchmark that justifies the performance of the LDA (Latent Dirichlet Allocation). The experiments show that the accuracy for topic assignment to a certain document is 76% for LDA. The results for supervised learning show the accuracy of 61%, the precision of 93% and the f1-score of 96%. A discussion for experimental results indicates a thorough justification based on probabilities, distributions, evaluation metrics and correlation coefficients with respect to topic assignment.