• Title/Summary/Keyword: 확률 추론

Search Result 274, Processing Time 0.026 seconds

Hazard Rate Estimation from Bayesian Approach (베이지안 확률 모형을 이용한 위험률 함수의 추론)

  • Kim, Hyun-Mook;Ahn, Seon-Eung
    • Journal of Korean Society of Industrial and Systems Engineering
    • /
    • v.28 no.3
    • /
    • pp.26-35
    • /
    • 2005
  • This paper is intended to compare the hazard rate estimations from Bayesian approach and maximum likelihood estimate(MLE) method. Hazard rate frequently involves unknown parameters and it is common that those parameters are estimated from observed data by using MLE method. Such estimated parameters are appropriate as long as there are sufficient data. Due to various reasons, however, we frequently cannot obtain sufficient data so that the result of MLE method may be unreliable. In order to resolve such a problem we need to rely on the judgement about the unknown parameters. We do this by adopting the Bayesian approach. The first one is to use a predictive distribution and the second one is a method called Bayesian estimate. In addition, in the Bayesian approach, the prior distribution has a critical effect on the result of analysis, so we introduce the method using computerized-simulation to elicit an effective prior distribution. For the simplicity, we use exponential and gamma distributions as a likelihood distribution and its natural conjugate prior distribution, respectively. Finally, numerical examples are given to illustrate the potential benefits of the Bayesian approach.

Big Data Analysis Using Principal Component Analysis (주성분 분석을 이용한 빅데이터 분석)

  • Lee, Seung-Joo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.25 no.6
    • /
    • pp.592-599
    • /
    • 2015
  • In big data environment, we need new approach for big data analysis, because the characteristics of big data, such as volume, variety, and velocity, can analyze entire data for inferring population. But traditional methods of statistics were focused on small data called random sample extracted from population. So, the classical analyses based on statistics are not suitable to big data analysis. To solve this problem, we propose an approach to efficient big data analysis. In this paper, we consider a big data analysis using principal component analysis, which is popular method in multivariate statistics. To verify the performance of our research, we carry out diverse simulation studies.

Bayesian Computation for Superposition of MUSA-OKUMOTO and ERLANG(2) processes (MUSA-OKUMOTO와 ERLANG(2)의 중첩과정에 대한 베이지안 계산 연구)

  • 최기헌;김희철
    • The Korean Journal of Applied Statistics
    • /
    • v.11 no.2
    • /
    • pp.377-387
    • /
    • 1998
  • A Markov Chain Monte Carlo method with data augmentation is developed to compute the features of the posterior distribution. For each observed failure epoch, we introduced latent variables that indicates with component of the Superposition model. This data augmentation approach facilitates specification of the transitional measure in the Markov Chain. Metropolis algorithms along with Gibbs steps are proposed to preform the Bayesian inference of such models. for model determination, we explored the Pre-quential conditional predictive Ordinate(PCPO) criterion that selects the best model with the largest posterior likelihood among models using all possible subsets of the component intensity functions. To relax the monotonic intensity function assumptions, we consider in this paper Superposition of Musa-Okumoto and Erlang(2) models. A numerical example with simulated dataset is given.

  • PDF

Estimable functions of mixed models (혼합모형의 추정가능함수)

  • Choi, Jaesung
    • The Korean Journal of Applied Statistics
    • /
    • v.29 no.2
    • /
    • pp.291-299
    • /
    • 2016
  • This paper discusses how to establish estimable functions when there are fixed and random effects in design models. It proves that estimable functions of mixed models are not related to random effects. A fitting constants method is used to obtain sums of squares due to random effects and Hartley's synthesis is used to calculate coefficients of variance components. To test about the fixed effects the degrees of freedom associated with divisor are determined by means of the Satterthwaite approximation.

Context Extraction and Analysis of Video Life Log Using Bayesian Network (베이지안 네트워크를 이용한 동영상 기반 라이프 로그의 분석 및 의미정보 추출)

  • Jung, Tae-Min;Cho, Sung-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.414-418
    • /
    • 2010
  • 최근 라이프 로그의 수집과 관리에 관련된 연구가 많이 진행 중에 있다. 또 핸드폰 카메라, 디지털 카메라, 캠코더 등의 발전으로 자신의 일상생활을 비디오로 저장하고, 인터넷을 통해 공유하는 사람도 증가하고 있다. 비디오 데이터는 많은 정보를 포함하고 있는 라이프 로그의 한 예로. 동영상의 촬영 및 수집이 활발해짐에 따라 동영상의 메타정보를 생성하고, 이를 이용해 동영상 검색과 관리에 이용하려는 연구들이 진행 중이다. 본 논문에서는 라이프 로그를 수집하고 수집된 동영상과 라이프 로그를 이용하여 의미정보를 추출하는 시스템을 제안한다. 의미정보란 사용자의 행동을 나타내는 정보로써 컴퓨터 사용, 식사, 집안일, 이동, 외출, 독서, 휴식, 일, 기타로 9가지의 의미정보를 추출한다. 제안하는 방법은 사용자로부터 GPS, 가속도센서, 캠코더를 이용해 실제 데이터를 수집하고, 전처리 과정을 통하여 특징을 추출한다. 이때 추출될 특징은 위치정보와 사용자의 상태정보 그리고 영상처리릍 통한 RGB와 HSL 색공간의 요소와 MPEG-7의 EHD(Edge Histogram Descriptor). CLD(Color Layout Descriptor)이다. 추출된 특징으로부터 사람 행동과 같은 불안정한 상황에서 강점을 보이는 확률모델 네트워크인 베이지안 네트워크를 이용하여 의미정보를 추출한다. 제안하는 방법의 유용성을 보이기 위해 실제 데이터를 수집하고 추론하고 10-Fold Cross-validation을 이용하여 데이터를 검증한다.

  • PDF

A Development of Hydrologic Risk Analysis Model for Small Reservoirs Based on Bayesian Network (Bayesian Network 기반 소규모 저수지의 수문학적 위험도 분석 모형 개발)

  • Kim, Jin-Guk;Kim, Jin-Young;Gwon, Hyeon-Han;Kwon, Hyun-Han
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2017.05a
    • /
    • pp.105-105
    • /
    • 2017
  • 최근 우리나라에서는 국지성호우로 인해 발생하는 돌발홍수에 방어하지 못하는 소규모 저수지에 대한 붕괴사고가 빈발하고 있다. 붕괴된 저수지를 살펴보면, 대체적으로 규모가 작아 체계적인 안전관리가 이루어지지 않거나 경과연수가 50년 이상인 필댐(fill dam) 형식으로 축조된 노후저수지로서 갑작스러운 홍수를 대응하는데 있어 매우 취약한 상태이다. 체계적으로 운영되는 대형댐에 비해 축조기간이 오래된 소규모 저수지의 경우, 저수지에 대한 수문학적 정보가 거의 없거나 미계측되어 보수보강이 필요한 저수지를 선정하거나 정량적인 위험도를 분석하는데 매우 어려운 실정이다. 이러한 이유로 본 연구에서는 노후된 소규모 저수지에 대한 수문학적 파괴인자들을 선정하여 Bayesian Network기반의 소규모 저수지 위험도 분석 모형을 구축하였다. 구축된 모형을 기준으로 고려될 수 있는 다양한 위험인자 및 이들 인자간의 연관성을 평가하였으며, 각각의 노드에 파괴인자를 노드로 할당하여 소규모 저수지의 위험도를 분석하였다. Bayesian Network기법의 도입으로 불확실한 상황을 확률로 표시하고, 복잡한 추론을 정량화된 노드의 관계로 단순화시켜 노드의 연결 관계로 표현하였다. 본 연구에서 제안된 모형은 노후된 소규모 저수지의 수문학적 위험도를 정량으로 분석하는 모형으로서 활용성이 높을 것으로 기대된다.

  • PDF

Probabilistic Time Series Forecast of VLOC Model Using Bayesian Inference (베이지안 추론을 이용한 VLOC 모형선 구조응답의 확률론적 시계열 예측)

  • Son, Jaehyeon;Kim, Yooil
    • Journal of the Society of Naval Architects of Korea
    • /
    • v.57 no.5
    • /
    • pp.305-311
    • /
    • 2020
  • This study presents a probabilistic time series forecast of ship structural response using Bayesian inference combined with Volterra linear model. The structural response of a ship exposed to irregular wave excitation was represented by a linear Volterra model and unknown uncertainties were taken care by probability distribution of time series. To achieve the goal, Volterra series of first order was expanded to a linear combination of Laguerre functions and the probability distribution of Laguerre coefficients is estimated using the prepared data by treating Laguerre coefficients as random variables. In order to check the validity of the proposed methodology, it was applied to a linear oscillator model containing damping uncertainties, and also applied to model test data obtained by segmented hull model of 400,000 DWT VLOC as a practical problem.

Loss-adjusted Regularization based on Prediction for Improving Robustness in Less Reliable FAQ Datasets (신뢰성이 부족한 FAQ 데이터셋에서의 강건성 개선을 위한 모델의 예측 강도 기반 손실 조정 정규화)

  • Park, Yewon;Yang, Dongil;Kim, Soofeel;Lee, Kangwook
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.18-22
    • /
    • 2019
  • FAQ 분류는 자주 묻는 질문을 범주화하고 사용자 질의에 대해 가장 유사한 클래스를 추론하는 방식으로 진행된다. FAQ 데이터셋은 클래스가 다수 존재하기 때문에 클래스 간 포함 및 연관 관계가 존재하고 특정 데이터가 서로 다른 클래스에 동시에 속할 수 있다는 특징이 있다. 그러나 최근 FAQ 분류는 다중 클래스 분류 방법론을 적용하는 데 그쳤고 FAQ 데이터셋의 특징을 모델에 반영하는 연구는 미미했다. 현 분류 방법론은 이러한 FAQ 데이터셋의 특징을 고려하지 못하기 때문에 정답으로 해석될 수 있는 예측도 오답으로 여기는 경우가 발생한다. 본 논문에서는 신뢰성이 부족한 FAQ 데이터셋에서도 분류를 잘 하기 위해 손실 함수를 조정하는 정규화 기법을 소개한다. 이 정규화 기법은 클래스 간 포함 및 연관 관계를 반영할 수 있도록 오답을 예측한 경우에도 예측 강도에 비례하여 손실을 줄인다. 이는 오답을 높은 확률로 예측할수록 데이터의 신뢰성이 낮을 가능성이 크다고 판단하여 학습을 강하게 하지 않게 하기 위함이다. 실험을 위해서는 다중 클래스 분류에서 가장 좋은 성능을 보이고 있는 모형인 BERT를 이용했으며, 비교 실험을 위한 정규화 방법으로는 통상적으로 사용되는 라벨 스무딩을 채택했다. 실험 결과, 본 연구에서 제안한 방법은 기존 방법보다 성능이 개선되고 보다 안정적으로 학습이 된다는 것을 확인했으며, 데이터의 신뢰성이 부족한 상황에서 효과적으로 분류를 수행함을 알 수 있었다.

  • PDF

Fault Localization for Self-Managing Based on Bayesian Network (베이지안 네트워크 기반에 자가관리를 위한 결함 지역화)

  • Piao, Shun-Shan;Park, Jeong-Min;Lee, Eun-Seok
    • The KIPS Transactions:PartB
    • /
    • v.15B no.2
    • /
    • pp.137-146
    • /
    • 2008
  • Fault localization plays a significant role in enormous distributed system because it can identify root cause of observed faults automatically, supporting self-managing which remains an open topic in managing and controlling complex distributed systems to improve system reliability. Although many Artificial Intelligent techniques have been introduced in support of fault localization in recent research especially in increasing complex ubiquitous environment, the provided functions such as diagnosis and prediction are limited. In this paper, we propose fault localization for self-managing in performance evaluation in order to improve system reliability via learning and analyzing real-time streams of system performance events. We use probabilistic reasoning functions based on the basic Bayes' rule to provide effective mechanism for managing and evaluating system performance parameters automatically, and hence the system reliability is improved. Moreover, due to large number of considered factors in diverse and complex fault reasoning domains, we develop an efficient method which extracts relevant parameters having high relationships with observing problems and ranks them orderly. The selected node ordering lists will be used in network modeling, and hence improving learning efficiency. Using the approach enables us to diagnose the most probable causal factor with responsibility for the underlying performance problems and predict system situation to avoid potential abnormities via posting treatments or pretreatments respectively. The experimental application of system performance analysis by using the proposed approach and various estimations on efficiency and accuracy show that the availability of the proposed approach in performance evaluation domain is optimistic.

A Study of Characteristics of Business Cycle in the Jeju Region (제주지역 경기변동의 특성 연구)

  • Kang, Min-Seo;Kang, Gi-Choon
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.1
    • /
    • pp.420-426
    • /
    • 2018
  • The purpose of this paper is to examine the business cycle in the Jeju region and what differences exist in relation to the nation as a whole, to calculate the relative importance between the random walk stochastic trend and cyclical factor, and to find out its causes and implications. Results of empirical analysis found that the characteristics of the business cycle in the Jeju region were as follows: First, the Jeju region, which is likely to have a growth component of the economy such as technological development and the accumulation of capital, was projected to have a possibility of high growth due to a greater proportion of the stochastic trend factor(46.8%) than the entire country(27.8%). Secondly, employment fluctuation in Jeju, which varies from 0.007 to 0.058 depending on the model, was lowest compared to the fluctuation of other indicators. The employment market in Jeju remained firm, showing that it is not smooth enough to create new jobs despite the production growth in industry. Third, the tourism industry was acting as a stabilizing factor, whereas the mining and manufacturing production was the opposite of tourism industry. This implies that the mining and manufacturing production was based on a weak foundation.