• 제목/요약/키워드: Probability density estimate

검색결과 136건 처리시간 0.026초

Interactive program에 의한 소유역의 유출량 산정 (Runoff Estimation for Small Watershed by Interactive Program)

  • 안상진;김종섭
    • 물과 미래
    • /
    • 제25권4호
    • /
    • pp.97-107
    • /
    • 1992
  • 본 연구의 목적은 강우에 따른 하천에서의 직접유출에 대한 해석을 위하여 Horton과 Strahler의 하천분석 및 차수의 법칙에 따라 지형도로부터 얻은 지형학적 자료와 토양, 수리, 및 기후학적 자료를 가지고 Interactive Program을 사용하여 미계측소유역의 유출량과 단위도를 산정하는 것이다. 이 모델은 각 지점의 유하시간을 Laplace 변환과 확률밀도함수의 집적된 겨로가로 이용되었다. 이 Program을 이요하여 금강수계내의 보청천 대표유역내의 최상류지점인 산성지점에 대하여 직접유출량과 Peak 시간에 있어서 홍수량을 산정하였다.

  • PDF

확률론적 합성태풍을 이용한 서남해안 빈도 해일고 산정 (Estimation of Frequency of Storm Surge Heights on the West and South Coasts of Korea Using Synthesized Typhoons)

  • 김현정;서승원
    • 한국해안·해양공학회논문집
    • /
    • 제31권5호
    • /
    • pp.241-252
    • /
    • 2019
  • 폭풍으로 인한 연안재해 피해에 대한 적절한 대응책을 수립하기 위해서는 빈도 해일고 산정에 대한 연구가 필요하다. 과거에 관측된 태풍은 모집단 수가 적기 때문에 tropical cyclone risk model(TCRM)을 이용해 역사태풍의 이동경로와 중심기압을 확률밀도함수로 추정하여 확률적으로 발생하는 176,689개의 합성태풍을 생성하였다. 아울러 중국 남동부 연안으로 상륙한 후 재부상 하거나 소멸되는 태풍 특성을 합성태풍에 고려하기 위해 역사태풍의 이동각도를 확률밀도함수로 추정하고 감쇠 매개변수와 함께 적용하여 중국 남동부 연안에서 서남해안으로 이동하는 태풍의 통과율이 개선되었다. 태풍속성은 역사태풍으로부터 분석하였으며 중심기압과 최대풍속($V_{max}$), 최대풍속 반경($R_{max}$)의 상관관계식을 산정하여 합성태풍에 적용하였다. 해일고는 ADCIRC 모형을 이용해 조석과 합성태풍을 고려하여 산정하였으며 Perl script로 자동화하였다. 확률적으로 발생시킨 합성태풍에 의한 해일고는 실제 자연현상에서 발생하는 해일고와 유사하게 나타나기 때문에 빈도 해일고를 산정할 수 있다. 따라서 일반화된 극치분포(Generalized Extreme Value, GEV)의 모수를 추정하여 극치 해일고를 산정하였으며, 100년 빈도 해일고는 경험모의기법으로 산정한 빈도 해일고와 비교하여 만족스러운 결과가 도출되었다. 본 연구에서 제안한 방법은 일반 해역에서 빈도 해일고 산정시 활용될 수 있다.

THE STUDY OF PARAMETRIC AND NONPARAMETRIC MIXTURE DENSITY ESTIMATOR FOR FLOOD FREQUENCY ANALYSIS

  • Moon, Young-Il
    • Water Engineering Research
    • /
    • 제1권1호
    • /
    • pp.49-61
    • /
    • 2000
  • Magnitude-frequency relationships are used in the design of dams, highway bridges, culverts, water supply systems, and flood control structures. In this paper, possible techniques for analyzing flood frequency at a site are presented. A currently used approach to flood frequency analysis is based on the concept of parametric statistical inference. In this analysis, the assumption is make that the distribution function describing flood data in known. However, such an assumption is not always justified. Even though many people have shown that the nonparametric method provides a better fit to the data than the parometric method and gives more reliable flood estimates. the noparpmetric method implies a small probability in extrapolation beyond the highest observed data in the sample. Therefore, a remedy is presented in this paper by introducing an estimator which mixes parametric and nonparametric density estimate.

  • PDF

Air-Data Estimation for Air-Breathing Hypersonic Vehicles

  • Kang, Bryan-Heejin
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제1권1호
    • /
    • pp.75-86
    • /
    • 1999
  • An air-data estimator for generic air-breathing hypersonic vehicles (AHSVs) is developed and demonstrated with an example vehicle configuration. The AHSV air-data estimation strategy emphasized improvement of the angle of attack estimate accuracy to a degree necessitated by the stringent operational requirements of the air-breathing propulsion. the resulting estimation problem involves highly nonlinear diffusion process (propagation); consequently, significant distortion of a posteriori conditional density is suspected. A simulation based statistical analysis tool is developed to characterize the nonlinear diffusion process. The statistical analysis results indicate that the diffusion process preserves the symmetry and unimodality of initial probability density shape state variables, and provide the basis for applicability of an Extended Kalman Filter (EKF). An EKF is designed for the AHSV air-data system and the air data estimation capabilities are demonstrated.

  • PDF

Core Formation in a Turbulent Molecular Cloud

  • 김종수
    • 천문학회보
    • /
    • 제36권2호
    • /
    • pp.106.2-106.2
    • /
    • 2011
  • The two competing theories of star formation are based on turbulence and ambipoar diffusion. I will first briefly explain the two theories. There have been analytical (or semi-analytic) models, which estimate star formation rates in a turbulent cloud. Most of them are based on the log-normal density PDF (probability density function) of the turbulent cloud without self-gravity. I will first show that the core (star) formation rate can be increased significantly once self-gravity of a turbulence cloud is taken into account. I will then present the evolution of molecular line profiles of HCO+ and C18O toward a dense core that is forming inside a magnetized turbulent molecular cloud. Features of the profiles can be affected more significantly by coupled velocity and abundance structures in the outer region than those in the inner dense part of the core. During the evolution of the core, the asymmetry of line profiles easily changes from blue to red, and vice versa. Finally, I will introduce a method for incorporating ambipolar diffusion in the strong coupling approximation into a multidimensional magnetohydrodynamic code.

  • PDF

Bayesian estimation for finite population proportions in multinomial data

  • Kwak, Sang-Gyu;Kim, Dal-Ho
    • Journal of the Korean Data and Information Science Society
    • /
    • 제23권3호
    • /
    • pp.587-593
    • /
    • 2012
  • We study Bayesian estimates for finite population proportions in multinomial problems. To do this, we consider a three-stage hierarchical Bayesian model. For prior, we use Dirichlet density to model each cell probability in each cluster. Our method does not require complicated computation such as Metropolis-Hastings algorithm to draw samples from each density of parameters. We draw samples using Gibbs sampler with grid method. We apply this algorithm to a couple of simulation data under three scenarios and we estimate the finite population proportions using two kinds of approaches We compare results with the point estimates of finite population proportions and their standard deviations. Finally, we check the consistency of computation using differen samples drawn from distinct iterates.

Performance Analysis of Economic VaR Estimation using Risk Neutral Probability Distributions

  • Heo, Se-Jeong;Yeo, Sung-Chil;Kang, Tae-Hun
    • 응용통계연구
    • /
    • 제25권5호
    • /
    • pp.757-773
    • /
    • 2012
  • Traditional value at risk(S-VaR) has a difficulity in predicting the future risk of financial asset prices since S-VaR is a backward looking measure based on the historical data of the underlying asset prices. In order to resolve the deficiency of S-VaR, an economic value at risk(E-VaR) using the risk neutral probability distributions is suggested since E-VaR is a forward looking measure based on the option price data. In this study E-VaR is estimated by assuming the generalized gamma distribution(GGD) as risk neutral density function which is implied in the option. The estimated E-VaR with GGD was compared with E-VaR estimates under the Black-Scholes model, two-lognormal mixture distribution, generalized extreme value distribution and S-VaR estimates under the normal distribution and GARCH(1, 1) model, respectively. The option market data of the KOSPI 200 index are used in order to compare the performances of the above VaR estimates. The results of the empirical analysis show that GGD seems to have a tendency to estimate VaR conservatively; however, GGD is superior to other models in the overall sense.

확률밀도함수의 불연속점 추정을 위한 띠폭 선택 (Bandwidth selection for discontinuity point estimation in density)

  • 허집
    • Journal of the Korean Data and Information Science Society
    • /
    • 제23권1호
    • /
    • pp.79-87
    • /
    • 2012
  • Huh (2002)는 확률밀도함수가 하나의 불연속점을 가질 때, 한쪽방향커널함수를 이용하여 확률 밀도함수의 오른쪽과 왼쪽 커널추정량을 제시하여 그 차를 최대로 하는 점을 불연속점의 위치추정량으로 제안하였다. 커널추정량의 평활모수인 띠폭의 선택의 중요함은 익히 알려져 있다. 최대가능도 교차타당성은 확률밀도함수의 커널추정량에서 띠폭 선택의 기준으로 널리 쓰여지고 있다. 본 연구에서는 한쪽방향커널함수를 이용한 확률밀도함수의 오른쪽과 왼쪽 커널추정량들의 띠폭의 선택 방법을 Hart와 Yi (1998)의 한쪽방향교차타당성의 방법론을 최대가능도교차타당성에 적용하여 제안하고자 한다. 소표본 모의실험을 통하여 연구결과를 제시하고자 한다.

독립성분분석에서 Convolution-FFT을 이용한 효율적인 점수함수의 생성 알고리즘 (An Algorithm of Score Function Generation using Convolution-FFT in Independent Component Analysis)

  • 김웅명;이현수
    • 정보처리학회논문지B
    • /
    • 제13B권1호
    • /
    • pp.27-34
    • /
    • 2006
  • 본 연구에서는 엔트로피를 이용한 독립성분분석(ICA : Independent Component Analysis)에서 점수함수(score function)를 생성하는 알고리즘을 제안한다. 점수함수를 생성하기 위해서 원 신호(original signals)에 대한 확률밀도함수의 추정이 반드시 필요하고 밀도함수가 미분 가능해야 한다. 따라서 원 신호에 따른 적응적인 점수 함수를 유도할 수 있도록 커널 기반의 밀도추정(kernel density estimation)방법을 사용하였으며, 보다 빠른 밀도 추정 계산을 위해서 식의 형태를 컨볼루션(convolution) 변환 한 후, 컨볼루션을 빠르게 계산할 수 있는 FFT(Fast Fourier Transform) 알고리즘을 이용하였다. 제안한 점수함수 생성 방법은 원 신호에 확률밀도분포와 추정된 신호의 확률밀도 분포의 오차를 줄이는 역할을 한다 실험 결과, 암묵신호분리(blind source separation)문제에서 기존의 Extended Infomax 알고리즘과 Fixed Point ICA 보다 원 신호와 유사한 밀도함수를 추정하였고, 분리된 신호의 신호대잡음비등(SNR)에 있어서 향상된 성능을 얻을 수 있었다.

개별 차량의 비전 센서 기반 차두 시간 데이터를 활용한 경험적 교통류 모형 추정 방법론 (An Estimation Methodology of Empirical Flow-density Diagram Using Vision Sensor-based Probe Vehicles' Time Headway Data)

  • 김동민;심지섭
    • 한국ITS학회 논문지
    • /
    • 제21권2호
    • /
    • pp.17-32
    • /
    • 2022
  • 본 연구에서는 개별 차량의 차두 시간(time headway) 정보를 활용하여 고속도로 환경에서의 단일 링크에 대한 교통류 모형(flow-density diagram)을 추정하는 방법에 대해 탐구한다. 차두 시간 기반 교통류 모형(empirical flow-density diagram) 연구를 위해 차량용 비전 센서가 탑재된 실험 차량에서 9개월동안 수집된 데이터의 전처리 및 GIS 기반 맵 매칭을 수행한다. 기존의 교통류 모델식을 활용한 차두 시간 기반 교통류 모형(empirical flow-density diagram)의 검증을 위해, 차량 검지기 기반의 VDS(Vehicle Detection System) 데이터(loop detection traffic data) 기반 교통류 모형과 결과 비교 및 분석을 수행한다. 차두 시간 기반 교통류 모형의 추정 오차 원인을 분석하기 위해 각 교통류 모형의 차두 시간 및 차두 거리의 확률분포와 단위시간 교통량과 차량 밀도의 표준편차를 활용하였다. 분석 결과 링크 내 제한된 샘플 차량 대수 및 수집 데이터에 대한 주행환경 편향성이 추정 오차의 주된 요인이며. 이에 따른 추정 오차 개선을 위한 방법에 대해 제안한다.