• Title/Summary/Keyword: 적합도 검정

Search Result 887, Processing Time 0.034 seconds

Flood Frequency Analysis Considering Probability Distribution and Return Period under Non-stationary Condition (비정상성 확률분포 및 재현기간을 고려한 홍수빈도분석)

  • Lee, Sang-Ho;Kim, Sang Ug;Lee, Yeong Seob;Kim, Hyeong Bae
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2015.05a
    • /
    • pp.610-610
    • /
    • 2015
  • 수공구조물의 설계에서는 홍수빈도분석을 통해 산정된 특정 재현기간에서의 확률수문량이 설계기준으로 사용된다. 그러나 최근 기후변화로 인해 이상기후 현상이 심해짐에 따라 수문기상자료의 정상성을 가정하는 기존의 홍수빈도분석은 변화되는 수문현상을 적절히 표현하지 못하는 경우가 많다. 본 연구에서는 확률분포의 모수가 시간에 따라 변화하는 비정상성 빈도분석기법을 적용하였으며 확률분포의 모수들을 최우추정법으로 추정하였다. 또한, 분위수 추정과정에서도 비정상성을 고려하여 정상성 가정에서 산정된 재현기간 및 위험도와 비교분석하였다. 확률분포는 GEV 분포를 사용하여 정상성 및 비정상성 모형 4개를 구축하였다. 특히, 비정상성 모형은 위치모수만 선형 경향성을 가지는 경우, 규모모수만 선형경향성을 가지는 경우, 위치 및 규모모수가 선형경향성을 가지는 경우의 3가지로 구분하여 적용하였다. 구축된 4개의 모형 중 적합모형을 선정하기 위해 우도비 검정과 Akaike 정보기준을 사용하였으며 적합모형선정 절차를 체계적으로 구축하고 적용하여 적합모형을 선정하였다. 본 연구에서 구축된 비정상성 홍수빈도분석 기법은 우리나라의 8개 다목적댐 (충주댐, 소양강댐, 안동댐, 임하댐, 합천댐, 대청댐, 섬진강댐, 주암댐)으로부터 취득된 과거 관측 댐 유입량을 대상으로 하여 적용되었다. 우도비 검정과 Akaike 정보기준을 이용한 적합 모형 선정 결과 합천댐과 섬진강댐이 비정상성 GEV 모형에 적합한 것으로 분석되었고, 나머지 지점의 다목적댐들은 정상성 모형에 적합한 것으로 분석되었다. 합천댐과 섬진강댐의 경우 비정상성 가정에서 산정된 재현기간이 정상성 가정에서 산정된 재현기간보다 매우 작게 산정되었으며 확률수문량과 위험도는 크게 산정되었다. 적합모형으로 정상성 모형이 선정된 6개의 다목적댐 중 소양강댐은 Mann-Kendall 비모수 경향성 검정 결과 유의하지는 않지만 비교적 큰 선형경향성을 가지고 있었다. 비록 비정상성 모형이 적합모형으로 선정되지는 않았지만 소양강댐에 비정상성 모형을 가정하여 재현기간과 확률수문량, 위험도를 분석한 결과 정상성 모형 가정에서 산정한 결과와 상당한 차이가 있었다. 이와 같은 결과는 수문자료의 정상성과 비정상성을 고려한 홍수빈도분석이 향후 수공구조물의 설계에 있어서 신뢰성 있는 확률수문량을 결정하는데 도움이 될 것으로 판단된다.

  • PDF

Statistical investigation on size distribution of suspended cohesive sediment (점착성 부유사의 입도분포형 검증)

  • Park, Byeoungeun;Byun, Jisun;Son, Minwoo
    • Journal of Korea Water Resources Association
    • /
    • v.53 no.10
    • /
    • pp.917-928
    • /
    • 2020
  • The purpose of this study is to find the appropriate probability distribution representing the size distribution of suspended cohesive sediment. Based on goodness-of-fit test for a significance level of 5% using the Kolmogorov-Smirnov test, it is found that the floc size distributions measured in laboratory experiment and field study show different results. In the case of sample data collected from field experiments, the Gamma distribution is the best fitting form. In the case of laboratory experiment results, the sample data shows the positively-skewed distribution and the GEV distribution is the best fitted. The lognormal distribution, which is generally assumed to be a floc size distribution, is not suitable for both field and laboratory results. By using 3-parameter lognormal distribution, it is shown that similar size distribution with floc size distribution can be simulated.

Frequency Analysis of Rainfall Data Using Advanced GEV Distribution (개선된 GEV 분포를 이용한 강우량 빈도분석)

  • Lee, Kil-Seong;Kang, Won-Gu;Park, Kyung-Shin;Sung, Jin-Young
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2009.05a
    • /
    • pp.1321-1326
    • /
    • 2009
  • 강우는 수자원 확보 측면에서 근원이 되는 요소이다. 그러므로 정확한 확률강우량 산정은 미래의 가용 수자원량을 예측하는데 있어 중요한 사항중 하나이며 무엇보다 신중한 결정이 요구된다. 또한 하천의 범람에 의한 침수를 예방하는 수공구조물 등의 설계에 있어서는 신뢰할 수 있는 확률강우량 산정이 선행되어야 한다. 본 연구에서는 최근 우리나라 극치강우확률분포로서 많은 연구가 이루어지고 있는 GEV 분포(GEV-O)를 기반으로 위치 매개변수에 시간의 함수를 고려한 개선된 GEV 분포(GEV-A)를 이용하여 서울지점에 적용함으로서 GEV-O 분포에 의한 확률강우량과 GEV-A 분포로 산정된 확률강우량을 비교 검토하였다. 먼저 임의의 난수 발생을 통해 최우도추정법과 확률가중모멘트법으로 매개변수를 추정한 GEV-O 분포와 최우도추정법으로 매개변수를 추정한 GEV-A 분포의 상대평균제곱근오차 (R-RMSE)를 계산하여 비교함으로서 GEV-A 분포의 효율성을 판단하였다. 사례연구는 1961년부터 2008년까지 서울강우관측소에서 측정된 연최대 1일 강우량으로 하였으며 $X^2$-검정, PPCC-검정으로 적합도 검정을 실시하였다. 강우빈도분석 결과 GEV-A 분포가 GEV-O 분포로 산정된 결과 보다 대체로 재현기간 200년 이상일 경우, 과다 산정되는 경향을 보였다. 추후 개선된 GEV 분포를 서울 인근 지점에 적용함으로서 지역빈도해석(Regional Frequency Analysis)을 실행하기 위한 연구가 진행되어야 할 것이다. 또한 확률홍수량 산정 등에도 개선된 GEV 분포를 이용함으로서 보다 정확하고 신뢰성 있는 확률수문량을 예측하여야 할 것이다.

  • PDF

An Implementation of an SHA-3 Hash Function Validation Program and Hash Algorithm on 16bit-UICC (SHA-3 해시 함수 검정 프로그램과 16bit-UICC 용 SHA-3 구현)

  • Lee, Hee-Woong;Hong, Dowon;Kim, Hyun-Il;Seo, ChangHo;Park, Kishik
    • Journal of KIISE
    • /
    • v.41 no.11
    • /
    • pp.885-891
    • /
    • 2014
  • A hash function is an essential cryptographic algorithm primitive that is used to provide integrity to many applications such as message authentication codes and digital signatures. In this paper, we introduce a concept and test method for a Cryptographic Algorithm Validation Program (CAVP). Also, we design an SHA-3 CAVP program and implement an SHA-3 algorithm in 16bit-UICC. Finally, we compare the efficiency of SHA-3 with SHA-2 and evaluate the exellence of the SHA-3 algorithm.

Regression Diagnostics on Joint Modelling of Mean and Dispersion (평균과 분산의 동시모형에 따른 회귀진단법에 관한 연구)

  • 강위창;이영조;송문섭
    • The Korean Journal of Applied Statistics
    • /
    • v.13 no.2
    • /
    • pp.407-414
    • /
    • 2000
  • Carroll and Ruppert(1988) analyzed the esterase assay data with regression model based on quasi-likelihood. Jung and Lee(1997) introduced a goodness-of-fit test for testing the adequacy of the quasi-likelihood and claimed that there is no gross inadequacy with the model because their test was not rejected. However, Lee and Xelder(199S)'s residual plots revealed that the model did not sufficiently reflect the increase of the variance with that of the mean. In this paper, we re-analyze the esterase assay data with the joint modelling of mean and dispersion in Lee and l\elder(1998) and evaluate the validity of the fitted model by applying the residual plots. And it is illustrated that Lee and Nelder(199S)'s restricted likelihood is more efficient in goodness-of-fit test for the dispersion model.

  • PDF

Regional frequency analysis using rainfall observation data in Gangwon Province (강원도 강우관측 자료를 이용한 지역빈도분석)

  • Young Il Jeon;Sang Ug Kim;Dong Il Seo;Jae Wook Han
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.211-211
    • /
    • 2023
  • 본 연구에서는 지역빈도분석을 이용하고 있는 홍수량 산정 지침에서 활용되고 있는 전국대상의 강우관소에 대한 확률강우량과 강원지역에 위치한 강우관측소만을 대상으로 산정한 확률강우량을 비교하였다. 이를 위해서 강원도 지역의 48개 지점의 지속기간별 강우자료를 수집한 후, K-means 기법을 이용하여 6개의 군집으로 구분하였다. 강원도 대부분이 산악지형임을 고려해 산악효과를 야기하는 지형인자와 강우자료의 관계를 파악하였다. 국가수자원관리종합정보시스템에서 수집한 강우자료를 사용하여 지속시간별 최대강우량과 산악효과를 야기하는 지형인자로 선정한 고도 이외에 위도, 경도를 각각 추가인자로 고려해 지역빈도분석을 수행하였다. 위 지형인자와 강우자료를 이용하여 수문학적 동질한 특성을 가지는 군집을 구성하였으며, 위도와 경도를 인자로 추가하면 더욱 강한 상관성을 보임을 알 수 있었다. 군집분석결과를 통해 모수를 추정하고 적절한 분포를 선택하였으며, 이상치검정과 적합도 검정을 통해 최종 분포를 결정하였다. 고도와 위도, 경도를 모두 고려해 이용한 지역빈도분석 결과 강원도의 실제 강우특성과 마찬가지로 고도의 높낮이에 따라 강우형태를 전국단위 지역빈도분석과 비교하였다. 최종적으로 현재 활용되고 있는 홍수량 산정 지침의 확률강우량과 강원지역에 위치한 강우관측소만을 대상으로 한 지역빈도분석의 차이의 발생원인과 강원지역에서의 특이성을 결론으로 제시하였다.

  • PDF

Future projections of extreme precipitation by using CMIP6 database at finer scales over South Korea (CMIP6 기후변화 자료를 이용한 국내 미래 극한강우의 예측)

  • Kim, Jongho;Van Doi, Manh
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.368-368
    • /
    • 2021
  • 기후 변화로 인한 극한사상의 크기와 빈도 변화를 예측하는 것은 수공 인프라 설계에 있어 주된 관심사 중 하나이다. 보통 극한사상에 대한 강도, 빈도, 지속시간에 대한 정보가 필요하며, 이는 일반적으로 IDF(Intensity-Duration-Frequency) 곡선으로부터 추출된다. 최근 CMIP(Coupled Model Intercomparison Project) 6단계에서 새로운 이산화탄소 배출 시나리오와 업데이트된 기후모델을 이용하여 미래의 기후에 대한 예측 시계열을 발표했으므로, 미래 기후 변화 시나리오를 기반으로 IDF 곡선을 새로 추정하고 미래 기간의 변화를 평가할 필요가 있다. 본 연구에서는 한국의 40개 지역에 대해 일단위 자료를 시단위로 축소(downscaling)한 후, 확률론적 일기생성기(stochastic weather generator)를 이용하여 30년 시단위 시계열을 100개의 앙상블로 생성하였다. 생성된 시계열로부터 연최대강수량 시계열을 재구성하여 GEV 분포와 gumbel 분포에 적용하였다. 적합도 검정(Anderson-Darling(AD) 검정 및 Kolmogorov-Smirnov(KS) 검정)을 수행하였으며, 과거 자료를 기반으로 생성된 IDF 곡선과 비교 검증하였다. CMIP5의 기후변화 자료를 사용한 결과와 CMIP6 기후변화의 결과를 비교하였으며, 본 연구의 주요 결과는 다음과 같다. (1) 향후 강우 강도는 증가할 것이며 강우 강도의 증가는 말기에 현저하게 관찰될 것이다. (2) 시간별 강우 강도의 미래 변화가 일단위 강우 강도보다 더 크다. (3) 강우 강도의 불확실성을 정량화하기 위해 앙상블을 사용해야 한다. (4) 강우 강도의 미래 변화에 대한 공간적인 경향이 확인된다. 시단위 시계열 앙상블을 생성하여 추정된 IDF 곡선에 대한 정보는 기후 변화의 영향을 평가하고 적절한 적응 및 대응 전략을 개발하는 데 도움이 될 것이다.

  • PDF

A Modification of the Shapiro-Wilk Test for Exponentiality Based on Censored Data (중도절단자료에 대한 수정된 SHAPIRO-WILK 지수 검정)

  • Kim, Nam-Hyun
    • The Korean Journal of Applied Statistics
    • /
    • v.21 no.2
    • /
    • pp.265-273
    • /
    • 2008
  • Kim (2001a) presented a modification of the Shapiro and Wilk (1972) test for exponentiality based on the ratio of two asymptotically efficient estimates of scale. In this paper we modify this test statistic when the sample is censored. We use the normalized spacings based on the sample data, which was used in Samanta and Schwarz (1988) to modify the Shapiro and Wilk (1972) statistic to the censored data. As a result the modified statistics have the same null distribution as the uncensored case with a corresponding reduction in sample size. Through a simulation study it is found that the proposed statistic has higher power than Samanta and Schwarz (1988) statistic especially for the alternatives with the coefficient of variation greater than or equal to 1.

The Effects of Dispersion Parameters and Test for Equality of Dispersion Parameters in Zero-Truncated Bivariate Generalized Poisson Models (제로절단된 이변량 일반화 포아송 분포에서 산포모수의 효과 및 산포의 동일성에 대한 검정)

  • Lee, Dong-Hee;Jung, Byoung-Cheol
    • The Korean Journal of Applied Statistics
    • /
    • v.23 no.3
    • /
    • pp.585-594
    • /
    • 2010
  • This study, investigates the effects of dispersion parameters between two response variables in zero-truncated bivariate generalized Poisson distributions. A Monte Carlo study shows that the zero-truncated bivariate Poisson and negative binomial models fit poorly wherein the zero-truncated bivariate count data has heterogeneous dispersion parameters on dependent variables. In addition, we derive the score test for testing the equality of the dispersion parameters and compare its efficiency with the likelihood ratio test.

Statistical Analysis Methods For Network Based Intrusion Detection (네트워크 기반의 침입을 탐지하기 위한 통계적 분석 기법)

  • Park, Charn-Y;Hong, Sun-Ho;Wee, Kyu-Bum
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10b
    • /
    • pp.1001-1004
    • /
    • 2001
  • 현재 네트워크 기반의 침입 탐지는 대부분 오용 탐지 기법을 사용한다. 하지만 이는 알려지지 않은 침입을 탐지하는 능력이 떨어지는 기법으로서 이를 보완할 수 있는 비정상행위 탐지 기법을 찾는 것이 필요하다. 따라서 수집된 감사 자료로부터 정상행위를 프로파일링하고 침입임을 판정하는데 통계적인 기법을 사용하였다. 수집된 로그로부터 통계적인 방법으로 정상행위를 프로파일링하기 위해 우선 패킷으로부터 수집되는 감사 자료의 통계적인 특성을 대변하는 분포와 파라미터를 추정하고 카이스퀘어 검정법을 사용하여, 감사 자료가 가설하는 이론적인 분포의 특성을 가지고 있다고 판정되면 이를 정상행위의 기준으로 삼는다. 이후에 수집되는 감사자료를 감시하기 위해 추정된 분포와 파라미터를 따르고 있는지의 여부를 Kolmogorov-Smirnov 적합도 검정을 이용하여 판별하고, 이를 벗어나는 경우 침입으로 판정할 수 있도록 한다.

  • PDF