• Title/Summary/Keyword: 고빈도 자료

Search Result 281, Processing Time 0.03 seconds

Proposal of Augmented Drought Inflow to Search Reliable Operational Policies for Water Supply Infrastructures (물 공급 시설의 신뢰성 있는 운영 계획 수립을 위한 가뭄 유입량 증강 기법의 제안)

  • Ji, Sukwang;Ahn, Kuk-Hyun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.189-189
    • /
    • 2022
  • 물 공급 시설의 효율적이고 안정적인 운영을 위한 운영 계획의 수립 및 검증을 위해서는 장기간의 유입량 자료가 필요하다. 하지만, 현실적으로 얻을 수 있는 실측 자료는 제한적이며, 유입량이 부족하여 댐 운영에 영향을 미치는 자료는 더욱 적을 수밖에 없다. 이를 개선하고자 장기간의 모의 유입량을 생성해 운영 계획을 수립하는 방법이 종종 사용되지만, 실측 자료를 기반으로 모의하기 때문에 이 역시 가뭄의 빈도가 낮아, 장기 가뭄이나 짧은 간격으로 가뭄이 발생할 시 안정적인 운영이 어렵다. 본 연구에서는 장기 가뭄 발생 시에도 안정적인 물 공급이 가능한 운영 계획 수립을 위해 가뭄 빈도를 증가시킨 유입량 모의 기법을 제안하고자 한다. 제안하는 모의 기법은 최근 머신러닝에서 사용되는 SMOTE 알고리즘을 기반으로 한다. SMOTE 알고리즘은 데이터의 불균형을 처리하기 위한 오버 샘플링 기법으로, 소수 그룹을 단순 복제하지 않고 새로운 복제본을 생성해 과적합의 위험이 적으며, 원자료의 정보가 손실되지 않는 장점이 있다. 본 연구에서는 미국 캘리포니아주에 위치한 Folsom 댐을 대상으로 고빈도 가뭄 유입량을 모의했으며, 고빈도 가뭄 유입량을 사용한 운영 계획을 수립하였다. Folsom 댐의 과거 관측 유입량 자료를 기반으로 고빈도 가뭄 유입량을 사용한 운영 계획과 일반적인 가뭄 빈도의 유입량을 사용한 운영 계획을 적용했을 때 발생하는 공급 부족량과 과잉 방류량의 차이를 비교해 고빈도 가뭄 유입량의 사용이 물 공급 시설의 안정적인 운영에 끼치는 영향을 확인하고자 한다.

  • PDF

A Study of the high return period flood quantiles Estimation using upper bounded statistical models (상한분포함수를 활용한 고빈도 홍수빈도해석에 관한 연구)

  • Kim, Jang-Gyeong;Park, Rae-Kon;Kim, Kyung-Wook;Kwon, Hyun-Han
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2017.05a
    • /
    • pp.402-402
    • /
    • 2017
  • 수공구조물 설계 시, 설계홍수량 산정에는 실측 홍수량 자료를 활용한 홍수빈도해석이 필요하다. 그러나 홍수량 자료의 관측연한, 유역변화 등의 신뢰성 문제로 확률강우량을 활용한 빈도홍수량 간접추정방법이 표준화된 실정이다. 문제는 확률강우량 산정에 활용된 확률밀도함수와 그 매개변수에 따른 불확실성이 존재한다는 점이다. 특히 저빈도에서 고빈도로 갈수록 확률밀도함수의 불확실성은 크게 증가하여, 사실상 추정결과에 대한 물리적 의미를 부여하기 어렵다. 이에 본 연구에서는 PMF를 물리적 상한선으로 설정하는 상한분포함수(Upper bounded distribution functions)를 적용하여, 실측 홍수량에 대한 홍수빈도해석 방법을 제안하고자 한다. 검정방법은 먼저, 임의 유역을 대상유역으로 선정하여 홍수빈도해석을 수행하고, 상한분포함수는 EV4, LN4, TDF를 적용한다. 최종적으로 빈도홍수량 간접추정방법과 비교 분석하여, 적용성을 검토하고자 한다. 본 연구결과는 빈도홍수량 간접추정방법에 대한 비교 검토방법에 대한 적절한 대안이 없다는 측면에서 의의를 찾을 수 있으며, 향후 홍수량 자료 신뢰성이 확보되는 시점에서 지역홍수빈도 분석으로 확장할 수 있을 것으로 판단된다.

  • PDF

Volatility Computations for Financial Time Series: High Frequency and Hybrid Method (금융시계열 변동성 측정 방법의 비교 분석: 고빈도 자료 및 융합 방법)

  • Yoon, J.E.;Hwang, S.Y.
    • The Korean Journal of Applied Statistics
    • /
    • v.28 no.6
    • /
    • pp.1163-1170
    • /
    • 2015
  • Various computational methods for obtaining volatilities for financial time series are reviewed and compared with each other. We reviewed model based GARCH approach as well as the data based method which can essentially be regarded as a smoothing technique applied to the squared data. The method for high frequency data is focused to obtain the realized volatility. A hybrid method is suggested by combining the model based GARCH and the historical volatility which is a data based method. Korea stock prices are analysed to illustrate various computational methods for volatilities.

Choice of weights in a hybrid volatility based on high-frequency realized volatility (고빈도 금융 시계열 실현 변동성을 이용한 가중 융합 변동성의 가중치 선택)

  • Yoon, J.E.;Hwang, S.Y.
    • The Korean Journal of Applied Statistics
    • /
    • v.29 no.3
    • /
    • pp.505-512
    • /
    • 2016
  • The paper is concerned with high frequency financial time series. A weighted hybrid volatility is suggested to compute daily volatilities based on high frequency data. Various realized volatility (RV) computations are reviewed and the weights are chosen by minimizing the differences between the hybrid volatility and the realized volatility. A high frequency time series of KOSPI200 index is illustrated via QLIKE and Theil-U statistics.

Multivariate volatility for high-frequency financial series (다변량 고빈도 금융시계열의 변동성 분석)

  • Lee, G.J.;Hwang, Sun Young
    • The Korean Journal of Applied Statistics
    • /
    • v.30 no.1
    • /
    • pp.169-180
    • /
    • 2017
  • Multivariate GARCH models are interested in conditional variances (volatilities) as well as conditional correlations between return time series. This paper is concerned with high-frequency multivariate financial time series from which realized volatilities and realized conditional correlations of intra-day returns are calculated. Existing multivariate GARCH models are reviewed comparatively with the realized volatility via canonical correlations and value at risk (VaR). Korean stock prices are analysed for illustration.

Functional ARCH (fARCH) for high-frequency time series: illustration (고빈도 시계열 분석을 위한 함수 변동성 fARCH(1) 모형 소개와 예시)

  • Yoon, J.E.;Kim, Jong-Min;Hwang, S.Y.
    • The Korean Journal of Applied Statistics
    • /
    • v.30 no.6
    • /
    • pp.983-991
    • /
    • 2017
  • High frequency time series are now prevalent in financial data. However, models need to be further developed to suit high frequency time series that account for intraday volatilities since traditional volatility models such as ARCH and GARCH are concerned only with daily volatilities. Due to $H{\ddot{o}}rmann$ et al. (2013), functional ARCH abbreviated as fARCH is proposed to analyze intraday volatilities based on high frequency time series. This article introduces fARCH to readers that illustrate intraday volatility configuration on the KOSPI and the Hyundai motor company based on the data with one minute high frequency.

FPCA for volatility from high-frequency time series via R-function (FPCA를 통한 고빈도 시계열 변동성 분석: R함수 소개와 응용)

  • Yoon, Jae Eun;Kim, Jong-Min;Hwang, Sun Young
    • The Korean Journal of Applied Statistics
    • /
    • v.33 no.6
    • /
    • pp.805-812
    • /
    • 2020
  • High-frequency data are now prevalent in financial time series. As a functional data arising from high-frequency financial time series, we are concerned with the intraday volatility to which functional principal component analysis (FPCA) is applied in order to achieve a dimension reduction. A review on FPCA and R function is made and high-frequency KOSPI volatility is analysed as an application.

Regional frequency analysis using rainfall observation data in Gangwon Province (강원도 강우관측 자료를 이용한 지역빈도분석)

  • Young Il Jeon;Sang Ug Kim;Dong Il Seo;Jae Wook Han
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.211-211
    • /
    • 2023
  • 본 연구에서는 지역빈도분석을 이용하고 있는 홍수량 산정 지침에서 활용되고 있는 전국대상의 강우관소에 대한 확률강우량과 강원지역에 위치한 강우관측소만을 대상으로 산정한 확률강우량을 비교하였다. 이를 위해서 강원도 지역의 48개 지점의 지속기간별 강우자료를 수집한 후, K-means 기법을 이용하여 6개의 군집으로 구분하였다. 강원도 대부분이 산악지형임을 고려해 산악효과를 야기하는 지형인자와 강우자료의 관계를 파악하였다. 국가수자원관리종합정보시스템에서 수집한 강우자료를 사용하여 지속시간별 최대강우량과 산악효과를 야기하는 지형인자로 선정한 고도 이외에 위도, 경도를 각각 추가인자로 고려해 지역빈도분석을 수행하였다. 위 지형인자와 강우자료를 이용하여 수문학적 동질한 특성을 가지는 군집을 구성하였으며, 위도와 경도를 인자로 추가하면 더욱 강한 상관성을 보임을 알 수 있었다. 군집분석결과를 통해 모수를 추정하고 적절한 분포를 선택하였으며, 이상치검정과 적합도 검정을 통해 최종 분포를 결정하였다. 고도와 위도, 경도를 모두 고려해 이용한 지역빈도분석 결과 강원도의 실제 강우특성과 마찬가지로 고도의 높낮이에 따라 강우형태를 전국단위 지역빈도분석과 비교하였다. 최종적으로 현재 활용되고 있는 홍수량 산정 지침의 확률강우량과 강원지역에 위치한 강우관측소만을 대상으로 한 지역빈도분석의 차이의 발생원인과 강원지역에서의 특이성을 결론으로 제시하였다.

  • PDF

Application of a large-scale climate ensemble simulation database for estimating the extreme rainfall (확률강우량 산정을 위한 대규모 기후 앙상블 모의자료의 적용)

  • Kim, Youngkyu;Son, Minwoo
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.333-333
    • /
    • 2022
  • 본 연구는 저빈도·고강도의 확률강우량 산정을 위해, 대규모 기후 앙상블 모의실험 기반으로 생성된 d4PDF(Data for Policy Decision Making for Future Change)를 적용하는 것을 목적으로 수행되었다. 또한, d4PDF 를 이용하여 산정된 확률강우량과 관측자료 및 빈도해석을 통해서 산정된 확률강우량을 비교함으로써 빈도해석의 적용에 따라 발생하는 불확실성을 분석하였다. 이와 같은 연구는 용담댐에 위치한 금산, 임실, 전주, 장수 관측소를 대상으로 수행되었다. d4PDF 자료는 총 50 개의 앙상블로 구성되어 있으며, 하나의 앙상블은 60 년 동안의 기상자료를 제공하기 때문에 한 지점에서 3,000 개의 연 최대 일 강우량을 수집 및 활용하는 것이 가능했다. 이와 같은 d4PDF 의 특징을 토대로 본 연구는 빈도해석 방법을 적용하지 않고, 3000 개의 연 최대 일 강수량을 비모수적 접근법(Non-parametric approach)에 따라 규모별로 나열하여, 10 년부터 1000 년의 재현기간을 갖는 확률강우량을 산정했다. 그 후, 관측 자료와 Gumbel 및 GEV(General extreme value) 분포를 토대로 산정된 확률강우량과의 편차를 산정하였다. 그 결과, 재현기간과 관측 기간의 차이가 증가할수록 이 편차가 증가하였으며, 이 결과는 짧은 관측 기간과 빈도해석의 적용은 재현기간이 증가할수록 신뢰하기 어려운 확률강우량을 제시한다는 것을 의미한다. 반면에, d4PDF 는 대규모 표본을 이용함으로써 이와 같은 불확실성을 최소화시켜 합리적인 저빈도·고강도의 확률강우량을 제시하였다.

  • PDF

Choice of frequency via principal component in high-frequency multivariate volatility models (주성분을 이용한 다변량 고빈도 실현 변동성의 주기 선택)

  • Jin, M.K.;Yoon, J.E.;Hwang, S.Y.
    • The Korean Journal of Applied Statistics
    • /
    • v.30 no.5
    • /
    • pp.747-757
    • /
    • 2017
  • We investigate multivariate volatilities based on high frequency time series. The PCA (principal component analysis) method is employed to achieve a dimension reduction in multivariate volatility. Multivariate realized volatilities (RV) with various frequencies are calculated from high frequency data and "optimum" frequency is suggested using PCA. Specifically, RVs with various frequencies are compared with existing daily volatilities such as Cholesky, EWMA and BEKK after dimension reduction via PCA. An analysis of high frequency stock prices of KOSPI, Samsung Electronics and Hyundai motor company is illustrated.