• 제목/요약/키워드: Block maxima

검색결과 12건 처리시간 0.036초

웨이블릿 변환 영역에서의 국부 계수 최대치 및 특이점 검출을 이용한 블록화 현상 제거 (Reduction of blocking artifacts using the local moduls maxima and singularity detection in wavelet transform)

  • 이석환;김승진;김태수;이건일
    • 대한전자공학회논문지SP
    • /
    • 제41권6호
    • /
    • pp.109-120
    • /
    • 2004
  • 본 논문에서는 다층스케일 에지로부터 특이점 검출을 이용한 블록화 현상 제거 방법을 제안하였다. 블록 부호화된 영상에서 블록화 현상 및 에지와 같은 특이점들은 다층스케일 웨이블릿 변환 영역에서 국부 계수 최대치로 검출된다. 제안한 방법에서는 국부 계수 최대치의 Lipschitz 정칙 상수를 이용하여 블록화 현상 및 에지의 특이점들을 구분하고, 웨이블릿 변환 영역에서 블록화 현상에 의한 특이점들을 영역에 따라 스케일별로 제거한다. 실험 결과로부터 제안한 방법이 기존의 방법에 비하여 객관적 화질 및 주관적 화질 측면에서 보다 우수함을 확인하였다.

다층스케일 웨이블릿 변환영역에서 특이점 검출 및 Lipschitz 정칙 상수를 이용한 블록화 현상 제거 (Blocking artifact reduction using singularities detection and Lipschitz regularity from multiscale edges)

  • 이석환;권기구;김병주;권성근;이종원;이건일
    • 한국통신학회논문지
    • /
    • 제27권10A호
    • /
    • pp.1011-1020
    • /
    • 2002
  • 본 논문에서는 다층스케일 웨이블릿 변환영역에서의 특이점 검출 및 Lipschitz 정칙 상수를 이용한 블록화 현상 제거 방법을 제안하였다. 블록 부호화된 영상에서 블록화 현상 및 에지와 같은 특이점들은 다층스케일 웨이브릿 변환 영역에서 국부 계수 최대치 (local modulus maxima)로 검출된다. 제안한 방법에서는 국부 계수 최대치의 Lipschitz 정칙 상수를 이용하여 블록화 현상 및 에지의 특이점들을 구분하고, 웨이블릿 변환 영역에서 블록화 현상에 의한 특이점들을 연역에 따라 스케일별로 제거한다. 실험 결과로부터 제안한 방법은 기존의 방법에 비하여 PSRN이 0.046~0.42 dB 향상되었고, 복잡한 영역에서 에지의 불연속성이 제거되므로 객관적 화질 및 주관적 화질 측면에서 성능이 우수함을 확인하였다.

극한치이론을 이용한 VAR 추정치의 유용성과 한계 - 우리나라 주식시장을 중심으로 - (Usefulness and Limitations of Extreme Value Theory VAR model : The Korean Stock Market)

  • 김규형;이준행
    • 재무관리연구
    • /
    • 제22권1호
    • /
    • pp.119-146
    • /
    • 2005
  • 본 연구는 극한치 이론을 적용하여 국내 주식시장에 대한 VAR값을 구하고 이의 유용성을 살펴보았다. 극한치모형으로는 블록최대값모형과 POT 모형을 이용하였고 백테스트를 통하여 이들 모형의 적정성을 알아보았다. 극한치모형 중 블록최대값 모형은 신뢰수준의 변화에 따라 VAR 추정치의 변동이 매우 큰 것으로 나타났으며, 블록의 크기를 어떻게 선택하는가에 따라 모수의 추정치가 크게 달라져 VAR값의 안정성이 떨어지는 것으로 나타났다. 이는 국내 주식시장에 대해 VAR 측정시 블록최대값 모형을 사용하는 것은 적절치 않음을 시사하는 것이다. 반면 POT모형은 임계치의 선택에 따라서 VAR 값이 달라지기는 하나 상대적으로 안정적인 모습을 보이며, 또한 백테스트 결과 97.5% 이상의 신뢰수준에서 VAR값이 델타 VAR에 비하여 우수한 성과를 보이는 것으로 나타났다. 특히 POT모형은 신뢰수준이 높아질수록 그 우월성이 높은 것으로 나타나, 주로 99% 이상의 높은 신뢰수준의 VAR값을 이용하는 경우에 위험의 관리수단으로 유용한 모형임을 시사하고 있다. 또한 극한치모형은 수익률의 왼쪽 꼬리와 오른쪽 꼬리를 분리하여 추정하고 이를 VAR의 계산에 이용하기 때문에, 수익률분포가 비대칭적 특징을 보이는 우리나라 주식시장의 VAR 측정시 적절한 방법임을 확인할 수 있었다.

  • PDF

에지 신호에 적응적인 가변 필터를 이용한 MPEG 후처리 시스템에서의 양자화 잡음 제거 (Quantization Noise Reduction in MPEG Postprocessing System Using the Variable Filter Adaptive to Edge Signal)

  • 이석환;허소정;이응주;권기룡
    • 한국멀티미디어학회논문지
    • /
    • 제9권3호
    • /
    • pp.296-306
    • /
    • 2006
  • 본 논문에서는 MPEG 복호 시스템에서 에지 신호에 적응적인 가변 필터를 이용하여 양자화 잡음(quantization noise)을 제거하는 방법을 제안하였다. 제안한 방법에서는 복호화된 영상에서 2D Mallat 웨이블릿 필터를 이용하여 에지맵 (Edge map) 및 국부 계수 최대치(Local Modulus Maxima, LMM)를 구한다. 그리고 에지맵에 따라 필터링 영역이 가변되는 가우시안 저역 통과 필터(Gaussian LPF)를 이용하여 블록간에서의 블록화 현상 (blocking artifact)을 제거한다. 그리고 국부 계수 최대치를 이용하여 2D SAF(signal adaptive filter)를 수행함으로써 블록 내에서의 링잉 현상(ringing artifact)을 제거한다. 제안한 방법의 성능을 평가하기 위한 모의 실험 결과에서 기존의 방법에 비하여 PSNR이 0.04-0.20 dB 정도 향상되었으며, 또한 주관적으로 화질이 우수함을 확인하였다.

  • PDF

Extreme Value Analysis of Statistically Independent Stochastic Variables

  • Choi, Yongho;Yeon, Seong Mo;Kim, Hyunjoe;Lee, Dongyeon
    • 한국해양공학회지
    • /
    • 제33권3호
    • /
    • pp.222-228
    • /
    • 2019
  • An extreme value analysis (EVA) is essential to obtain a design value for highly nonlinear variables such as long-term environmental data for wind and waves, and slamming or sloshing impact pressures. According to the extreme value theory (EVT), the extreme value distribution is derived by multiplying the initial cumulative distribution functions for independent and identically distributed (IID) random variables. However, in the position mooring of DNVGL, the sampled global maxima of the mooring line tension are assumed to be IID stochastic variables without checking their independence. The ITTC Recommended Procedures and Guidelines for Sloshing Model Tests never deal with the independence of the sampling data. Hence, a design value estimated without the IID check would be under- or over-estimated because of considering observations far away from a Weibull or generalized Pareto distribution (GPD) as outliers. In this study, the IID sampling data are first checked in an EVA. With no IID random variables, an automatic resampling scheme is recommended using the block maxima approach for a generalized extreme value (GEV) distribution and peaks-over-threshold (POT) approach for a GPD. A partial autocorrelation function (PACF) is used to check the IID variables. In this study, only one 5 h sample of sloshing test results was used for a feasibility study of the resampling IID variables approach. Based on this study, the resampling IID variables may reduce the number of outliers, and the statistically more appropriate design value could be achieved with independent samples.

극단 손실값들을 이용한 VaR의 추정과 사후검정: 사례분석 (Estimation of VaR Using Extreme Losses, and Back-Testing: Case Study)

  • 서성효;김성곤
    • 응용통계연구
    • /
    • 제23권2호
    • /
    • pp.219-234
    • /
    • 2010
  • 시가총액에 따른 인덱스(INDEX) 투자를 했을 경우에, VaR(Value at Risk)을 종합주가지수(KOSPI)로부터 얻은 수익율의 극단 손실값들로부터 추정한다. 이를 위해, 극단값 이론 중 BM(Block Maxima) 모형을 적용하며, 극단 손실값들의 비독립적 발생을 고려하기 위하여, extremal index 역시 추정한다. 모형의 타당성을 알아보기 위해, 실패율방법을 이용한 사후검정 (back-testing) 을 실시한다. 사후검정을 통해, BM 모형을 적용한 VaR의 추정이 적절함을 알 수 있었다. 또한, 일반적으로 많이 사용되는 GARCH 모형을 이용한 VaR의 추정과 비교한다. 이를 통해, 오차가 t-분포를 따른다고 가정하는 경우, GARCH 모형을 이용한 VaR의 추정이 BM 모형을 이용한 경우와 사후 검정결과에 차이가 없음을 확인하였다. 그러나, GARCH 모형을 통한 VaR 추정은 추정시점근방의 극단 손실값들에 민감하게 반응하지만, BM 모형은 그렇지 않았다. 따라서, 현 시점으로부터 단기간동안의 손실위험은 GARCH 모형을 이용한 VaR의 추정값을 사용하는 것이 적절하며, 장기간동안의 손실위험은 BM 모형으로부터 얻은 VaR의 추정값을 사용하는 것이 적절하다.

Multivariate design estimations under copulas constructions. Stage-1: Parametrical density constructions for defining flood marginals for the Kelantan River basin, Malaysia

  • Latif, Shahid;Mustafa, Firuza
    • Ocean Systems Engineering
    • /
    • 제9권3호
    • /
    • pp.287-328
    • /
    • 2019
  • Comprehensive understanding of the flood risk assessments via frequency analysis often demands multivariate designs under the different notations of return periods. Flood is a tri-variate random consequence, which often pointing the unreliability of univariate return period and demands for the joint dependency construction by accounting its multiple intercorrelated flood vectors i.e., flood peak, volume & durations. Selecting the most parsimonious probability functions for demonstrating univariate flood marginals distributions is often a mandatory pre-processing desire before the establishment of joint dependency. Especially under copulas methodology, which often allows the practitioner to model univariate marginals separately from their joint constructions. Parametric density approximations often hypothesized that the random samples must follow some specific or predefine probability density functions, which usually defines different estimates especially in the tail of distributions. Concentrations of the upper tail often seem interesting during flood modelling also, no evidence exhibited in favours of any fixed distributions, which often characterized through the trial and error procedure based on goodness-of-fit measures. On another side, model performance evaluations and selections of best-fitted distributions often demand precise investigations via comparing the relative sample reproducing capabilities otherwise, inconsistencies might reveal uncertainty. Also, the strength & weakness of different fitness statistics usually vary and having different extent during demonstrating gaps and dispensary among fitted distributions. In this literature, selections efforts of marginal distributions of flood variables are incorporated by employing an interactive set of parametric functions for event-based (or Block annual maxima) samples over the 50-years continuously-distributed streamflow characteristics for the Kelantan River basin at Gulliemard Bridge, Malaysia. Model fitness criteria are examined based on the degree of agreements between cumulative empirical and theoretical probabilities. Both the analytical as well as graphically visual inspections are undertaken to strengthen much decisive evidence in favour of best-fitted probability density.

극치수문자료의 계절성 분석 개념 및 비정상성 빈도해석을 이용한 유효확률강수량 해석 (Concept of Seasonality Analysis of Hydrologic Extreme Variables and Effective Design Rainfall Estimation Using Nonstationary Frequency Analysis)

  • 권현한;이정주;이동률
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2010년도 학술발표회
    • /
    • pp.1434-1438
    • /
    • 2010
  • 수문자료의 계절성은 수자원관리의 관점에서 매우 중요한 요소로서 계절성의 변동은 댐의 운영, 홍수조절, 관계용수 관리 등 다양한 분야와 밀접한 관계를 가지고 있다. 그러나 지금까지의 수문 자료의 계절성 평가는 주로 이수과점에서 이루어지고 있으며 치수관점에서 극치수문량의 계절성을 평가하는 연구는 미진한 실정이다. 이는 극치수문량을 해석하는 방법론으로서 연최대치계열(annual maxima) 즉, Block Maxima가 이용됨에 따라 나타나는 문제점이다. 그러나 부분기간치계열(partial duration series)을 활용하게 되면 자료의 확충뿐만 아니라 자연적으로 극치수문량의 계절성에 대한 평가 또한 가능하다. 이러한 분석과정을 POT(peak over threshold)분석이라 하며 일정 기준값(threshold) 이상의 자료를 모두 취하여 빈도해석에 이용하는 방법으로서 기존 방법의 경우 연최대값이 일반적으로 7월과 8월에만 존재하게 되지만 POT 분석의 경우 여러 달에 걸쳐 빈도해석을 위한 자료가 구성되게 된다. 이를 빈도해석으로 연계시키기 위해서는 계절성을 비정상성으로 고려하여 모형화 할 수 있는 방법론의 개발이 필요하다. 본 연구에서는 이러한 목적을 위해서 계절성을 고려할 수 있는 비정상성빈도해석 기법의 개념을 제시하고 모형으로 개발하고자 한다. GEV 또는 Gumbel 분포의 매개변수와 계절성을 연계시키기 위해서 Fourier 급수가 활용되며 매개변수는 Bayesian 기법을 통해 최적화 된다. 이를 통하여 설계강수량의 계절적 분포를 정량적으로 해석할 수 있으며 미래의 극치강수량에 대한 분포특성 또한 확률적으로 해석이 가능하다. 본 연구에서 제안된 방법은 국내외 시간강수량자료에 적용되어 적합성과 적용성이 평가된다.

  • PDF

비정상성 GEV/Gumbel 주변분포를 이용한 강우자료 이변량 확률분포형 구축 (Construction of Bivariate Probability Distribution with Nonstationary GEV/Gumbel Marginal Distributions for Rainfall Data)

  • 주경원;최소영;김한빈;허준행
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2016년도 학술발표회
    • /
    • pp.41-41
    • /
    • 2016
  • 최근 다변량 확률모형을 이용한 빈도해석이 수문자료 등에 적용되면서 다양하게 연구되고 있으며 다변량 확률모형 중 copula 모형은 주변분포형에 대한 제약이 없어 여러 분야에 걸쳐 활발히 연구되고 있다. 강우자료는 기존 일변량 빈도해석을 수행하기 위하여 사용하던 block maxima 방법 대신 최소무강우시간(inter event time)을 통하여 강우사상을 추출하여 표본으로 사용한다. 또한 기후변화로 인한 강우량의 변화등에 대응하기 위하여 비정상성 Generalized Extreme Value(GEV)와 Gumbel 등의 확률분포형에 대한 연구도 많은 부분 이루어져 있다. 본 연구에서는, Archimedean copula 모형을 이용하여 이변량 확률모형을 구축하면서 여기에 사용되는 주변분포형에 정상성/비정상성 분포형을 적용하였다. 모형의 매개변수는 inference function for margin 방법을 이용하였으며 주변분포형으로는 정상성/비정상성 GEV, Gumbel 모형을 적용하였다. 결과로 정상성/비정상성 경향을 나타내는 지점을 구분하고 각 지점에 대한 정상성/비정상성 주변분포형을 적용한 이변량 확률분포형을 구하였다.

  • PDF

지진 재현수준 예측에 대한 로그-로지스틱 분포와 일반화 극단값 분포의 비교 (Comparison of log-logistic and generalized extreme value distributions for predicted return level of earthquake)

  • 고낙경;하일도;장대흥
    • 응용통계연구
    • /
    • 제33권1호
    • /
    • pp.107-114
    • /
    • 2020
  • 자연 재해로부터 관측되는 자료를 대상으로 재현 수준 예측 등과 같은 자료 분석을 위해 일반화 극단값 분포(generalized extreme value)가 자주 사용되어 왔다. 표본 수가 충분히 큰 경우 연속적인 블록 최댓값들은 점근적으로 일반화 극단값 분포를 따른다. 하지만 소표본인 경우 이러한 사실은 성립되지 않을 수도 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 모형 적합도 검정 및 모형 선택을 통해 로그-로지스틱(log-logistic) 분포의 사용을 제안한다. 하나의 예증으로서 중국 지진 자료를 대상으로 하여 로그-로지스틱 분포를 이용하여 재현 기간별 재현 수준 예측 및 신뢰구간을 제시한다.