• 제목/요약/키워드: 빈도값

검색결과 1,267건 처리시간 0.029초

기후변화에 따른 서울지역의 강우-지속기간-빈도 관계 평가 (Assessment of Depth-Duration-Frequency Relationship Considering Climate Change in Seoul)

  • 신주영;주경원;김수영;허준행
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2011년도 학술발표회
    • /
    • pp.370-374
    • /
    • 2011
  • 기후변화에 따른 수해를 대비하기 위해서는 미래의 확률강수량을 알아야 한다. Global Circulation Model(GCM)은 미래의 기후변화를 예측하기 위하여 많은 분야에서 널리 쓰이고 있다. GCM의 시간축척은 일반적으로 월단위로 시간단위 자료를 사용하는 수공학 분야에 직접적으로 적용하기에는 많은 문제가 있다. 또한 GCM 예측값은 실강우값과 큰 편의(bias)를 가지고 있어 직접적인 적용이 힘들다. 이런 문제를 해결하고자 다양한 다운스케일(downscale)기법이 연구되고 있다. 다운스케일기법을 적용하여 시간자료를 예측하면 전반적인 통계값을 잘 재현해내나, 극치값의 경우 잘 재현해내지 못하는 문제가 있다. 이런 문제점을 극복하고자 본 연구에서는 연최대 월강수량과 연최대 시간강수량의 이변량빈도해석을 통하여 기후변화를 고려한 강우-지속기간-빈도 관계의 변화를 평가해보고자 한다. 본 연구는 연최대 월강수량과 연최대 시간강수량과의 관계가 변하지 않는다는 가정하에 관측강수량을 이용하여 연최대 월강수량과 연최대 시간강수량의 이변량분포모형을 구축하였다. 이변량 분포모형을 구축하기 위하여 copula 모형을 적용하였다. 구축된 모형에 GCM으로 예측된 연최대 월강수량을 적용하여 미래의 확률강수량을 평가하였다. 본 연구에서는 서울지점을 대상지점으로 선정하였으며, A2 기후변화시나리오를 적용한 GCM 예측값을 이용하였다. 적용결과 A2 기후변화 시나리오 상에서 미래의 확률강수량이 크게 증가하는 것이 확인되었다.

  • PDF

강우자료의 확률분포함수를 이용한 강우강도식의 이론적 유도 (Theoretical Derivation of IDF curve Using Probability Distribution Function of Rainfall Data)

  • 김규태;김수영;김태순;허준행
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2007년도 학술발표회 논문집
    • /
    • pp.1503-1506
    • /
    • 2007
  • 수공구조물의 설계를 위해서 주로 사용되는 강우강도식은 연최대치 강우자료를 이용하여 빈도별 혹은 지속기간별 확률강우량을 구한 후 이 값들을 선형 혹은 비선형식의 형태로 회귀분석하여 구하게 된다. 그러나, 이와 같이 회귀분석을 이용하여 추정된 강우강도식은 원래의 강우자료가 가지고 있는 확률적인 특성을 재현한다고 하기는 어렵기 때문에, 본 연구에서는 연최대치 강우자료에 대한 적정 확률분포형으로부터 직접 강우 강도식을 유도하는 방법을 적용하여 대상지역 강우강도식의 매개변수를 산정하였다. 선정된 적정 확률분포형을 이용하여 강우강도식의 매개변수를 추정하는데 있어서, 평균제곱오차의 제곱근을 최소화하는 형태의 목적함수를 구성한 후 유전자알고리즘을 이용하여 적절한 매개변수를 산정하였다. 산정된 매개변수를 사용한 강우강도식으로 구한 결과값과 기존의 강우강도식에 의한 결과값 그리고 지점빈도해석에 의한 결과값을 비교하여 본 연구에서 산정된 강우강도식의 적용성을 평가해 보았다.

  • PDF

중계 차량 내 콘트롤러 사용빈도 분석을 위한 연구 (A Study on Controller Usage Frequency Analysis in Outdoor Broadcasting Van)

  • 전지혜;서영우;남병국;백종호;박구만
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.332-334
    • /
    • 2016
  • 본 논문에서는 중계 차량 내 콘트롤러 사용빈도 분석을 위한 방법에 대해 논한다. 중계 차량 내 장비는 대부분 외산에 의존하고 고가의 장비를 사용하고 있다. 따라서 투자비용이 높고 국산화 기술에 대한 연구가 미미하다. 또한 사용하는 장비의 기능은 한정적인 것에 반해 불필요한 확장 기능이 너무 많이 탑재되어 있어 사용자의 활용 빈도가 낮고, 사용하기가 어렵다. 이에 본 논문에서는 인간공학적 콘트롤러 개발을 위해 이동식 중계 차량 내 콘트롤러 사용빈도를 영상 기반으로 자동 분석하기 위한 방법에 대해 제안한다. 사용빈도 분석을 위해 사용자의 손을 추적하고, 손으로 추정되는 좌표 값을 파악하여 계속 누적한다. 일정시간 동안 누적한 좌표값을 분석하여 콘트롤러 사용 빈도에 대해 파악하고자 한다. 이는 국내 중계방송 환경에 적합한 콘트롤러 장비를 개발하는 데 도움을 줄 수 있으며 국산 기술을 확보할 수 있는데 의의를 가진다.

  • PDF

Bayesian MCMC를 이용한 저수량 점 빈도분석: II. 빈도분석의 적용 및 결과의 평가 (At-site Low Flow Frequency Analysis Using Bayesian MCMC: II. Application and Comparative Studies)

  • 김상욱;이길성;김경태
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2008년도 학술발표회 논문집
    • /
    • pp.1125-1128
    • /
    • 2008
  • 본 연구에서는 Bayesian MCMC 방법과 2차 근사식을 이용한 최우추정(Maximum Likelihood Estimation, MLE)방법 방법을 이용하여 낙동강 유역의 본류지점인 낙동, 왜관, 고령교, 진동지점에 대한 점 빈도분석을 수행하고 그 결과로써 불확실성을 포함한 빈도곡선을 작성하였다. 통계적 실험을 통한 두 가지 추정방법의 분석을 위하여 먼저 자료의 길이가 100인 8개의 합성 유량자료 셋을 생성하여 비교 연구를 수행하였으며, 이를 자료길이 36인 실측 유량자료의 추정결과와 비교하였다. Bayesian MCMC 방법에 의한 평균값과 2차 근사식을 이용한 취우추정방법에 의한 모드에서의 2모수 Weibull 분포의 모수 추정값은 비슷한 결과를 보였으나, 불확실성을 나타내는 하한값과 상한값의 차이는 Bayesian MCMC 방법이 2차 근사식을 이용한 취우추정방법보다 불확실성을 감소시켜 나타내는 것을 알 수 있었다. 또한 실측 유량자료를 이용한 결과, 2차 근사식을 이용한 최우추정방법의 경우 자료의 길이가 감소됨에 따라 불확실성의 범위가 합성 유량자료를 사용한 경우에 비해 상대적으로 증가되지만, Bayesian MCMC 방법의 경우에는 자료의 길이에 대한 영향이 거의 없다는 결론을 얻을 수 있었다. 그러므로 저수량 빈도분석을 수행하기 위해 충분한 자료를 확보할 수 없는 국내의 상황을 감안할 때, 위와 같은 결론으로부터 Bayesian MCMC 방법이 불확실성을 표현하는데 있어서 2차 근사식을 이용한 최우추정방법에 비해 합리적일 수 있다는 결론을 얻을 수 있었다.

  • PDF

한강 인도교 지점의 계획홍수량 산정을 위한 지점빈도해석 (Point Frequency Analysis for Determining the Design Flood at Indogyo Site)

  • 윤용남;원석연
    • 한국수자원학회논문집
    • /
    • 제31권4호
    • /
    • pp.469-481
    • /
    • 1998
  • 한강 인도교 지점의 1918년부터 1992년 간의 총 68년의 연최대 홍수량 계열 자료를 수집하여 지점빈도해석을 실시하였다. 3변수 대수정규분포, 제1형 극치분포, 제3형 극치분포 및 Pearson type-III분포에 의한 확률 홍수량의 값이 대체로 부합하는 결과를 보여주었으며, 100년 및 200년 빈도 홍수량의 값은 각각 35,500 m3/sec 및 39,000 m3/sec로 계산되었다. 또한 유역내에 설치되어 있는 각종 댐의 홍수조절효과를 고려하여 댐이 존재하는 경우를 기준으로 홍수량 계열을 수정한 후 빈도해석을 실시한 결과 빈도 홍수량은 33,500 m3/sec 및 37,500 m3/sec 로 계산되었다. 200년 홍수량 37,500 m3/sec는 현 한강하류부 고시유량인 37,000 m3/sec와 비교하면 비슷한 값이며, 기후 변화에 따른 홍수량의 증가성향을 감안하면 현 고시유량의 고수가 바람직 할 것으로 보인다.

  • PDF

극치값 추정에 적합한 비매개변수적 핵함수 개발 (A Development of Noparamtric Kernel Function Suitable for Extreme Value)

  • 차영일;김순범;문영일
    • 한국수자원학회논문집
    • /
    • 제39권6호
    • /
    • pp.495-502
    • /
    • 2006
  • 비매개변수적 빈도해석을 위해 제시되는 핵밀도함수 방법에서 내삽법은 외삽법보다 더 신뢰적이기 때문에 내삽법과 관련된 광역폭의 선택이 외삽 문제와 연관되는 핵함수의 선택보다 중요하다. 그러나, 재현기간이 자료구간보다 커지거나 또는 $200{\sim}500$년 빈도 발생과 같은 확률 값에 대한 추정을 하는 경우는 자료의 외삽이 중요한 문제이며 따라서 이에 따른 핵함수의 선택도 중요시된다. 핵함수에 따라서는 외삽에 대해 상대적으로 작거나 큰 값이 제시 될 수 있으므로 극치값 추정에는 어려운 점이 있다. 따라서 본 논문에서는 일반적으로 내삽 및 외삽에도 적합한 핵함수로 Modified Cauchy 핵함수를 제시하였다.

Index Flood법과 Netmax법을 이용한 지역빈도해석의 비교 연구 (Comparative Study on Regional Frequency Analysis Using Index Flood Method and Netmax Method)

  • 김지훈;김경덕;허준행
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2004년도 학술발표회
    • /
    • pp.1132-1136
    • /
    • 2004
  • 본 논문은 지금까지의 지점빈도해석의 약점을 보완하기 위하여 지역화의 개념을 사용한 지역빈도해석의 방법에 관한 연구이다. 지점빈도해석은 수문자료의 관측기간이 짧은 경우 정확도에 문제를 발생시킬 수 있으므로, 지점 내 충분한 수의 자료 확보가 선행되어야 한다. 반면 지역빈도해석의 경우 우리나라와 같이 자료의 수가 부족한 경우에도 효율적이고 안정적인 확률수문량을 산정할 수 있다. 본 연구에서는 한강유역의 강우자료 선별을 통해 신뢰성 있는 자료를 구축한 훈, L-모멘트기법과 Netmax법을 사용한 지역빈도해석을 각각 실시하여 기존의 방법으로 산정한 수문량과 비교${\cdot}$분석하였다. 지역빈도해석의 결과 남한강 유역은 이질성 척도가 큰 것으로 판명되어 남한강 유역의 경우 지역적인 세분화가 필요한 것으로 나타났다. Netmax를 이용하여 산정된 수문량은 L-모멘트법과 지점빈도해석 그리고 확률강우량도에 의해 산정된 값에 비하여 과소추정 되었다 지역적 특수성을 고려하지 않고 형성된 네트워크는 지역적으로 세분화가 필요한 지역에 대하여서 좋지 않은 결과를 보여주는 것으로 나타났다.

  • PDF

링크 빈도와 클릭 빈도를 이용하는 메타 검색엔진의 설계 (A Design of Meta Search Engine that Uses Link and Click Frequencies)

  • 유태명;김준태
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.292-294
    • /
    • 2000
  • 대부분의 검색엔진들이 사용하는 내용 기반 검색 방법은 웹 페이지에 있는 단어의 빈도만을 이용하여 순위를 결정함으로써 비슷한 단어 빈도를 가지고 있는 방대한 양의 검색 결과로부터 참조할만한 가치가 있는 중요한 페이지를 찾아내기가 매우 어렵다. 중요한 페이지를 구분해 내는 한가지 방법은 얼마나 많은 웹 페이지들이 참조하고 있는가 또한 얼마나 많은 사용자들이 그 웹 페이지에 접속하는가를 보는 것이다. 본 논문에서는 링크 빈도와 클릭 빈도를 이용하여 웹 페이지의 중요도를 계산하는 메타 검색엔진의 프로토타입을 구현하였다. 링크 빈도는 검색엔진에 해당 웹 페이지의 URL을 질의로 던져 구하고 클릭 빈도는 servlet을 이용하여 사용자의 클릭 행위를 감시하여 얻어내도록 하였다. 메타 검색엔진은 이 두 값의 가중치 합으로 각 페이지의 중요도를 계산하고 중요도 순으로 검색 결과를 재배열하여 사용자에게 보여 준다.

  • PDF

개인화된 정보 필터링 에이전트를 위한 유전 알고리즘 (Genetic algorithm for personalized information filtering agent)

  • 손윤희;박상호
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2001년도 추계학술발표논문집
    • /
    • pp.423-428
    • /
    • 2001
  • 유전 알고리즘을 이용한 정보 필터링 에이전트는 기존의 검색엔진에서 찾고자 하는 문서에 대해 검색된 문서의 유사도가 낮은 문제점을 해결한다. 본 논문에서는 HTML 태그의 중요도 가중치와 HTML 태그 안의 위치에 대한 가중치를 유전 알고리즘을 이용하여 학습한다. 여기서 학습된 가중치가 높은 태그와 태그 안의 위치 그리고 출현하는 빈도수에 대한 중요도 가중치를 다시 유전 알고리즘을 이용하여 학습하고 여기서 학습된 가중치로 검색된 문서를 필터링하여 정보 검색 성능을 향상시킬 수 있는 방법을 제안한다. 이 때 태그의 중요도 가중치 값을 학습하는 방법으로 하나의 태그를 유전자로 매핑하고 일련의 태그 집합을 염색체로 표현한 유전 알고리즘을 이용한다. 태그 안의 위치에 대한 중요도 가중치 값도 같은 방법을 이용한다. 여기서 나온 태그와 위치 그리고 빈도 수에 대한 중요도 가중치 값을 다시 유전자 알고리즘 이용하여 계산하다. 이 값으로 검색된 문서를 필터링하여 기존의 정보검색보다 검색자가 원하는 검색문서에 상당한 정확율을 제공하는 방법을 제안한다.

  • PDF

히스토그램을 이용한 근사적 집단 연산과 효과적인 오차 추정 (Approximate Aggregation and Effective Error Estimation using Histogram)

  • 안성준;배진욱;심마로;이석호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1999년도 가을 학술발표논문집 Vol.26 No.2 (1)
    • /
    • pp.18-20
    • /
    • 1999
  • 히스토그램은 데이터베이스 질의 최적기가 사용하는 통게정보 중의 하나이다. 최근에는 데이터베이스의 크기가 기하급수적으로 커짐에 따라, 데이터의 전체적인 성향을 빠르게 파악할 수 있는 방법의 하나로 히스토그램으로 활용하는 방안이 고려되고 있다. 그를 위해서, 히스토그램에서 얻어진 근사값의 오차를 추정할 수 있는 방법이 요구되었다. 기존의 기법에서는 히스토그램의 각 버켓에 실제 빈도와 평균 빈도의 최대차를 추가하고, 이 값을 이용하여 오차추정을 하였다. 그러나, 이 값이 히스토그램 버켓의 전체적인 데이터 분포를 잘 반영하지 못하기 때문에 실제 오차에 근접한 오차 추정을 할 수가 없는 단점이 있었다. 본 논문에서는 이를 극복하기 위해, 히스토그램에 데이터의 분포를 잘 반영하는 정보 즉, 평균값, COUNT/SUM 연산에 대한 최대 오차를 추가하였다. 이 정보들을 이용하여 실제 오차에 보다 근접한 오차 추정을 할 수 있었으며, 부가적으로 SUM/AVG 연산에 대한 보다 정확한 근사값을 얻을 수 있었다.

  • PDF