• Title/Summary/Keyword: 축척변수

Search Result 37, Processing Time 0.026 seconds

National Nonstationary Frequence Analysis Using for Gumbel Distribution (Gumbel 분포를 이용한 전국의 비정상성 빈도 해석)

  • Kim, Gwang-Seob;Lee, Gi-Chun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2011.05a
    • /
    • pp.379-379
    • /
    • 2011
  • 본 연구는 우리나라 전국 기상관측소 중 1973년부터 2009년까지의 시 강수자료가 구축되어 있는 기상관측소 55개 지점에 대하여 비정상성 빈도해석을 수행하였다. 각 지점에 대하여 지속시간 1시간, 24시간에 대한 연 최대 강수량 자료를 구축하여 초기 20년을 기준으로 1년씩 추가한 연 최대 강수량 누적 자료를 생성하고, 생성된 기간별 자료의 평균, 위치매개변수, 축척매개변수를 산정하였으며, 위치매개변수와 축척매개변수는 확률가중모멘트법을 사용하여 산정하였다. 산정된 연 최대 평균 누적 강수량과 연도와의 선형 회귀식을 산정하여 목표연도별(2040, 2070, 2100년) 평균 강수량을 산정하였고, 위치매개변수와 축척매개변수도 평균 누적 강수량과의 선형 회귀식을 산정함으로써, 목표연도에 해당하는 각 매개변수를 산정하였다. 또한 산정된 목표연도별 평균 강수량, 위치매개변수와 축척매개변수를 이용해 확률강수량을 산정하였다. 비정상성 빈도해석을 수행하여 산정된 55개 지점에 대한 목표연도별 확률강수량을 Inverse Distance Weighted(IDW) 보간법을 사용하여 전국의 확률강수량을 공간적으로 표현하였다. 전국단위의 비정상성 빈도해석을 실시한 결과, 전체적으로 각 목표연도별 확률강수량이 증가하는 것으로 나타났으나, 일부 감소하는 지역도 나타났다. 경기도와 강원도 등 중부지역에서 확률강수량의 증가가 큰 것으로 나타났으며, 특히 강원도(강릉, 인재 등) 지역에서 확률강수량의 증가폭이 가장 크게 나타났다. 또한 남해지역에서는 대부분 확률강수량이 감소하는 것으로 나타났고, 그중에서 전라남도 남해안 부근(장흥 등)에 확률강수량의 감소가 가장 크게 나타났으며, 경북지역과 전북지역 부근에서는 증가 또는 감소의 차이가 미비하게 나타났다. 하지만 목표연도 2070년과 2100년에 대하여 산정된 확률강수량으로부터 선형 회귀식을 통해 목표연도별 평균 강수량, 위치매개변수, 축척매개변수를 추정하여 확률강수량을 산정하는 것에 한계가 있음을 보여주었다.

  • PDF

Analysis of a Modified Stochastic Gradient-Based Filter with Variable Scaling Parameter (가변 축척 매개변수를 가진 변형 확률적 경사도 기반 필터의 해석)

  • Kim, Hae-Jung
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.31 no.12C
    • /
    • pp.1280-1287
    • /
    • 2006
  • We propose a modified stochastic gradient-based (MSGB) filter showing that the filter is the solution to an optimization problem. This paper analyzes the properties of the MSGB filter that corresponds to the nonlinear adaptive filter with additional update terms, parameterized by the variable scaling factor. The variably parameterized MSGB filter plays a role iii connecting the fixed parameterized MSGB filter and the null parameterized MSGB filter through variably scaling parameter. The stability regions and misadjustments are shown. A system identification is utilized to perform the computer simulation and demonstrate the improved performance feature of the MSGB filter.

Evolutionary Programming of Applying Estimated Scale Parameters of the Cauchy Distribution to the Mutation Operation (코시 분포의 축척 매개변수를 추정하여 돌연변이 연산에 적용한 진화 프로그래밍)

  • Lee, Chang-Yong
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.9
    • /
    • pp.694-705
    • /
    • 2010
  • The mutation operation is the main operation in the evolutionary programming which has been widely used for the optimization of real valued function. In general, the mutation operation utilizes both a probability distribution and its parameter to change values of variables, and the parameter itself is subject to its own mutation operation which requires other parameters. However, since the optimal values of the parameters entirely depend on a given problem, it is rather hard to find an optimal combination of values of parameters when there are many parameters in a problem. To solve this shortcoming at least partly, if not entirely, in this paper, we propose a new mutation operation in which the parameter for the variable mutation is theoretically estimated from the self-adaptive perspective. Since the proposed algorithm estimates the scale parameter of the Cauchy probability distribution for the mutation operation, it has an advantage in that it does not require another mutation operation for the scale parameter. The proposed algorithm was tested against the benchmarking problems. It turned out that, although the relative superiority of the proposed algorithm from the optimal value perspective depended on benchmarking problems, the proposed algorithm outperformed for all benchmarking problems from the perspective of the computational time.

A Study on the World Geodetic System Transformation of Cadastral Record Using by Three parameters (3변수를 이용한 지적공부의 세계측지계 변환 연구)

  • Jung, Wan-Suk;Kang, Sang-Gu
    • Journal of Cadastre & Land InformatiX
    • /
    • v.44 no.2
    • /
    • pp.139-153
    • /
    • 2014
  • The world geodetic system transformation of cadastral record have to minimize differences of boundary and area being in cadastral record according to transformation for that is direct connected with the land owner and property protection. However it is very difficult to accurately maintain the before and after transformation because coordinate transformation is generally using a mathematical conversion formula. At present, Helmert model by using 4-parameter is official coordinate transformation model for Cadastral Resurvey Project but scale factor is most sensitive to changes of area and relative position in the same parcel. In this study, it was proposed 3-parameter method using by scale factor fixing through the application of a Helmert in order to avoid changing the area difference and keeping the error within the tolerance range of the boundary which is related to the boundary point coordinate region.

Hydrologic Response Analysis Considering the Scale Problem: Part 2. Application and Analysis (규모문제를 고려한 수문응답의 해석: 2. 적용 및 분석)

  • 성기원;선우중호
    • Water for future
    • /
    • v.28 no.5
    • /
    • pp.117-127
    • /
    • 1995
  • The application and analysis for the scale considering GIUH model proposed by the authors in this issue have been performed for the leemokjung sub-basin in the Pyungchang basin one of IHP representative basin in Korea. Scales of topographic maps for model application and fractal analysis are 1:25,000, 1:50,000 and 1:100,000. The ratio between successive scales is therefore constant. Link lengths were measured using a curvimeter with the resolution of 1 mm. Richardson's method was employed to have fractal dimension of streams. Apparent alternations of parameters were found in accordance with variations of map scale. And this tendency could mislead physical meanings of parameters because model parameters had to preserve their own value in spite of map scale change. It was found that uses of fractal transform and Melton's law could help to control the scale problem effectively. This methodlogy also could emphasize the relationship between network and basin to the model. To verify the applicability of GIUH proposed in this research, the model was compared with the exponential GIUH model. It is proven that proposed 2-parameter gamma GIUH model can better simulate the corresponding runoff from any given flood events than exponential GIUH model. The result showed that 2-parameter gamma GIUH model and fractal theory could be used for deriving scale considered IUH of the basin.

  • PDF

Nonstationary Frequency Analysis at Seoul Using a Power Model (Power 모형을 이용한 서울지점 비정상성 빈도해석)

  • Lee, Gi-Chun;Kim, Gwang-Seob;Choi, Kyu-Hyun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2012.05a
    • /
    • pp.461-461
    • /
    • 2012
  • 본 연구는 서울 지점의 목표연도(2040, 2070, 2100년)별 재현기간에 따른 확률강수량을 산정하기 위해 지속시간 24시간에 대한 연 최대 강수량 자료를 구축하여 비정상성 빈도해석을 수행하였다. 연 최대강수량 자료를 이용해 초기 20년을 기준으로 1년씩 추가한 연 최대 강수량 누적 자료를 구축한 후, 누적 기간별 자료의 평균, 위치매개변수, 축척매개변수를 산정하였다. Gumbel 분포를 이용해 비정상성 빈도해석을 실시하였으며, 각 매개변수의 경우 확률가중모멘트법을 이용해 산정하였다. 산정된 누적평균 강수량과 연도와의 선형회귀분석을 실시한 방법뿐만 아니라 서울 지점이 속한 한강유역의 전 지점들을 이용한 유역의 누적평균 강수량 자료에 대하여 연도와의 Logsitic 회귀분석 및 Power Model을 이용해 서울 지점의 목표연도별 누적평균 강수량을 산정하였고 이를 통해 목표연도별 위치매개변수 및 축척매개변수를 구해 목표연도별 재현기간에 따른 확률강수량을 산정하였다. 선형회귀분석을 이용한 비정상성 빈도해석의 경우, 목표연도가 증가함에 따라 선형적인 증가에 의해 매우 높은 누적평균 강수량이 나타나 확률강수량의 경우에도 정상성임을 가정한 확률강수량에 비해 매우 높게 나타나 타당한 확률강수량이라 함에 한계가 있음을 보였다. 유역의 평균거동과 Logistic 회귀분석을 실시하여 확률강수량을 산정하였을 때에는, 선형 회귀분석에 비해 정상성임을 가정한 확률강수량보다 크게 증가하지 않고 비교적 안정적인 증가가 나타났다. 하지만 Logistic 회귀분석을 이용한 누적평균 강수량 산정에 있어서 목표연도 2040년에 도달하기 전에 미리 수렴하는 형태를 보여 모든 목표연도의 확률강수량이 동일한 값을 가지는 한계가 나타났다. 한강 유역의 평균거동과 Power Model을 이용한 비정상성 빈도해석의 경우, 선형회귀분석 및 Logistic 회귀분석을 통한 비정상성 빈도해석에서 나타난 문제점을 보완할 수 있는 확률강수량이 나타남을 보였다.

  • PDF

The Positional Accuracy Quality Assessment of Digital Map Generalization (수치지도 일반화 위치정확도 품질평가)

  • 박경식;임인섭;최석근
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.19 no.2
    • /
    • pp.173-181
    • /
    • 2001
  • It is very important to assess spatial data quality of a digital map produced through digital map generalization. In this study, as a aspect of spatial data quality maintenance, we examined the tolerate range of theoretical expectation accuracy and established the quality assessment standard in spatial data for the transformed digital map data do not act contrary to the digital map specifications and the digital map accuracy of the relational scale. And, transforming large scale digital map to small scale, if we reduce complexity through processes as simplification, smoothing, refinement and so on., the spatial position change may be always happened. thus, because it is very difficult to analyse the spatial accuracy of the transformed position, we used the buffering as assessment method of spatial accuracy in digital map generalization procedure. Although the tolerated range of generic positioning error for l/l, 000 and l/5, 000 scale is determined based on related law, because the algorithms adapted to each processing elements have different property each other, if we don't determine the suitable parameter and tolerance, we will not satisfy the result after generalization procedure with tolerated range of positioning error. The results of this study test which is about the parameters of each algorithm based on tolerated range showed that the parameter of the simplification algorithm and the positional accuracy are 0.2617 m, 0.4617 m respectively.

  • PDF

Comparison of Segmentation Weight Parameters for Object-oriented Classification (객체기반 영상분류를 위한 영상분할 가중치 비교)

  • Lee, Jung-Bin;Heo, Joon;Sohn, Hong-Gyoo;Yun, Kong-Hyun
    • 한국공간정보시스템학회:학술대회논문집
    • /
    • 2007.06a
    • /
    • pp.289-292
    • /
    • 2007
  • 객체기반 영상분류를 위한 영상분할에 있어서 중요한 요소로는 분할축척(Scale), 분광 정보(Color), 공간 정보(Shape) 등이 있으며 공간 정보에 해당하는 공간 변수는 평활도(Smoothness)와 조밀도(Compactness)가 있다. 이들 가중치의 선택이 최종적으로 객체기반 영상분류의 결과를 좌우하게 된다. 본 연구는 객체기반 영상분류의 준비 과정이라 할 수 있는 영상분할에 있어서 다양한 가중치를 적용을 통하여 영상을 분할하였다. 영상분할을 위해 적용한 가중치는 10, 20, 30의 분할축척(Scale)과 분광 정보(Color)와 공간 정보(Shape)간의 가중치 조합, 공간 변수인 평활도(Smoothness)와 조밀도(Compactness)간의 가중치 조합을 사용하였다. 각 가중치 조합을 통하여 분할된 영상의 분석은 Moran's I 와 객체 내부 분산(Intrasegment Variance)을 이용하여 분석하였다. 각 객체간의 상관관계 분석을 위하여 Moran's I를 계산하였으며 분류된 지역의 동질성을 분석하기 위하여 객체 면적을 고려한 객체 내부 분산(Intrasegment Variance)값을 계산하였다. Moran's I 가 낮은 값을 가질수록 객체 간의 공간상관관계가 낮아지므로 이웃 객체간의 이질성은 높아지며 객체 내부 분산(Intrasegment Variance)이 낮은 값을 가질수록 지역간의 동질성은 높아지게 된다. Moran's I 와 객체 내부 분산(Intrasegment Variance)의 조합을 통하여 객체기반 영상분류 시 가장 높은 분류 정확도가 예상되는 밴드별 영상분할 가중치를 얻을 수 있다.

  • PDF

lNon-Stationary Frequency Analysis of Future Extreme Rainfall over the Korean Peninsula (비정상성을 고려한 한반도 미래 극치강우 빈도해석)

  • Jeong, Min Su;Yun, Seon-Gwon;Oak, Young Suk;Lee, Young Sub;Jung, Jae Wook
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2018.05a
    • /
    • pp.162-162
    • /
    • 2018
  • 지난 100년간(1996~2005년)의 전지구 평균 온도는 $0.74^{\circ}C$ 상승하였고 이러한 온도 상승은 온실효과의 영향으로 파악되고 있으며, 장래에는 이러한 상승 경향이 가속화되어 진행될 것으로 예측되고 있다(IPCC 2014; Baek et al 2011). 전지구 기온 상승은 극한 해수면 증가 및 호우 빈도와 평균 강수량 증가로 나타나며, 이로 인한 상당한 홍수 및 침수피해 가능성이 나타나고 있어 이에 대한 선제적 대응책 마련이 필요한 실정이다. 본 연구에서는 GCMs 모델별 연 최대 일 강수량을 추출하여 정상성 및 비정상성 빈도분석을 수행하고 빈도별 확률강수량을 산정하였다. 정상성 및 비정상성 분석을 위해 모델별 연최대치 일강우 자료를 산정하고, 모델별 경향성 검정을 수행하였다. 또한 각 모델별로 2021년부터 30년을 기준으로 1개년씩 자료이동을 통해 30세트를 구성하고, 각 세트별 80mm 이상의 강우의 평균 발생횟수 및 여름철(6월~9월) 평균 강우 총량의 산정을 통해 순위 도출에 적용하였다. 경향성 검정 및 순위도출 결과를 토대로 8개 GCMs 자료 중에서 4개의 GCMs를 선정하였고, 시나리오별 세트구성에 따른 연 최대 일 강우량의 평균 및 Gumbel 분포형의 위치 및 축척매개변수를 산정하였으며, 이를 토대로 서울지역을 대상으로 위치 및 축척 매개변수 추정에 따른 비정상성 빈도분석을 수행하였다.

  • PDF

A Study on the Effective Algorithms for tine Generalization (선형성 지형자료의 일반화에 대한 효율적인 알고리즘에 관한 연구)

  • 김감래;이호남
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.12 no.1
    • /
    • pp.43-52
    • /
    • 1994
  • This paper outlines a new approach to the line generalization when preparing small scale map on the basis of existing large scale digital map. Line generalizations are conducted based on Douglas algorithm using 1/25,000 scale topographic maps of southeastern JEJU island which produced by National Geographic Institute to analyze the fitness to the original and problems of graphical representation. Compare to the same scale map which was generated by manual method, a verity of small, but sometimes significant errors & modification of topological relationship have been detected. The research gives full details of three algorithms that operationalize the smallest visible object method, together with some empirical results. A comparison of the results produced by the new algorithms with those produced by manual generalization and Douglas method of data reduction is provided. Also this paper presents the preliminary results of an relationships between the size of smallest visual object and requiring data storages for each algorithms.

  • PDF