• Title/Summary/Keyword: 결측자료보정

Search Result 61, Processing Time 0.031 seconds

Methods for Handling Incomplete Repeated Measures Data (불완전한 반복측정 자료의 보정방법)

  • Woo, Hae-Bong;Yoon, In-Jin
    • Survey Research
    • /
    • v.9 no.2
    • /
    • pp.1-27
    • /
    • 2008
  • Problems of incomplete data are pervasive in statistical analysis. In particular, incomplete data have been an important challenge in repeated measures studies. The objective of this study is to give a brief introduction to missing data mechanisms and conventional/recent missing data methods and to assess the performance of various missing data methods under ignorable and non-ignorable missingness mechanisms. Given the inadequate attention to longitudinal studies with missing data, this study applied recent advances in missing data methods to repeated measures models and investigated the performance of various missing data methods, such as FIML (Full Information Maximum Likelihood Estimation) and MICE(Multivariate Imputation by Chained Equations), under MCAR, MAR, and MNAR mechanisms. Overall, the results showed that listwise deletion and mean imputation performed poorly compared to other recommended missing data procedures. The better performance of EM, FIML, and MICE was more noticeable under MAR compared to MCAR. With the non-ignorable missing data, this study showed that missing data methods did not perform well. In particular, this problem was noticeable in slope-related estimates. Therefore, this study suggests that if missing data are suspected to be non-ignorable, developmental research may underestimate true rates of change over the life course. This study also suggests that bias from non-ignorable missing data can be substantially reduced by considering rich information from variables related to missingness.

  • PDF

User Interface of Data Processing, Design and Construction Techniques of Traffic Database Supporting Archived data (교통정보 이력자료 분석을 위한 통합 교통 데이터베이스의 설계 및 구축과 자료처리 이용자 인터페이스)

  • Lee, Yoon-Kyung;Lee, Min-Soo;NamGung, Sung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.55-59
    • /
    • 2008
  • 분산되어 있는 여러 운영계 시스템에서 대용량의 교통자료를 가져와 교통정보 이력자료를 분석할 수 있는 단일 통합 교통 데이터베이스를 구축한다. 품질 평가, 오류 판단, 결측보정과 평활화 등의 자료처리 과정을 거친 교통자료는 자료의 신뢰도를 판단하고 활용도를 높일 수 있게 해주며 이용자에게 고속도로 통행료 수납자료, 고속도로 전자통행료 수납자료, 차량검지장치자료, 도로전광표지자료, 돌발상황자료, 기상자료, 차량번호인식장치자료 등에 대한 검색 및 자료 처리 기능을 제공한다.

  • PDF

Estimation of Andong Reservoir Long-Term Daily Inflow Using SWAT Model (SWAT 모형을 이용한 안동댐 장기 일 유입량 산정)

  • Kang, Min-Suk;Yu, Myung-Su;Yi, Jae-Eung
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2012.05a
    • /
    • pp.868-872
    • /
    • 2012
  • 유역의 유입 및 유출은 강수에 의해 발생하며 여러 가지 기후 조건과 토지 상태의 영향을 받는다. SWAT(Soil and Water Assessment Tool) 모형은 이러한 여러 가지 복잡한 기후 조건과 토지 상태를 반영하며, 장기간 입력 자료에 따른 유출량을 산출할 수 있다. 본 연구에서는 시험유역을 안동댐 유역으로 선정하였으며, SWAT 모형을 이용하여 10년(2000년 ~ 2010년) 동안의 유출량을 산정하였고 이를 안동댐의 실측 유입량과 비교 분석하였다. ArcSWAT을 이용하여 분석하였고 입력 자료는 SWAT의 분석단위인 HRU(Hydrologic Response Unit)를 산정하기 위한 정밀 토양도 및 토지피복도와 기상입력 자료인 강우 및 최고기온, 최저기온, 습도, 풍속, 일사량 등을 사용하였다. 강우관측소는 안동댐 유역의 고선, 남회룡, 도천, 미질, 석동, 석포, 석현, 의촌, 재산, 황지를 선정하였고, 일사량관측소는 안동, 대관령, 포항을 선정하였으며, 기온, 습도, 풍속관측소는 안동, 봉화, 태백, 영주를 선정하였다. 또한 기상입력자료 중 결측값은 역거리 자승법을 이용하여 보완하였다. SWAT 모형은 유출량 계산 시 여러 가지 다양한 매개변수가 사용되며, 이러한 매개변수들의 검 보정을 통하여 실제 유역의 특성과 하천 흐름특성을 반영할 수 있다. 본 연구의 시험유역인 안동댐유역은 산림과 초지가 많은 지역이기 때문에 식물에 의해 차단되는 강우에 관한 매개변수와 지하로 침투되는 강우량에 관한 매개변수 등을 보정하여 실제 유역특성을 반영하였다. 본 연구에서는 이러한 과정을 통해 안동댐 유역의 10년 동안의 일 유출량을 산정한 결과, 홍수기의 첨두유량 및 첨두시간에는 실측자료와 약간의 차이가 있었지만 전체적으로 실측자료와 매우 유사한 유출량을 산정하였다.

  • PDF

Bias-correction of near-real-time multi-satellite precipitation products using machine learning (머신러닝 기반 준실시간 다중 위성 강수 자료 보정)

  • Sungho Jung;Xuan-Hien Le;Van-Giang Nguyen;Giha Lee
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.280-280
    • /
    • 2023
  • 강수의 정확한 시·공간적 추정은 홍수 대응, 가뭄 관리, 수자원 계획 등 수문학적 모델링의 핵심 기술이다. 우주 기술의 발전으로 전지구 강수량 측정 프로젝트(Global Precipitation Measurement, GPM)가 시작됨에 따라 위성의 여러 센서를 이용하여 다양한 고해상도 강수량 자료가 생산되고 있으며, 기후변화로 인한 수재해의 빈도가 증가함에 따라 준실시간(Near-Real-Time) 위성 강수 자료의 활용성 및 중요성이 높아지고 있다. 하지만 준실시간 위성 강수 자료의 경우 빠른 지연시간(latency) 확보를 위해 관측 이후 최소한의 보정을 거쳐 제공되므로 상대적으로 강수 추정치의 불확실성이 높다. 이에 따라 본 연구에서는 앙상블 머신러닝 기반 수집된 위성 강수 자료들을 관측 자료와 병합하여 보정된 준실시간 강수량 자료를 생성하고자 한다. 모형의 입력에는 시단위 3가지 준실시간 위성 강수 자료(GSMaP_NRT, IMERG_Early, PERSIANN_CCS)와 방재기상관측 (AWS)의 온도, 습도, 강수량 지점 자료를 활용하였다. 지점 강수 자료의 경우 결측치를 고려하여 475개 관측소를 선정하였으며, 공간성을 고려한 랜덤 샘플링으로 375개소(약 80%)는 훈련 자료, 나머지 100개소(약 20%)는 검증 자료로 분리하였다. 모형의 정량적 평가 지표로는 KGE, MAE, RMSE이 사용되었으며, 정성적 평가 지표로 강수 분할표에 따라 POD, SR, BS 그리고 CSI를 사용하였다. 머신러닝 모형은 개별 원시 위성 강수 자료 및 IDW 기법보다 높은 정확도로 강수량을 추정하였으며 공간적으로 안정적인 결과를 나타내었다. 다만, 최대 강수량에서는 다소 과소추정되므로 이는 강수와 관련된 입력 변수의 개수 업데이트로 해결할 수 있을 것으로 판단된다. 따라서 불확실성이 높은 개별 준실시간 위성 자료들을 관측 자료와 병합하여 보정된 최적 강수 자료를 생성하는 머신러닝 기법은 돌발성 수재해에 실시간으로 대응 가능하며 홍수 예보에 신뢰도 높은 정량적인 강수량 추정치를 제공할 수 있다.

  • PDF

The Study for Estimating Traffic Volumes on Urban Roads Using Spatial Statistic and Navigation Data (공간통계기법과 내비게이션 자료를 활용한 도시부 도로 교통량 추정연구)

  • HONG, Dahee;KIM, Jinho;JANG, Doogik;LEE, Taewoo
    • Journal of Korean Society of Transportation
    • /
    • v.35 no.3
    • /
    • pp.220-233
    • /
    • 2017
  • Traffic volumes are fundamental data widely used in various traffic analysis, such as origin-and-destination establishment, total traveled kilometer distance calculation, congestion evaluation, and so on. The low number of links collecting the traffic-volume data in a large urban highway network has weakened the quality of the analyses in practice. This study proposes a method to estimate the traffic volume data on a highway link where no collection device is available by introducing a spatial statistic technique with (1) the traffic-volume data from TOPIS, and National Transport Information Center in the Ministry of Land, Infrastructure, and (2) the navigation data from private navigation. Two different component models were prepared for the interrupted and the uninterrupted flows respectively, due to their different traffic-flow characteristics: the piecewise constant function and the regression kriging. The comparison of the traffic volumes estimated by the proposed method against the ones counted in the field showed that the level of error includes 6.26% in MAPE and 5,410 in RMSE, and thus the prediction error is 20.3% in MAPE.

Multiple Imputation Reducing Outlier Effect using Weight Adjustment Methods (가중치 보정을 이용한 다중대체법)

  • Kim, Jin-Young;Shin, Key-Il
    • The Korean Journal of Applied Statistics
    • /
    • v.26 no.4
    • /
    • pp.635-647
    • /
    • 2013
  • Imputation is a commonly used method to handle missing survey data. The performance of the imputation method is influenced by various factors, especially an outlier. The removal of the outlier in a data set is a simple and effective approach to reduce the effect of an outlier. In this paper in order to improve the precision of multiple imputation, we study a imputation method which reduces the effect of outlier using various weight adjustment methods that include the removal of an outlier method. The regression method in PROC/MI in SAS is used for multiple imputation and the obtained final adjusted weight is used as a weight variable to obtain the imputed values. Simulation studies compared the performance of various weight adjustment methods and Monthly Labor Statistic data is used for real data analysis.

Changes and Improvements of the Standardized Eddy Covariance Data Processing in KoFlux (표준화된 KoFlux 에디 공분산 자료 처리 방법의 변화와 개선)

  • Kang, Minseok;Kim, Joon;Lee, Seung-Hoon;Kim, Jongho;Chun, Jung-Hwa;Cho, Sungsik
    • Korean Journal of Agricultural and Forest Meteorology
    • /
    • v.20 no.1
    • /
    • pp.5-17
    • /
    • 2018
  • The standardized eddy covariance flux data processing in KoFlux has been updated, and its database has been amended accordingly. KoFlux data users have not been informed properly regarding these changes and the likely impacts on their analyses. In this paper, we have documented how the current structure of data processing in KoFlux has been established through the changes and improvements to ensure transparency, reliability and usability of the KoFlux database. Due to increasing diversity and complexity of flux site instrumentation and organization, we have re-implemented the previously ignored or simplified procedures in data processing (e.g., frequency response correction, stationarity test), and added new methods for $CH_4$ flux gap-filling and $CO_2$ flux correction and partitioning. To evaluate the effects of the changes, we processed the data measured at a flat and homogeneous paddy field (i.e., HPK) and a deciduous forest in complex and heterogeneous topography (i.e., GDK), and quantified the differences. Based on the results from our overall assessment, it is confirmed that (1) the frequency response correction (HPK: 11~18% of biases for annually integrated values, GDK: 6~10%) and the stationarity test (HPK: 4~19% of biases for annually integrated values, GDK: 9~23%) are important for quality control and (2) the minimization of the missing data and the choice of the appropriate driver (rather than the choice of the gap-filling method) are important to reduce the uncertainty in gap-filled fluxes. These results suggest the future directions for the data processing technology development to ensure the continuity of the long-term KoFlux database.

Development of Homogeneous Road Section Determination and Outlier Filter Algorithm (국도의 동질구간 선정과 이상치 제거 방법에 관한 연구)

  • Do, Myung-Sik;Kim, Sung-Hyun;Bae, Hyun-Sook;Kim, Jong-Sik
    • Journal of Korean Society of Transportation
    • /
    • v.22 no.7 s.78
    • /
    • pp.7-16
    • /
    • 2004
  • The homogeneous road section is defined as one consisted of similar traffic characteristics focused on demand and supply. The criteria, in the aspect of demand, are the diverging rate and the ratio of green time to cycle time at signalized intersection, and distance between the signalized intersections. The criteria, in that or supply, are the traffic patterns such as traffic volume and its speed. In this study, the effective method to generate valuable data, pointing out the problems of removal method of obscure data, is proposed using data collected from Gonjiam IC to Jangji IC on the national highway No.3. Travel times are collected with licence matching method and traffic volume and speed are collected from detectors. Futhermore, the method of selecting homogeneous road section is proposed considering demand and supply aspect simultaneously. This method using outlier filtering algorithm can be applied to generate the travel time forecasting model and to revise the obscured of missing data transmitting from detectors. The point and link data collected at the same time on the rational highway can be used as a basis predicting the travel time and revising the obscured data in the future.

Daily Runoff Simulation and Analysis Using Rainfall-Runoff Model on Nakdong River (강우-유출모형에 의한 낙동강수계 일유출모의와 분석)

  • Maeng Sung Jin;Lee Soon Hyuk;Ryoo Kyoung Sik;Song Gi Heon
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2005.05b
    • /
    • pp.619-622
    • /
    • 2005
  • 적용대상 유역은 낙동강수계로 하였으며 소유역 분할은 총 25개로 하였으며, 강우관측소의 선정과 Thiessen 계수의 산정은 최근에 한국수자원공사에서 새로 추가한 강우관측소를 위주로 대상 연도별로 달리하여 강우관측소를 선정하였다. 강우자료의 결측치는 RDS 방법을 사용하여 보완하였다. 대상연도별 소유역별로 일간 유역 평균 강우량을 산정하였다. 적용 모형의 선정은 한국수자원공사 실무부서에서의 적용사례가 빈번한 SSARR 모형을 최종적으로 선정하였다. SSARR 모형의 입력자료를 물리적 매개변수, 수문기상 매개변수 및 내부처리 매개변수로 구분하여 구축하였고 매개변수의 민감도분석과 함께 모형의 보정을 실시하였다. 민감도 분석 결과, 유역유출과 관련된 매개변수에서는 고수시와 저수시의 경우 지표수와 복류수의 분리하는 매개변수에서 민감도가 크게 나타났다. 저수시의 경우 지하수 중 회귀지하수가 차지하는 비율이 크게 나타났고, 지표수, 복류수, 지하수 및 회귀지하수의 저류시간에서 비교적 큰 민감도를 나타내었다. 1983년부터 2003년까지 21개년에 걸쳐 25개 소유역별로 일평균 자연유출량을 산정하여 이를 이용한 반순, 순, 월 및 연평균 자연유출량을 산정하였다.

  • PDF

Development of Truck Axle Load Estimation Model Using Weigh-In-Motion Data (WIM 자료를 활용한 화물차량의 축중량 추정 모형 개발에 관한 연구)

  • Oh, Ju Sam
    • KSCE Journal of Civil and Environmental Engineering Research
    • /
    • v.31 no.4D
    • /
    • pp.511-518
    • /
    • 2011
  • Truck weight data are essential for road infrastructure design, maintenance and management. WIM (Weigh-In-Motion) system provides highway planners, researchers and officials with statistical data. Recently high speed WIM data also uses to support a vehicle weight regulation and enforcement activities. This paper aims at developing axle load estimating models with high speed WIM data collected from national highway. We also suggest a method to estimate axle load using simple regression model for WIM system. The model proposed by this paper, resulted in better axle load estimation in all class of vehicle than conventional model. The developed axle load estimating model will used for on-going or re-calibration procedures to ensure an adequate level of WIM system performance. This model can also be used for missing axle load data imputation in the future.