DOI QR코드

DOI QR Code

Incremental Ensemble Learning for The Combination of Multiple Models of Locally Weighted Regression Using Genetic Algorithm

유전 알고리즘을 이용한 국소가중회귀의 다중모델 결합을 위한 점진적 앙상블 학습

  • 김상훈 ((재)한국화학융합시험연구원) ;
  • 정병희 (숭실대학교 산업.정보시스템공학과) ;
  • 이건호 (숭실대학교 산업.정보시스템공학과)
  • Received : 2018.01.10
  • Accepted : 2018.06.25
  • Published : 2018.09.30

Abstract

The LWR (Locally Weighted Regression) model, which is traditionally a lazy learning model, is designed to obtain the solution of the prediction according to the input variable, the query point, and it is a kind of the regression equation in the short interval obtained as a result of the learning that gives a higher weight value closer to the query point. We study on an incremental ensemble learning approach for LWR, a form of lazy learning and memory-based learning. The proposed incremental ensemble learning method of LWR is to sequentially generate and integrate LWR models over time using a genetic algorithm to obtain a solution of a specific query point. The weaknesses of existing LWR models are that multiple LWR models can be generated based on the indicator function and data sample selection, and the quality of the predictions can also vary depending on this model. However, no research has been conducted to solve the problem of selection or combination of multiple LWR models. In this study, after generating the initial LWR model according to the indicator function and the sample data set, we iterate evolution learning process to obtain the proper indicator function and assess the LWR models applied to the other sample data sets to overcome the data set bias. We adopt Eager learning method to generate and store LWR model gradually when data is generated for all sections. In order to obtain a prediction solution at a specific point in time, an LWR model is generated based on newly generated data within a predetermined interval and then combined with existing LWR models in a section using a genetic algorithm. The proposed method shows better results than the method of selecting multiple LWR models using the simple average method. The results of this study are compared with the predicted results using multiple regression analysis by applying the real data such as the amount of traffic per hour in a specific area and hourly sales of a resting place of the highway, etc.

전통적으로 나태한 학습에 해당하는 국소가중회귀(LWR: Locally Weighted Regression)모델은 입력변수인 질의지점에 따라 예측의 해를 얻기 위해 일정구간 범위내의 학습 데이터를 대상으로 질의지점의 거리에 따라 가중값을 달리 부여하여 학습 한 결과로 얻은 짧은 구간내의 회귀식이다. 본 연구는 메모리 기반학습의 형태에 해당하는 LWR을 위한 점진적 앙상블 학습과정을 제안한다. LWR를 위한 본 연구의 점진적 앙상블 학습법은 유전알고리즘을 이용하여 시간에 따라 LWR모델들을 순차적으로 생성하고 통합하는 것이다. 기존의 LWR 한계는 인디케이터 함수와 학습 데이터의 선택에 따라 다중의 LWR모델이 생성될 수 있으며 이 모델에 따라 예측 해의 질도 달라질 수 있다. 하지만 다중의 LWR 모델의 선택이나 결합의 문제 해결을 위한 연구가 수행되지 않았다. 본 연구에서는 인디케이터 함수와 학습 데이터에 따라 초기 LWR 모델을 생성한 후 진화 학습 과정을 반복하여 적절한 인디케이터 함수를 선택하며 또한 다른 학습 데이터에 적용한 LWR 모델의 평가와 개선을 통하여 학습 데이터로 인한 편향을 극복하고자 한다. 모든 구간에 대해 데이터가 발생 되면 점진적으로 LWR모델을 생성하여 보관하는 열심학습(Eager learning)방식을 취하고 있다. 특정 시점에 예측의 해를 얻기 위해 일정구간 내에 신규로 발생된 데이터들을 기반으로 LWR모델을 생성한 후 유전자 알고리즘을 이용하여 구간 내의 기존 LWR모델들과 결합하는 방식이다. 제안하는 학습방법은 기존 단순평균법을 이용한 다중 LWR모델들의 선택방법 보다 적합도 평가에서 우수한 결과를 보여주고 있다. 특정지역의 시간 별 교통량, 고속도로 휴게소의 시간별 매출액 등의 실제 데이터를 적용하여 본 연구의 LWR에 의한 결과들의 연결된 패턴과 다중회귀분석을 이용한 예측결과를 비교하고 있다.

Keywords

References

  1. V. Vapnik and L. Bottou, "All: local algorithms for pattern recognition and dependencies estimation," Neural Computation, Vol.5, No.6, pp.893-909, 1993. https://doi.org/10.1162/neco.1993.5.6.893
  2. C. Atkeson, A, Moore, and S. Schaal, "Locally weighted learning. Artificial Intelligence Review," Vol.11, No.1-5, pp.11-73, 1997. https://doi.org/10.1023/A:1006559212014
  3. H. Park, "A Study on the Construction of the Transaction- Based Real Estate Price Index Using Locally Weighted Regression(LWR) Model," Journal of the Korea Real Estate Analysis Association, Vol.17, No.1, pp.55-66, 2011.
  4. M.-J. Jun, "Identification of Seoul's Employment Centers by Using Nonparametric Methods," Journal of Korea Planning Association, Vol.39, No.3, pp.69-83, 2003.
  5. H. S. Lim, C. Oh, J. H. Park, and G. Q. Lee, "Study on Individual Vehicle Traveling Speed Filtering Method Using Locally Weighted Regression (LWR)," Journal of Korean Society of Transportation, Vol.59, pp.1094-1102, 2008.
  6. J. K. Cho, D. E. Lee, S. O. Song, and E. S. Yoon, "Quality estimation Using Support Vector Machine based on locally weighted regression," Journal of the Korean Institute of Gas, Vol.10, pp.126-130, 2003.
  7. J. Kim, J. Lee, S. Y. Kim, and B. H. Lee, "The Effects of Point Accumulation Effort Level on Redemption Behavior in Loyalty Program," Journal of Korean Marketing Association, Vol.27, pp.85-106 2012.
  8. W. S. Cleveland, "Robust Locally Weighted Regression and Smoothing Scatterplots," Journal of the American Statistical Association, Vol.74 No.368 pp.829-836, 1979. https://doi.org/10.1080/01621459.1979.10481038
  9. T. Toledo, H. Koutsopoulos, and K. Ahmed, "Estimation of vehicle trajectories with locally weighted regression," Journal of Transportation Research Board, Vol.1999, pp.161-169, 2007. https://doi.org/10.3141/1999-17
  10. H. Sun, H. Liu, H. xiao, R. He, and B. Ran, "Use of Local Linear Regression Model for Short-Term Traffic Forecasting," Journal of Transportation Research Board, Vol.1836, pp.143-150, 2003. https://doi.org/10.3141/1836-18
  11. F. Meier, P. Hennig, and S. Schaal, "Incremental local Gaussian regression," in Proceedings of Advances in Neural Information Processing Systems, Montreal, Vol.27, 2014.
  12. B. Talgorn, C. Audet, M. Kokkolaras, and S. Le Digabel, "Locally weighted regression models for surrogate-assisted design optimization," Optimization and Engineering, Vol.19, Issue 1, pp.213-238, 2018. https://doi.org/10.1007/s11081-017-9370-5
  13. S. Lee, "A Study on the Locally Weighted Regression," Journal of Applied Science, Vol.7, No.1, pp.121-129, 1998. https://doi.org/10.3923/jas.2007.121.126
  14. R. Polikar, S. Krause, and L. Burd, "Ensemble of Classifiers Based Incremental Learning with Dynamic Voting Weight Update," IEEE Xplore, Vol.4, pp.2770-2775, 2003.
  15. Z. Erdem, R. Polikar, F. Gurgen, and N. Yumusak, "Ensemble of SVMs for Incremental Learning," In: Oza N.C., Polikar R., Kittler J., Roli F. (eds) Multiple Classifier Systems. MCS 2005. Lecture Notes in Computer Science, Vol.3541, pp.246- 256, 2005.
  16. T. G. Dietterich, "Ensemble Methods in Machine Learning," in Multiple Classifier Systems, Lecture Notes in Computer Science, Vol.1857, pp.1-15, 2000.
  17. Bagging, boosting and stacking in machine learning [Internet], https://stats.stackexchange.com/questions/18891/bagging-boosting-and-stacking-in-machine-learning