DOI QR코드

DOI QR Code

국내 드라마 시청률 예측 및 영향요인 분석

A Study on Domestic Drama Rating Prediction

  • 강수연 (이화여자대학교 통계학과) ;
  • 전희정 (이화여자대학교 통계학과) ;
  • 김지혜 (이화여자대학교 통계학과) ;
  • 송종우 (이화여자대학교 통계학과)
  • Kang, Suyeon (Department of Statistics, Ewha Womans University) ;
  • Jeon, Heejeong (Department of Statistics, Ewha Womans University) ;
  • Kim, Jihye (Department of Statistics, Ewha Womans University) ;
  • Song, Jongwoo (Department of Statistics, Ewha Womans University)
  • 투고 : 2015.07.10
  • 심사 : 2015.07.26
  • 발행 : 2015.10.31

초록

최근 상업방송의 도입과 채널의 다양화로 국내 드라마 시장의 시청률 경쟁이 심화되었다. 이에 시청률에 대한 실증적인 연구의 필요성이 대두되고 있다. 본 연구의 목적은 다양한 데이터마이닝 기법을 이용하여 최근 방송시장의 변화를 고려한 국내 드라마 시청률 예측 모형을 제시하고 시청률에 유의한 영향을 미치는 변수들을 도출하는 데 있다. 모형 적합 시 선형회귀모형, LASSO 회귀모형, 랜덤 포레스트, 그래디언트 부스팅 등과 같은 다양한 분석 방법을 고려하였다. 이 때 드라마 방영 전 알 수 있는 기본 정보들만을 고려하여 드라마의 초반 시청률을 예측하는 모형을 적합한 후 방영 초기의 여론을 고려한 평균 시청률 예측 모형을 적합하였다. 그 결과 드라마 초반 시청률은 방송사, 방송시간, 드라마 방영 이전 드라마 관련 검색량 등 드라마의 구조적 요인과 임소문 효과의 영향을 크게 받으며, 평균 시청률은 드라마 초반 시청률과 드라마 방영 이후 드라마 관련 검색량 등 방영 초기의 여론에 큰 영향을 받는 것으로 나타났다.

Audience rating competition in the domestic drama market has increased recently due to the introduction of commercial broadcasting and diversification of channels. There is now a need for thorough studies and analysis on audience rating. Especially, a drama rating is an important measure to estimate advertisement costs for producers and advertisers. In this paper, we study the drama rating prediction models using various data mining techniques such as linear regression, LASSO regression, random forest, and gradient boosting. The analysis results show that initial drama ratings are affected by structural elements such as broadcasting station and broadcasting time. Average drama ratings are also influenced by earlier public opinion such as the number of internet searches about the drama.

키워드

참고문헌

  1. Bae, J. (2005). An analysis on the factors in drama ratings - focusing on the drama attributes and audience factors, Korean Journal of Broadcasting and Telecommunication Studies, 19, 270-309.
  2. Breiman, L. (1996). Bagging predictors, Machine Learning, 24, 123-140.
  3. Breiman, L. (2001). Random forests, Machine Learning, 45, 5-32. https://doi.org/10.1023/A:1010933404324
  4. Breiman, L., Friedman, J., Olshen, R. and Stone, C. (1984). Classification and Regression Trees, Chapman and Hall, New York.
  5. Cohen, J. (2002). Television viewing preferences: Programs, schedules, and the structure of viewing choices made by Israeli adults, Journal of Broadcasting & Electronic Media, 46, 204-221. https://doi.org/10.1207/s15506878jobem4602_3
  6. Cortes, C. and Vapnik, V. (1995). Support-vector networks, Machine Learning, 20, 273-297.
  7. Friedman, J. (2002). Stochastic gradient boosting, Computational Statistics & Data Analysis, 38, 367-378. https://doi.org/10.1016/S0167-9473(01)00065-2
  8. Hastie, T., Tibshirani, R. and Friedman, J. (2009). The Elements of Statistical Learning, Springer, New York. USA.
  9. Park, C., Kim, Y., Kim, J., Song, J. and Choi, H. (2011). Datamining using R, Kyowoo, Seoul.
  10. R Development Core Team (2010). R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria, ISBN 3-900051-07-0. http://www.R-project.org.
  11. Ridgeway, G. (2012). Generalized Boosted Models: A guide to the gbm package.
  12. Tibshirani, R. (1996). Regression shrinkage and selection via the lasso, Journal of the Royal Statistical Society B, 58, 267-288.
  13. Venables, W. N. and Ripley, B. D. (2003). Modern Applied Statistics with S, Springer, New York.