DOI QR코드

DOI QR Code

질의응답 시스템에서 처음 보는 단어의 역문헌빈도 기반 단어 임베딩 기법

Inverse Document Frequency-Based Word Embedding of Unseen Words for Question Answering Systems

  • 이우인 (서울대학교 전기정보공학부) ;
  • 송광호 (서울대학교 전기정보공학부) ;
  • 심규석 (서울대학교 전기정보공학부)
  • 투고 : 2016.02.15
  • 심사 : 2016.05.29
  • 발행 : 2016.08.15

초록

질의응답 시스템은 사용자의 질문에 대한 답을 찾아주는 시스템으로, 기존의 검색엔진이 사용자의 질의에 대해 관련된 문서의 링크만을 찾아주는 반면 질문에 대한 최종적인 답을 찾아준다는 차이점이 있다. 특정 분야에 국한되지 않고 다양한 질문을 처리해주는 오픈 도메인 질의응답 시스템에 필요한 연구들이 최근 자연어 처리, 인공지능, 데이터 마이닝 등 학계의 다양한 분야들에서 뜨거운 관심을 받고 있다. 하지만 관련 연구에서는 학습 데이터에는 없었던 단어들이 질문에 대한 정확한 답과 유사한 오답을 구별해내는데 결정적인 역할을 할 수 있음에도, 이러한 처음 보는 단어들을 모두 단일 토큰으로 치환해버리는 문제가 있다. 본 논문에서는 문맥 정보를 통해 이러한 모르는 단어에 대한 벡터를 계산하는 방법을 제안한다. 그리고 역문헌빈도 가중치를 활용하여 문맥정보를 더 효율적으로 처리하는 모델을 제안한다. 또한 풍부한 실험을 통해 질의응답 시스템의 모델 학습 속도 및 정확성이 기존 연구에 비해 향상됨을 확인하였다.

Question answering system (QA system) is a system that finds an actual answer to the question posed by a user, whereas a typical search engine would only find the links to the relevant documents. Recent works related to the open domain QA systems are receiving much attention in the fields of natural language processing, artificial intelligence, and data mining. However, the prior works on QA systems simply replace all words that are not in the training data with a single token, even though such unseen words are likely to play crucial roles in differentiating the candidate answers from the actual answers. In this paper, we propose a method to compute vectors of such unseen words by taking into account the context in which the words have occurred. Next, we also propose a model which utilizes inverse document frequencies (IDF) to efficiently process unseen words by expanding the system's vocabulary. Finally, we validate that the proposed method and model improve the performance of a QA system through experiments.

키워드

과제정보

연구 과제 주관 기관 : 한국연구재단

참고문헌

  1. A. Bordes, J. Weston, and N. Usunier. Open question answering with weakly supervised embedding models. Proc. of ECML, 2014.
  2. A. Bordes, S. Chopra, J. Weston. Question answering with subgraph embeddings. arXiv preprint arXiv:1406.3676, 2014.
  3. L. Yu, K. M. Hermann, P. Blunsom, S. Pulman. Deep Learning for Answer Sentence Selection. arXiv preprint arXiv:1412.1632 [cs.CL], 2014.
  4. M. Iyyer, J. Boyd-Graber, L. Claudino, R. Socher, H. Daume III. A neural network for factoid question answering over paragraphs. Proc. of EMNLP, pp. 633-644, 2014.
  5. T. Mikolov, K. Chen, G. Corrado, and J. Dean. Efficient Estimation of Word Representations in Vector Space. Proc. of Workshop at ICLR, 2013.
  6. T. Mikolov, Q. V. Le, I. Sutskever. Exploiting similarities among languages for machine translation. arXiv preprint arXiv:1309.4168, 2013.
  7. W. Yih, X. He, and C. Meek. Semantic parsing for single-relation question answering. Proc. of ACL, 2014.
  8. R. Kiros, Y. Zhu, R. Salakhutdinov, R. S. Zemel, A. Torralba, R. Urtasun, S. Fidler. Skip-Thought Vectors. arXiv preprint arXiv:1506.06726[cs.CL], 2015.
  9. J. C. Duchi, E. Hazan, and Y. Singer. Adaptive subgradient methods for online learning and stochastic optimization. Journal of Machine Learning Research, 12, pp. 2121-2159, Jul. 2011.
  10. R. Pascanu, T. Mikolov, Y. Bengio. Understanding the exploding gradient problem. arXiv preprint arXiv:1211.5063 [cs.LG], 2012.
  11. M. Wang, N. A. Smith, and T. Mitamura. What is the jeopardy model? a quasi-synchronous grammar for qa. EMNLP-CoNLL, 2007.
  12. Y. Yang, W. Yih, C. Meek. WikiQA: A Challenge Dataset for Open-Domain Question Answering. Proc. of EMNLP, Sept. 2015.
  13. D. Chen and C. D. Manning. A Fast and Accurate Dependency Parser using Neural Networks. Proc. of EMNLP 2014