Annual Conference on Human and Language Technology (한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리))
- 2021.10a
- /
- Pages.473-475
- /
- 2021
- /
- 2005-3053(pISSN)
Zero-shot Lexical Semantics based on Perplexity of Pretrained Language Models
사전학습 언어모델의 Perplexity에 기반한 Zero-shot 어휘 의미 모델
- Choi, Heyong-Jun (JBNU) ;
- Na, Seung-Hoon (JBNU)
- Published : 2021.10.14
Abstract
유의어 추천을 구현하기 위해서는 각 단어 사이의 유사도를 계산하는 것이 필수적이다. 하지만, 기존의 단어간 유사도를 계산하는 여러 방법들은 데이터셋에 등장하지 않은 단어에 대해 유사도를 계산 할 수 없다. 이 논문에서는 이를 해결하기 위해 언어모델의 PPL을 활용하여 단어간 유사도를 계산하였고, 이를 통해 유의어를 추천했을 때 MRR 41.31%의 성능을 확인했다.