Annual Conference on Human and Language Technology (한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리))
- 2021.10a
- /
- Pages.602-604
- /
- 2021
- /
- 2005-3053(pISSN)
HeavyRoBERTa: Pretrained Language Model for Heavy Industry
HeavyRoBERTa: 중공업 특화 사전 학습 언어 모델
- Lee, Jeong-Doo (Jeonbuk National University, Cognitive Computing Lab) ;
- Na, Seung-Hoon (Jeonbuk National University, Cognitive Computing Lab)
- Published : 2021.10.14
Abstract
최근 자연어 처리 분야에서 사전 학습된 언어 모델은 다양한 응용 태스크에 적용되어 성능을 향상시켰다. 하지만 일반적인 말뭉치로 사전 학습된 언어 모델의 경우 중공업 분야처럼 전문적인 분야의 응용 태스크에서 좋은 성능을 나타내지 못한다. 때문에 본 논문에서는 이러한 문제점을 해결하기 위해 중공업 말뭉치를 이용한 RoBERTa 기반의 중공업 분야에 특화된 언어 모델 HeavyRoBERTa를 제안하고 이를 통해 중공업 말뭉치 상에서 Perplexity와 zero-shot 유의어 추출 태스크에서 성능을 개선시켰다.