Annual Conference on Human and Language Technology (한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리))
- 2021.10a
- /
- Pages.22-27
- /
- 2021
- /
- 2005-3053(pISSN)
PrefixLM for Korean text summarization
PrefixLM에 기반한 한국어 텍스트 요약
- Lee, Kun-Hui (Jeonbuk National University) ;
- Na, Seung-Hoon (Jeonbuk National University) ;
- Lim, Joon-Ho (ETRI) ;
- Kim, Tae-Hyeong (KT) ;
- Choi, Yun-Su (KT) ;
- Chang, Du-Seong (KT)
- Published : 2021.10.14
Abstract
언어 모델은 많은 데이터와 많은 파라미터로 오래 사전학습을 수행할수록 그 성능이 높아지지만, 그 크기가 큰 만큼 거대 언어 모델은 너무 큰 크기로 인해서 실사용에 많은 하드웨어 리소스를 필요로 한다. 본 논문에서는 거대 언어 모델 중 하나인 T5의 인코더-디코더 구조 대비 절반의 크기를 가지는 PrefixLM 구조에 기반한 한국어 모델을 학습하여 자연어 처리에서 중요한 태스크 중 하나인 텍스트 생성 요약 태스크에서의 성능평가를 하여 BART, T5와 비교하여 각각 0.02, 0.0859의 성능 향상을 보였다.