Annual Conference on Human and Language Technology (한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리))
- 2021.10a
- /
- Pages.396-401
- /
- 2021
- /
- 2005-3053(pISSN)
Query Normalization Using P-tuning of Large Pre-trained Language Model
Large Pre-trained Language Model의 P-tuning을 이용한 질의 정규화
- Suh, Soo-Bin (NAVER Corporation) ;
- In, Soo-Kyo (NAVER Corporation) ;
- Park, Jin-Seong (NAVER Corporation) ;
- Nam, Kyeong-Min (NAVER Corporation) ;
- Kim, Hyeon-Wook (NAVER Corporation) ;
- Moon, Ki-Yoon (NAVER Corporation) ;
- Hwang, Won-Yo (NAVER Corporation) ;
- Kim, Kyung-Duk (NAVER Corporation) ;
- Kang, In-Ho (NAVER Corporation)
- 서수빈 (네이버) ;
- 인수교 (네이버) ;
- 박진성 (네이버) ;
- 남경민 (네이버) ;
- 김현욱 (네이버) ;
- 문기윤 (네이버) ;
- 황원요 (네이버) ;
- 김경덕 (네이버) ;
- 강인호 (네이버)
- Published : 2021.10.14
Abstract
초거대 언어모델를 활용한 퓨샷(few shot) 학습법은 여러 자연어 처리 문제에서 좋은 성능을 보였다. 하지만 데이터를 활용한 추가 학습으로 문제를 추론하는 것이 아니라, 이산적인 공간에서 퓨샷 구성을 통해 문제를 정의하는 방식은 성능 향상에 한계가 존재한다. 이를 해결하기 위해 초거대 언어모델의 모수 전체가 아닌 일부를 추가 학습하거나 다른 신경망을 덧붙여 연속적인 공간에서 추론하는 P-tuning과 같은 데이터 기반 추가 학습 방법들이 등장하였다. 본 논문에서는 문맥에 따른 질의 정규화 문제를 대화형 음성 검색 서비스에 맞게 직접 정의하였고, 초거대 언어모델을 P-tuning으로 추가 학습한 경우 퓨샷 학습법 대비 정확도가 상승함을 보였다.