DOI QR코드

DOI QR Code

A Study on Instruction Tuning for Large-scale Language Models

명령어 튜닝이 대규모 언어 모델의 문장 생성에미치는 영향력 분석

  • Yohan Na (Dept. of Computer Science, Hanyang University) ;
  • Dong-Kyu Chae (Dept. of Computer Science, Hanyang University)
  • 나요한 (한양대학교 컴퓨터소프트웨어학과) ;
  • 채동규 (한양대학교 컴퓨터소프트웨어학과)
  • Published : 2023.05.18

Abstract

최근 대규모 언어모델 (large language models) 을 활용하여 다양한 자연어처리 문제를 추가학습 없이 풀어내기 위한 zero-shot 학습에 대한 연구가 활발히 수행되고 있다. 특히 프롬프트 튜닝(prompt tuning)을 활용하여 적은 학습만으로도 효과적으로 다양한 태스크에 적응하도록 돕는 방법이 최근 대규모 언어모델의 성능을 향상시키고 있다. 본 논문은 명령어 튜닝 (instruction tuning) 이 언어모델에 끼치는 영향을 분석하였다. 명령어 튜닝된 모델이 기존 언어모델과 비교하여 변화된 문장 생성 특징, 생성된 문장의 품질 등에 대한 분석을 수행하고 결과를 제시한다.

Keywords

Acknowledgement

이 논문은 2023년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원(No.2020-0-01373, 인공지능대학원지원(한양대학교))을 받아 수행되었습니다.