References
- Xu et al., "Domain-Adaptive Pretraining Methods for Dialogue Understanding," arXiv, 2021.
- Qiu et al., "Recent Advances in Natural Language Processing via Large Pre-Trained Language Models: A Survey," arXiv, 2021.
- 구름(KULLM): 한국어 지시어에 특화된 거대 언어 모델, 제35회 한글 및 한국어 정보처리 학술대회 논문집 2023.
- Gururangan et al., "Don't Stop Pretraining: Adapt Language Models to Domains and Tasks," arXiv, 2020.
- KF-DeBERTa: 금융 도메인 특화 사전학습 언어모델, 제35회 한글 및 한국어 정보처리 학술대회 논문집, 2023
- Encoder-Decoder 및 LLM을 활용한 2단계 한국어 문서 요약, 한국정보학회 인공지능 학술대회 논문집, 2023