SOV 언어와 교차 언어 모델 사전 학습을 활용한 한국어-제주어 기계 번역 개선

Improving Korean-Jeju Machine Translation Using SOV Languages and Cross-Lingual Model Pretraining

  • 김정우 (전남대학교 에너지자원공학과) ;
  • 배채묵 (전남대학교 인공지능학부) ;
  • 김미수 (전남대학교 인공지능융합학과)
  • Jeong-Wu Kim (Dept. of Energy and Resources Engineering, Chonnam University) ;
  • Chea-Muk Bae (Dept. of Artificial Intelligence, Chonnam University) ;
  • Misoo-Soo Kim (Dept. of Artificial Intelligence Convergence, Chonnam University)
  • 발행 : 2024.10.31

초록

제주어 보존과 활성화를 위해, 본 연구에서는 교차 언어 언어 모델을 활용하여 저자원 언어인 제주어의 기계 번역 성능을 개선하고자 한다. 특히, SOV 구조를 가진 언어를 사전 학습에 사용하여 구조적으로 유사한 언어를 통해 한국어→제주어 번역의 성능을 평가했다.

키워드

과제정보

본 연구는 과학기술정보통신부 및 정보통신기획평가원의 소프트웨어중심대학사업(2021-0-01409)과 과학기술정보통신부 및 정보통신기획평가원의 인공지능융합혁신인재양성사업(IITP-2023-RS-2023-00256629), 대학ICT연구센터사업(IITP-2024-RS-2024-00437718)의 연구 결과로 수행되었음

참고문헌

  1. Park, K., Choe, Y. J., and Ham, J. "Jejueo datasets for machine translation and speech synthesis." arXiv preprint arXiv:1911.12071 (2019).
  2. Conneau, Alexis, and Guillaume Lample. "Cross-lingual language model pretraining." Advances in Neural Information Processing Systems, vol. 32, 2019.
  3. Khanittanan, Wilaiwan (aka Kanittanan). South Asian Languages: Structure, Convergence and Diglossia, New Delhi, Motilal Banarsidass, 1986, pp. 174-178.
  4. Zheng, F., Marrese-Taylor, E., and Matsuo, Y. "Improving Jejueo-Korean Translation With Cross-Lingual Pretraining Using Japanese and Korean." Proceedings of the 9th Workshop on Asian Translation, International Conference on Computational Linguistics, Gyeongju, Republic ofKorea, 2022, pp. 44-50.