채팅에서 사용자의 입력을 AI로 분석하여 피드백을 제공하는 연구

A study on providing feedback by analyzing user input in chat using AI

  • 이승헌 (전남대학교 수학과) ;
  • 김도연 (전남대학교 소프트웨어공학과) ;
  • 김태윤 (전남대학교 소프트웨어공학과) ;
  • 조성호 (전남대학교 소프트웨어공학과) ;
  • 유석봉 (전남대학교 소프트웨어공학과)
  • Seungheon Lee (Dept. of Mathemetics, Cheonnam National University) ;
  • Doyeon Kim (Dept. of Software Engneering, National University) ;
  • Taeyun Kim (Dept. of Software Engneering, National University) ;
  • Seongho Joe (Dept. of Software Engneering, National University) ;
  • Seokbong Yoo (Dept. of Software Engneering, National University)
  • 발행 : 2024.10.31

초록

온라인에서의 비격식적적 소통은 다양한 언어 문제를 발생시킨다. 사용자의 언어를 분석하여 교정해주는 프로그램을 통해 언어생활의 문제를 완화할 수 있다. 이 논문에서는 트렌스포머(Transformer)를 이용한 거대 언어 모델(LLM)을 통하여 잘못된 맞춤법을 검사하는 방법을 살피고자 한다. 기존의 방법과 달리, 언어 모델의 자체적인 사고력을 바탕으로, 학습되지 않은 분야에서의 맞춤법도 보다 효과적으로 검사할 수 있다. 적절한 사전 학습 모델을 선택하고, 정교한 프롬프트를 구성함으로써 프롬프트가 있기 전 0.09에서 0.27로 약 3배 가량의 정확도 향상을 얻을 수 있다. 이러한 결과를 바탕으로 보다 신뢰성 있는 언어 사용 교정 애플리케이션을 개발 할 수 있다.

키워드

과제정보

본 연구는 과학기술정보통신부 및 정보통신기획평가원의 소프트웨어중심대학사업, 인공지능융합혁신인재양성사업, 대학ICT연구센터사업의 연구결과로 수행되었습니다. (2021-0-01409, 2023-0 256629, 2024-00437718)

참고문헌

  1. Vaswani, A. "Attention is all you need." Advances in Neural Information Processing Systems (2017).
  2. Bubeck, Sebastien, et al. "Sparks of artificial general intelligence: Early experiments withgpt-4." arXiv preprint arXiv:2303.12712 (2023). 
  3. Laria Reynolds and Kyle McDonell. 2021. Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm. In Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems (CHI EA '21). Association for Computing Machinery, New York, NY, USA, Article 314, 1-7. 
  4. https://huggingface.co/datasets/maywell/korean_textbooks 
  5. https://huggingface.co/datasets/jojo0217/korean_rlfh_dataset 
  6. Dubey, Abhimanyu, et al. "The llama 3 herdof models." arXiv preprint arXiv:2407.21783(2024). 
  7. Qwen Team "Qwen2 Technical Report " arXiv preprint arXiv:2407.10671, 2024 
  8. https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=data&dataSetSn=71560 
  9. Frantar, Elias, et al. "Gptq: Accuratepost-training quantization for generativepre-trained transformers." arXiv preprintarXiv:2210.17323 (2022).