과제정보
본 논문은 과학기술정보통신부 대학디지털교육역량강화 사업의 지원을 통해 수행한 ICT 멘토링 프로젝트 결과물입니다. 본 논문은 현대차 정몽구 재단 장학생으로서 지원을 받아 수행된 연구입니다.
참고문헌
- Freyer, N., Kempt, H. & Kloser, L., "Easy-read and large language models: on the ethical dimensions of LLM-based text simplification," Ethics Inf Technol, vol. 26, no. 3, pp. 50, 2024.
- 조찬우, 조찬형, 우균, "가독성 평가를 위한 한글 문장의 복잡도 측정 방법," 한국정보과학회 2018 한국컴퓨터종합학술대회, 제주, 2018, pp. 2265-2267.
- 정대영, "소설 텍스트의 문장 복잡도 연구-자동화된 프로그램을 활용하여-," 문학교육학, no. 48, pp. 263-292, 2015.
- 김미란, "대학수학능력시험 영어 독해지문의 어휘 다양성 및 가독성 분석," 외국어교육연구, vol. 36, no. 4, pp. 71-90, 2022.
- Zhang Tianyi, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, Yoav Artzi, "BERTScore: Evaluating Text Generation with BERT.," In Proceedings of the 8th International Conference on Learning Representations (ICLR), Addis Ababa, Ethiopia, 2020
- Sottana, Andrea, Bin Liang, Kai Zou, and Zheng Yuan, "Evaluation Metrics in the Era of GPT-4: Reliably Evaluating Large Language Models on Sequence to Sequence Tasks," In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing (ICLR), Singapore, 2023, pp. 8776-8788.