A Survey on Retrieval-Augmented Generation

검색 증강 생성(RAG) 기술에 대한 최신 연구 동향

  • Eun-Bin Lee (Dept. of Artificial Intelligence Convergence, Ewha Womans University) ;
  • Ho Bae (Dept. of Cyber Security, Ewha Womans University)
  • 이은빈 (이화여자대학교 인공지능융합전공) ;
  • 배호 (이화여자대학교 사이버보안학과)
  • Published : 2024.05.23

Abstract

글로벌 시장에서 Large Language Model(LLM)의 발전이 급속하게 이루어지며 활용도가 높아지고 있지만 특정 유형이나 전문적 지식이 부족할 수 있어 일반화하기 어려우며, 새로운 데이터로 업데이트하기 어렵다는 한계점이 있다. 이를 극복하기 위해 지속적으로 업데이트되는 최신 정보를 포함한 외부 데이터베이스에서 정보를 검색해 응답을 생성하는 Retrieval- Augmented Generation(RAG, 검색 증강 생성) 모델을 도입하여 LLM의 환각 현상을 최소화하고 효율성과 정확성을 향상시키려는 연구가 활발히 이루어지고 있다. 본 논문에서는 LLM의 검색 기능을 강화하기 위한 RAG의 연구 및 평가기법에 대한 최신 연구 동향을 소개하고 실제 산업에서 활용하기 위한 최적화 및 응용 사례를 소개하며 이를 바탕으로 향후 연구 방향성을 제시하고자 한다.

Keywords

Acknowledgement

이 논문은 2024년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (No.RS-2022-00155966, 인공지능융합혁신인재양성(이화여자대학교))

References

  1. MALLEN, Alex, et al. When not to trust language models: Investigating effectiveness of parametric and non-parametric memories. arXiv preprint arXiv:2212.10511, 2022.
  2. LEWIS, Patrick, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in Neural Information Processing Systems, 2020, 33: 9459-9474.
  3. XU, Peng, et al. Retrieval meets long context large language models. arXiv preprintarXiv:2310.03025, 2023.
  4. GUU, Kelvin, et al. Retrieval augmented language model pre-training. In: International conference on machine learning. PMLR, 2020. p. 3929-3938.
  5. YU, Wenhao, et al. Chain-of-note: Enhancing robustness in retrieval-augmented language models. arXiv preprint arXiv:2311.09210, 2023.
  6. HE, Zhenyu, et al. Rest: Retrieval-based speculative decoding. arXiv preprintarXiv:2311.08252, 2023.
  7. WANG, Yile, et al. Self-knowledge guided retrieval augmentation for large language models. arXiv preprint arXiv:2310.05002, 2023.
  8. ASAI, Akari, et al. Self-rag: Learning to retrieve, generate, and critique through self-reflection. arXiv preprint arXiv:2310.11511, 2023.
  9. ASAI, Akari; GARDNER, Matt; HAJISHIRZI, Hannaneh. Evidentiality-guided generation for knowledge-intensive NLP tasks. arXiv preprintarXiv:2112.08688, 2021.
  10. WANG, Zhiruo, et al. Learning to filter context for retrieval-augmented generation. arXiv preprint arXiv:2311.08377, 2023.
  11. SHI, Freda, et al. Large language models can be easily distracted by irrelevant context. In: International Conference on Machine Learning. PMLR, 2023. p. 31210-31227.
  12. JIANG, Zhengbao, et al. Active retrieval augmented generation. arXiv preprint arXiv:2305.06983, 2023.
  13. SAAD-FALCON, Jon, et al. Ares: An automated evaluation framework for retrieval-augmented generation systems. arXiv preprint arXiv:2311.09476, 2023.
  14. ES, Shahul, et al. Ragas: Automated evaluation of retrieval augmented generation. arXiv preprint arXiv:2309.15217, 2023.
  15. LOZANO, Alejandro, et al. Clinfo. ai: An open-source retrieval-augmented large language model system for answering medical questions using scientific literature. In: PACIFIC SYMPOSIUM ON BIOCOMPUTING 2024. 2023. p. 8-23.
  16. KANG, Haoqiang; LIU, Xiao-Yang. Deficiency of Large Language Models in Finance: An Empirical Examination of Hallucination. arXiv preprint arXiv:2311.15548, 2023.
  17. CHEN, Wenhu, et al. Murag: Multimodal retrieval-augmented generator for open question answering over images and text. arXiv preprint arXiv:2210.02928, 2022.