Safety of Large Language Model-Tool Integration

거대 언어 모델 (Large Language Model, LLM)과 도구 결합의 보안성 연구

  • Juhee Kim (Dept. of Electrical and Computer Engineering, Seoul National University) ;
  • Byoungyoung Lee (Dept. of Electrical and Computer Engineering, Seoul National University)
  • 김주희 (서울대학교 전기정보공학부) ;
  • 이병영 (서울대학교 전기정보공학부)
  • Published : 2024.05.23

Abstract

이 연구는 거대한 언어 모델 (Large Language Model, LLM)과 도구를 결합한 시스템의 보안 문제를 다룬다. 프롬프트 주입과 같은 보안 취약점을 분석하고 이를 극복하기 위한 프롬프트 권한 분리 기법을 제안한다. 이를 통해 LLM-도구 결합 시스템에서의 사용자 데이터의 기밀성과 무결성을 보장한다.

Keywords

Acknowledgement

이 논문은 2024 년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (No.2020-0-01840,스마트폰의 내부데이터 접근 및 보호 기술 분석)

References

  1. Achiam, Josh, et al. "Gpt-4 technical report." arXiv preprint arXiv:2303.08774 (2023).
  2. Touvron, Hugo, et al. "Llama: Open and efficient foundation language models." arXiv preprint arXiv:2302.13971 (2023).
  3. Gemini, https://gemini.google.com/?hl=ko
  4. ChatGPT, https://chat.openai.com
  5. Bing Chat, https://www.microsoft.com/en-us/edge/features/bing-chat?form=MA13FJ
  6. Schick, Timo, et al. "Toolformer: Language models can teach themselves to use tools." Advances in Neural Information Processing Systems 36 (2024).
  7. Liang, Yaobo, et al. "Taskmatrix. ai: Completing tasks by connecting foundation models with millions of apis." arXiv preprint arXiv:2303.16434 (2023).
  8. Lu, Pan, et al. "Chameleon: Plug-and-play compositional reasoning with large language models." Advances in Neural Information Processing Systems 36 (2024).
  9. Greshake, Kai, et al. "Not what you've signed up for: Compromising real-world llm-integrated applications with indirect prompt injection." Proceedings of the 16th ACM Workshop on Artificial Intelligence and Security. 2023.