Acknowledgement
이 논문은 2024 년도 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(RS-2023-00277326). 이 논문은 2024 년도 BK21 FOUR 정보기술 미래인재 교육연구단에 의하여 지원되었음. 이 논문은 2020 년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (No.2020-0-01840,스마트폰의 내부데이터 접근 및 보호 기술 분석). 이 논문은 2023 년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (IITP-2023-RS-2023-00256081) 본 연구는 반도체 공동연구소 지원의 결과물임을 밝힙니다.
References
- Thomas Dohmke. 2023. GitHub Copilot X: the AI-powered Developer Experience. https://github.blog/2023-03-22-github-copilot-x-the-ai-powered-developer-experience/.
- Hammond Pearce, et al. Asleep at the Keyboard? Assessing the Security of GitHub Copilot's Code Contributions. IEEE S&P. 2022.
- Jingxuan He, et al. Instruction Tuning for Secure Code Generation. arXiv. 2024.
- Jingxuan He, et al. Large language models for code: security hardening and adversarial testing. CCS. 2023.
- Brian Lester, et al. The Power of Scale for Parameter-Efficient Prompt Tuning. EMNLP. 2021
- Hanqing Zhang, et al. A Survey of Controllable Text Generation Using Transformer-based Pre-trained Language Models. ACM Comput. Surv. 56, 3, Article 64, 37 pages. 2024.
- Erik Nijkamp, et al. CodeGen: An Open Large Language Model for Code with Multi-Turn Program Synthesis. ICLR. 2023.
- 2023. CodeQL-GitHub. https://codeql.github.com.
- Mark Chen, et al. 2021. Evaluating Large Language Models Trained on Code. arXiv. 2021.