과제정보
이 논문은 광주정보문화산업진흥원의 재원으로 아시아 문화기술 실증센터 운영기관구축사업 내의 2023 실감 콘텐츠 데이터응용 서비스개발 지원사업의 지원을 받아 수행된 연구임. 본 연구는 과학기술정보통신부 및 정보통신기획평가원의 인공지능융합혁신인재양성사업 연구 결과로 수행되었음(IITP-2023-RS-2023-00256629).
참고문헌
- Jacob Devlin, Wing-Wei Chang, Kenton Lee, Kristina Toutanova "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" Proceedings of the 2019Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Minneapolis, Minnesota, 2019, p.2.
- Alect Radford, Jong Wook Kim, Chris Hallacy et al. "Learning Transferable Visual Models From Natural Language Supervision" Proceedings of the 38th International Conference on Machine Learning, Virtual, 2021, pp. 8748-8763.
- Beichen Zhang, Pan Zhang, Xiaoyi Dong et al. "Long-CLIP:Unlocking the Long-Text Capability of CLIP" arXiv preprint, 2024, arXiv:2403.15378.