DOI QR코드

DOI QR Code

A deep learning model based on triplet losses for a similar child drawing selection algorithm

Triplet Loss 기반 딥러닝 모델을 통한 유사 아동 그림 선별 알고리즘

  • 문지유 (한국원자력연구원 인공지능응용연구실, 이화여자대학교) ;
  • 김민종 (한국원자력연구원 인공지능응용연구실) ;
  • 이성옥 (주식회사 티엔에프에이아이) ;
  • 유용균 (한국원자력연구원 인공지능응용연구실)
  • Received : 2022.01.08
  • Accepted : 2022.02.17
  • Published : 2022.02.28

Abstract

The goal of this paper is to create a deep learning model based on triplet loss for generating similar child drawing selection algorithms. To assess the similarity of children's drawings, the distance between feature vectors belonging to the same class should be close, and the distance between feature vectors belonging to different classes should be greater. Therefore, a similar child drawing selection algorithm was developed in this study by building a deep learning model combining Triplet Loss and residual network(ResNet), which has an advantage in measuring image similarity regardless of the number of classes. Finally, using this model's similar child drawing selection algorithm, the similarity between the target child drawing and the other drawings can be measured and drawings with a high similarity can be chosen.

본 논문은 유사 아동 그림 선별 알고리즘 생성을 위한 Triplet Loss 기반 딥러닝 모델설계를 목적으로 한다. 아동 그림들 사이 유사성 측정을 위해서는 동일 클래스에 속하는 그림 간 특징 벡터의 거리는 가까워야 하고 다른 클래스 간 특징 벡터의 거리는 멀어져야 한다. 따라서, 본 연구에서는 클래스 수가 많아지는 경우에 이미지 유사성 측정에 이점을 지닌 Triplet Loss와 잔여 네트워크(ResNet)를 결합한 딥러닝 모델을 구축하여 유사 아동 그림 선별 알고리즘을 생성하였다. 결론적으로 본 모델을 활용한 유사 아동 그림 선별 알고리즘을 통해 대상 아동 그림과 다른 그림 간의 유사성을 측정하고 유사성이 높은 그림을 선별할 수 있다.

Keywords

Acknowledgement

이 논문은 연구개발특구진흥재단 기술사업화 역량강화사업(세부과제번호: 2021-DD-RD- 0472-01)과 2022년 한국원자력연구원의 주요사업 지원에 의해 연구되었음.

References

  1. A. Krizhevsky, I. Sutskever, and G. E. Hinton. (2012). Imagenet classification with deep convolutional neural networks, In Advances in neural information processing systems (pp.1097-1105)
  2. F. Schroff, D. Kalenichenko, and J. Philbin. (2015). Facenet: A unified embedding for face recognition and clustering, Proceedings of the IEEE conference on computer vision and pattern recognition,
  3. G. Koch, R. Zemel, and R. Salakhutdinov. (2015). Siamese neural networks for one-shot image recognition, ICML deep learning workshop, vol. 2
  4. Grishick, R., Donahue, J., Darrell, T., & Malik, J.(2014). Rich feature hierarchies for accurate object detection and semantic segmentation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 580-587)
  5. K. He, X. Zhang, S. Ren, and J. Sun. (2016). Deep residual learning for image recognition, In Conference on Computer Vision and Pattern Recognition (CVPR), IEEE (pp. 770-778).
  6. K. Simonyan, and A. Zisserman. (2014). Very deep convolutional networks for large-scale image recognition, arXiv preprint arXiv:1409.1556
  7. Park, J., Shin, S., Kim, J. Y., Park, K. H., Lee, S., Jeon, M., Kim, S. (2019). Preliminary Research of HTP Sentiment Analysis Automation on Children's Drawings. The HCI Society of Korea conference, 867-871
  8. Szegedy, Christian, et al. (2015). Going deeper with convolutions, Proceedings of the IEEE conference on computer vision and pattern recognition.
  9. Yim, J., Lee, S.-O., Kim, K.-P., & Yu, Y. (2021). Application of object detection algorithm for psychological analysis of children's drawing. Journal of the Korea Industrial Information Systems Research, 26(5), 1-9. https://doi.org/10.9723/JKSIIS.2021.26.5.001