DOI QR코드

DOI QR Code

A Study on the Compensation Methods of Object Recognition Errors for Using Intelligent Recognition Model in Sports Games

스포츠 경기에서 지능인식모델을 이용하기 위한 대상체 인식오류 보상방법에 관한 연구

  • Han, Junsu (Graduate school of Mechatronics Engineering, Korea University of Technology and Education) ;
  • Kim, Jongwon (Department of Electromechanical Convergence Engineering, Korea University of Technology and Education)
  • 한준수 (한국기술교육대학교 메카트로닉스공학과) ;
  • 김종원 (한국기술교육대학교 기전융합공학과)
  • Received : 2021.01.27
  • Accepted : 2021.05.07
  • Published : 2021.05.31

Abstract

This paper improves the possibility of recognizing fast-moving objects through the YOLO (You Only Look Once) deep learning recognition model in an application environment for object recognition in images. The purpose was to study the method of collecting semantic data through processing. In the recognition model, the moving object recognition error was identified as unrecognized because of the difference between the frame rate of the camera and the moving speed of the object and a misrecognition due to the existence of a similar object in an environment adjacent to the object. To minimize the recognition errors by compensating for errors, such as unrecognized and misrecognized objects through the proposed data collection method, and applying vision processing technology for the causes of errors that may occur in images acquired for sports (tennis games) that can represent real similar environments. The effectiveness of effective secondary data collection was improved by research on methods and processing structures. Therefore, by applying the data collection method proposed in this study, ordinary people can collect and manage data to improve their health and athletic performance in the sports and health industry through the simple shooting of a smart-phone camera.

본 논문은 인공지능 모델의 하나인 YOLO(You Only Look Once) 인식모델 기반의 이미지 내 객체인식을 위한 활용 환경에서 딥 러닝 네트워크를 통한 고속 이동 대상체 인식의 가능성 향상과 생활 속에서 쉽게 활용될 수 있도록 2차적인 정보의 가공을 통한 의미적 데이터 수집 방법을 연구하는데 그 목적이 있다. 인식모델에서 이동 대상체 인식오류는 카메라의 프레임 속도와 대상체의 이동속도 차이에서 발생하는 미인식과 대상체와 인접한 환경에서의 유사물체가 존재로 인한 오인식으로 확인되었으며 이를 보상하는 데이터 수집 방법을 제안했다. 실제 유사환경을 대표할 수 있는 스포츠(테니스 경기)를 대상으로 획득된 이미지에서 오류의 원인요소를 비전처리 기술을 적용하여 해당오류를 최소화하기 위한 방법과 처리구조를 연구하여 유효한 2차적인 데이터 수집의 효과성을 향상시켰다. 따라서 본 연구에서 제안된 데이터 수집 방법을 적용함으로써 일반인도 스마트폰 카메라의 간단한 촬영을 통해 스스로 건강 및 경기력 향상을 위한 스포츠 및 건강관련 산업에 적용될 수 있는 데이터의 수집 및 관리가 가능함을 보였다.

Keywords

References

  1. J. Redmon, S. Divvala, R. Girshick and A. Farhadi, "You Only Look Once: Unified, Real-Time Object Detection," 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, 2016, pp. 779-788. DOI: https://www.doi.org/10.1109/CVPR.2016.91
  2. S. V. Mora and W. J. Knottenbelt, "Deep Learning for Domain-Specific Action Recognition in Tennis," 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Honolulu, HI, 2017, pp. 170-178. DOI: https://www.doi.org/10.1109/CVPRW.2017.27
  3. J. Canny, "A Computational Approach to Edge Detection," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. PAMI-8, no. 6, pp. 679-698, Nov. 1986. DOI: https://www.doi.org/10.1109/TPAMI.1986.4767851
  4. OpenCV 2.4.13.7 documentation. https://docs.opencv.org/2.4/doc/tutorials/imgproc/imgtrans/hough_lines/hough_lines.html (accessed Nov. 16, 2020)
  5. Y. Huang, I. Liao, C. Chen, T. Ik and W. Peng, "TrackNet: A Deep Learning Network for Tracking High-speed and Tiny Objects in Sports Applications*," 2019 16th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), Taipei, Taiwan, 2019, pp. 1-8. DOI: https://www.doi.org/10.1109/AVSS.2019.8909871
  6. Criminisi A. (2002) Single-View Metrology: Algorithms and Applications (Invited Paper). In: Van Gool L. (eds) Pattern Recognition. DAGM 2002. Lecture Notes in Computer Science, vol 2449. Springer, Berlin, Heidelberg. DOI: https://www.doi.org/10.1007/3-540-45783-6_28
  7. OpenCV 2.4.13.7 documentation. https://docs.opencv.org/2.4/modules/calib3d/doc/camera_calibration_and_3d_reconstruction.html?highlight=findhomography#findhomography (accessed Nov. 16, 2020)