• 제목/요약/키워드: Yolo-Cnn

검색결과 72건 처리시간 0.033초

딥러닝기법을 이용한 주차면 영상 인식 시스템 개발 (Development of parking lot recognition system using deep learning technology)

  • 윤태진;김현승;정용주;이영훈
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.301-302
    • /
    • 2019
  • 본 연구에서는 주차장의 CCTV와 사용자의 스마트폰을 연동하여서 주차장의 전체적인 화면을 사용자의 스마트폰의 화면에 보여주며, YOLO 딥러닝 기법을 이용하여 주차된 차량 수를 산출하여서 전체적인 차량 댓수와 주차장소의 복잡도를 계산하여 사용자에게 제공하고자 한다. YOLO 딥러닝 기법은 CNN 기반으로 정확도 높은 객체 추출이 가능하고, 영역을 고려한 R-CNN 알고리즘을 사용하여 객체 분류에 필요한 경계 상자의 수를 줄일 수 있다. 한편, YOLO 딥러닝 기법을 이용하여 주차된 자동차를 인식하고, 주차면에 대한 영역에 대한 학습을 수행하여 주차된 자동차와 빈 주차면을 계산하여 제공한다. 주차장에 설치된 기존의 CCTV를 이용하여 저렴한 비용으로 딥러닝 기법을 CCTV 영상에 적용하여 주차장과 주차면 상황을 고객에게 실시간으로 알려주는 앱을 개발하였다.

  • PDF

증강현실을 위한 객체인식 기술 성능 비교 (Object Recognition Technology Performance Comparison for Augmented Reality)

  • 신은지;신광성
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.348-350
    • /
    • 2021
  • 증강현실의 핵심기술은 객체인식기술이다. 최근 CNN등 댜양한 인공지능 알고리즘의 개발로 인하여 영상s에서 특정 객체를 효과적으로 구분하는 것이 가능해졌다. 객체를 빠르고 정확하게 인식하는 기술이 확보되어야 더욱 현실감있고 몰입감있는 증강현실 콘텐츠의 구현이 가능해진다. 본 연구에서는 SSD(single shot multibox detector)를 이용한 객체인식 모델과 YOLO를 이용한 객체 인식 모델의 비교평가를 수행하였다.

  • PDF

A Method of License Plate Location and Character Recognition based on CNN

  • Fang, Wei;Yi, Weinan;Pang, Lin;Hou, Shuonan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3488-3500
    • /
    • 2020
  • At the present time, the economy continues to flourish, and private cars have become the means of choice for most people. Therefore, the license plate recognition technology has become an indispensable part of intelligent transportation, with research and application value. In recent years, the convolution neural network for image classification is an application of deep learning on image processing. This paper proposes a strategy to improve the YOLO model by studying the deep learning convolutional neural network (CNN) and related target detection methods, and combines the OpenCV and TensorFlow frameworks to achieve efficient recognition of license plate characters. The experimental results show that target detection method based on YOLO is beneficial to shorten the training process and achieve a good level of accuracy.

BIM 모델 활용을 위한 360° 카메라 이미지의 객체 탐지 알고리즘 정확성 비교 연구 (A Study on the Accuracy Comparison of Object Detection Algorithms for 360° Camera Images for BIM Model Utilization)

  • 주현철;이주형;임종원;이재희;강인석
    • 토지주택연구
    • /
    • 제14권3호
    • /
    • pp.145-155
    • /
    • 2023
  • 최근 건설산업 분야에 BIM 기술의 활용이 보편화되면서 3D 모델과 실제 시공 부위의 오류 확인 등을 위해 다양한 객체 탐지 알고리즘들이 활용되고 있다. 객체 탐지 기술은 건축물, 교량, 터널 등 건설시설물의 종류에 따라 객체 특성이 상이하므로 객체 탐지 기술도 적절한 방법을 사용할 필요가 있다. 또한 객체 탐지를 위해서는 초기 객체 이미지가 있어야 하며 이를 위해서도 드론, 스마트폰 등 다양한 방법으로 이미지 취득이 가능하다. 본 연구에서는 철도와 도로 시설의 터널 부위에 대하여 초기 이미지 구축을 위해 터널 내부 촬영에 최적화된 360° 카메라를 이용하여 이미지를 촬영하고, 촬영된 이미지로부터 실제 객체를 탐지하기 위한 객체 탐지 방법론으로 YOLO 알고리즘, SSD 알고리즘 및 R-CNN 알고리즘을 적용하여 방법론별 객체 탐지의 정확도를 비교 분석한다. 분석 결과 Faster R-CNN 알고리즘이 SSD, YOLO v5 알고리즘에 비해 높은 인식률 및 mAP 값을 가졌으며 인식률들의 최소·최대 값의 차이가 작아 균등한 검측 능력을 나타냈다. 이러한 연구는 철도와 도로 시설공사에 BIM 적용이 확산되고 있는 점을 고려하면 360° 카메라의 활용 방법 확대와 유지보수를 위한 터널 시설 부위의 객체 탐지 방법론 적용에 활용될 수 있다.

Design and Implementation of Fire Detection System Using New Model Mixing

  • Gao, Gao;Lee, SangHyun
    • International Journal of Advanced Culture Technology
    • /
    • 제9권4호
    • /
    • pp.260-267
    • /
    • 2021
  • In this paper, we intend to use a new mixed model of YoloV5 and DeepSort. For fire detection, we want to increase the accuracy by automatically extracting the characteristics of the flame in the image from the training data and using it. In addition, the high false alarm rate, which is a problem of fire detection, is to be solved by using this new mixed model. To confirm the results of this paper, we tested indoors and outdoors, respectively. Looking at the indoor test results, the accuracy of YoloV5 was 75% at 253Frame and 77% at 527Frame, and the YoloV5+DeepSort model showed the same accuracy at 75% at 253 frames and 77% at 527 frames. However, it was confirmed that the smoke and fire detection errors that appeared in YoloV5 disappeared. In addition, as a result of outdoor testing, the YoloV5 model had an accuracy of 75% in detecting fire, but an error in detecting a human face as smoke appeared. However, as a result of applying the YoloV5+DeepSort model, it appeared the same as YoloV5 with an accuracy of 75%, but it was confirmed that the false positive phenomenon disappeared.

딥러닝 기반의 객체 검출을 이용한 상대적 거리 예측 및 접촉 감지 (Contact Detection based on Relative Distance Prediction using Deep Learning-based Object Detection)

  • 홍석미;선경희;유현
    • 융합정보논문지
    • /
    • 제12권1호
    • /
    • pp.39-44
    • /
    • 2022
  • 본 연구의 목적은 딥러닝 알고리즘을 이용하여 영상 내 객체의 종류, 위치, 절대 크기를 추출하고, 객체간 상대적 거리를 예측하며, 이를 이용하여 객체 간의 접촉을 감지하기 위한 내용이다. 객체의 크기 비율을 분석하기 위하여, CNN 기반의 Object Detection 알고리즘인 YOLO를 이용한다. YOLO 알고리즘을 통하여 2D 형태의 이미지에서 각 개체의 절대적인 크기와 위치를 좌표의 형태로 추출한다. 추출 결과는 사전에 저장된 동일한 객체의 명칭과 크기를 가지는 표준 객체-크기 리스트로부터 영상 내 크기와 실제 크기 간의 비례를 추출하며, 영상 내 카메라-객체 간의 상대적인 거리를 예측한다. 예측된 값을 바탕으로 영상에서 객체 간 접촉 여부를 감지한다.

딥 러닝 기반의 영상처리 기법을 이용한 겹침 돼지 분리 (Separation of Occluding Pigs using Deep Learning-based Image Processing Techniques)

  • 이한해솔;사재원;신현준;정용화;박대희;김학재
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.136-145
    • /
    • 2019
  • The crowded environment of a domestic pig farm is highly vulnerable to the spread of infectious diseases such as foot-and-mouth disease, and studies have been conducted to automatically analyze behavior of pigs in a crowded pig farm through a video surveillance system using a camera. Although it is required to correctly separate occluding pigs for tracking each individual pigs, extracting the boundaries of the occluding pigs fast and accurately is a challenging issue due to the complicated occlusion patterns such as X shape and T shape. In this study, we propose a fast and accurate method to separate occluding pigs not only by exploiting the characteristics (i.e., one of the fast deep learning-based object detectors) of You Only Look Once, YOLO, but also by overcoming the limitation (i.e., the bounding box-based object detector) of YOLO with the test-time data augmentation of rotation. Experimental results with two-pigs occlusion patterns show that the proposed method can provide better accuracy and processing speed than one of the state-of-the-art widely used deep learning-based segmentation techniques such as Mask R-CNN (i.e., the performance improvement over Mask R-CNN was about 11 times, in terms of the accuracy/processing speed performance metrics).

PCB 검사를 위한 YOLO 네트워크 기반의 PCB 부품 분류 알고리즘 (PCB Component Classification Algorithm Based on YOLO Network for PCB Inspection)

  • 윤형조;이준재
    • 한국멀티미디어학회논문지
    • /
    • 제24권8호
    • /
    • pp.988-999
    • /
    • 2021
  • AOI (Automatic Optical Inspection) of PCB (Printed Circuit Board) is a very important step to guarantee the product performance. The process of registering components called teaching mode is first perform, and AOI is then carried out in a testing mode that checks defects, such as recognizing and comparing the component mounted on the PCB to the stored components. Since most of registration of the components on the PCB is done manually, it takes a lot of time and there are many problems caused by mistakes or misjudgement. In this paper, A components classifier is proposed using YOLO (You Only Look Once) v2's object detection model that can automatically register components in teaching modes to reduce dramatically time and mistakes. The network of YOLO is modified to classify small objects, and the number of anchor boxes was increased from 9 to 15 to classify various types and sizes. Experimental results show that the proposed method has a good performance with 99.86% accuracy.

딥러닝 기반 욕창 이미지 객체 탐지 연구 (Deep Learning-Based Pressure Ulcer Image Object Detection Study)

  • 서진범;이재성;유하나;조영복
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.311-312
    • /
    • 2022
  • 본 논문에서는 딥러닝 기반 욕창 감지를 위한 욕창 객체 탐지를 연구한다. 객체 탐지 딥러닝 기법으로 RCNN, Fast R-CNN, Faster R-CNN, YOLO 등 다양한 기법이 존재하며, 각 모델의 특징 또한 다르다. 욕창은 단계별로 피부, 조직에 손상의 정도가 다르다. 낮은 단계의 경우 일반적인 피부색과 유사하게 나타나며, 높은 단계의 경우 근육, 뼈, 지지 조직 등의 괴사로 인해 삼출물 또는 괴사조직이 나타난다. 논문에서는 One-Stage Detection 기법인 YOLO를 기반으로 욕창 이미지 내부에서 욕창 탐지를 진행한다. 현재 보유하고 있는 이미지 데이터 수가 많지 않아 데이터 증강기법을 통해 데이터를 증강하여 학습에 활용하였다.

  • PDF

알약 자동 인식을 위한 딥러닝 모델간 비교 및 검증 (Comparison and Verification of Deep Learning Models for Automatic Recognition of Pills)

  • 이경윤;김영재;김승태;김효은;김광기
    • 한국멀티미디어학회논문지
    • /
    • 제22권3호
    • /
    • pp.349-356
    • /
    • 2019
  • When a prescription change occurs in the hospital depending on a patient's improvement status, pharmacists directly classify manually returned pills which are not taken by a patient. There are hundreds of kinds of pills to classify. Because it is manual, mistakes can occur and which can lead to medical accidents. In this study, we have compared YOLO, Faster R-CNN and RetinaNet to classify and detect pills. The data consisted of 10 classes and used 100 images per class. To evaluate the performance of each model, we used cross-validation. As a result, the YOLO Model had sensitivity of 91.05%, FPs/image of 0.0507. The Faster R-CNN's sensitivity was 99.6% and FPs/image was 0.0089. The RetinaNet showed sensitivity of 98.31% and FPs/image of 0.0119. Faster RCNN showed the best performance among these three models tested. Thus, the most appropriate model for classifying pills among the three models is the Faster R-CNN with the most accurate detection and classification results and a low FP/image.