• Title/Summary/Keyword: 객체탐지

Search Result 541, Processing Time 0.033 seconds

Object-based Compression Method for Machine Vision in Thermal Infrared Image (열 적외선 영상에서 기계를 위한 객체 기반 압축 기법)

  • Lee, Yegi;Kim, Shin;Yoon, Kyoungro;Lim, Hanshin;Choo, Hyon-Gon;Cheong, Won-Sik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.1-3
    • /
    • 2021
  • 최근 딥러닝 기술에 발전으로 스마트 시티, 자율주행 자동차, 감시, 사물인터넷 등 다양한 분야에서 활용이 되고 있으며, 이에 따라 기계를 위한 영상 압축에 대한 필요성이 대두되고 있다. 본 논문에서는 열 적외선 영상에서 기계 소비를 위한 객체 기반 압축 기법을 제안한다. 신경망의 객체 탐지 결과와 객체 크기에 따라 이미지를 객체 부분과 배경 부분으로 나누어 서로 다른 압축률로 인/디코딩 한 후, 나눠진 이미지들 다시 하나의 이미지로 합치는 기법을 사용하여 압축하였으며, 이는 압축효율은 높이면서 객체 탐지 성능을 높게 유지한다. 실험 결과, 제안하는 방법이 Pareto mAP에서 BD-rate가 -28.92%로 FLIR anchor 결과와 비교했을 때 압축효율이 뛰어나다는 것을 확인할 수 있다.

  • PDF

A Study on Early Prediction Method of Traffic Accidents (교통사고의 사전 예측 방법 연구)

  • Jin, Renjie;Sung, Yunsick
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.441-442
    • /
    • 2022
  • 교통사고 예측은 차량의 블랙박스 동영상을 통해 사고 발생을 최대한 빨리 예측하는 것을 목표로 한다. 이는 안전한 자율주행 시스템을 보장하는 데 중요한 역할을 한다. 다양한 교통 상황과 카메라의 제한된 시야로 인해 프레임에서 사고 가능성을 조기에 관찰하는 것은 어려운 도전이다. 예측의 핵심 기술은 객체의 시공간 관계를 학습하는 것이다. 본 논문에서는 블랙박스 동영상에서 사고 예측을 위한 계산 모델을 제안한다. 이것을 사용하여 사고 예방을 강화한다. 이 모델은 사고 위험에 대한 운전자의 시각적 인식에서 영감을 받았다. 객체 탐지기는 동영상 프레임에서 다양한 객체를 탐지한다. 탐지한 객체는 노드 생성기와 특징 추출기 동시에 통과한다. 노드 생성기에서 생성한 노드는 GCN 실행기를 사용한다. GCN 실행기는 각 프레임에 대한 객체의 3D 위치 관계를 계산한 후 공간 특징을 취득한다. 동시에 공간 특징과 특징 추출기에서 얻은 객체의 특징은 GRU 실행기로 보내진다. GRU 실행기 안에 시공간 특징을 암기하고 분석하여 교통사고 확률을 예측한다.

Implementation of An Unmanned Counter based on YOLO Deep Learning Object Recognition (YOLO 기반 딥러닝 객체 인식 무인계산대 개발에 관한 연구)

  • Park, Tae-Baek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.776-778
    • /
    • 2022
  • 우리는 일상 속에서 다양한 결제시스템을 접할 수 있다. 그중 무인계산 시스템은 소비자가 구매부터 결제까지 스스로 하는 방식이다. 발전된 기술이 편리함을 제공하지만, 일부 소비자들은 오히려 사용에 어려움을 겪고 사람이 계산을 해주는 기존의 시스템을 선호하는 경우가 많다. 본 논문에서는 소형 IOT 기기와 딥러닝 객체 인식 시스템을 기반으로 한 무인계산대를 설계하고 개발하였다. 계산대의 모습을 구현하기 위해 아두이노 컨베이어 벨트를 이용하고 라즈베리 파이와 파이 카메라를 이용하여 객체 인식 환경을 구현하였다. 파이 카메라를 통해 영상을 인식하고 해당 영상을 실시간으로 전송하여 PC에서 YOLO를 통해 객체를 탐지한다. 이후 탐지된 객체는 소비자가 확인할 수 있도록 디스플레이에 시각화한다. 본 논문에서 제안한 딥러닝 객체 인식 무인계산 시스템은 공산품이 주를 이루는 무인 상점에 활용할 수 있다.

Study of Target Pose Estimation System: Distance Measurement Based Deep Learning Using Single Camera (딥러닝 단일카메라 거리 측정 기술 활용 구조대상자 위치추정시스템 연구)

  • Do-Yun Kim;Jong-In Choi ;Seo-Won Park ;Kwang-Young Park
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.560-561
    • /
    • 2023
  • 지진, 대형화재와 같은 많은 재해의 발생으로 인해 재난 안전 분야에 관심이 증가하고 있으며, 재난재해 시 신속하고 안전한 구조는 생존율에 영향을 준다. 기존 연구에서는 다양한 센서와 멀티카메라를 이용한 위치 추정 연구는 있으나, 가장 많이 설치된 단일카메라 기반의 위치 추정연구는 부족한 상태이다. 본 논문에서 단일카메라를 활용한 딥러닝 객체탐지와 거리측정 알고리즘을 이용하여 인명구조를 위한 구조대상자 위치추정시스템을 제안한다. 딥러닝을 활용한 객체탐지 기술을 이용하여 단일카메라 영상 내 객체와 해상도에 따른 바운딩 박스의 너비를 활용한 거리 계산식으로 거리를 추정하고, 객체의 위치좌표를 제공하여 신속한 재난 구조에 도움이 되는 시스템을 제안한다.

Physical Contact Detection for Recognizing Interactions between Person Objects (인물 객체 간 상호작용 인식을 위한 물리접촉 검출)

  • Seung-bo Park;Eui-son Jung;Dong-gyun Ham;Yong-ho Keum
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.175-178
    • /
    • 2023
  • 본 논문은 영화의 스토리 인식을 위해 인물 간 상호작용 중 물리적 상호작용 즉, 물리접촉을 검출하는 방법을 제안한다. YOLO를 사용해 영상에서 인간객체를 탐지하고, Mediapipe를 사용해 골격 감지를 진행함으로써 인물의 뼈대를 랜드마크화 하고 타 객체 간의 랜드마크가 일정값 이하로 내려오면 Threshold를 적용해 객체 간의 물리적 접촉을 판단한다, 실험 결과, 50개 17,741 frame의 영상에서 정확도 99.66%의 정밀도 77.27%, 재현율 62.38%로 모델의 전반적인 성능을 나타내는 F1점수는 69%로 나타났다.

  • PDF

A Study on Utilizing Smartphone for CMT Object Tracking Method Adapting Face Detection (얼굴 탐지를 적용한 CMT 객체 추적 기법의 스마트폰 활용 연구)

  • Lee, Sang Gu
    • The Journal of the Convergence on Culture Technology
    • /
    • v.7 no.1
    • /
    • pp.588-594
    • /
    • 2021
  • Due to the recent proliferation of video contents, previous contents expressed as the character or the picture are being replaced to video and growth of video contents is being boosted because of emerging new platforms. As this accelerated growth has a great impact on the process of universalization of technology for ordinary people, video production and editing technologies that were classified as expert's areas can be easily accessed and used from ordinary people. Due to the development of these technologies, tasks like that recording and adjusting that depends on human's manual involvement could be automated through object tracking technology. Also, the process for situating the object in the center of the screen after finding the object to record could have been automated. Because the task of setting the object to be tracked is still remaining as human's responsibility, the delay or mistake can be made in the process of setting the object which has to be tracked through a human. Therefore, we propose a novel object tracking technique of CMT combining the face detection technique utilizing Haar cascade classifier. The proposed system can be applied to an effective and robust image tracking system for continuous object tracking on the smartphone in real time.

Robust Tag Detection Algorithm for Tag Occlusion of Augmented Reality (증강 현실의 태그 차단 현상에 강인한 태그 탐지 알고리즘)

  • Lee Seok-Won;Kim Dong-Chul;Han Tack-Don
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.55-57
    • /
    • 2006
  • 본 논문에서는 컬러코드를 이용하여 증강현실 시스템에 사용 가능한 태그를 탐지하는 알고리즘을 설계하고 차단 현상에 강인한 알고리즘을 제안하였다. 기존의 ARToolkit에서 태그의 일부분이 사용자 또는 다른 물체에 의해 가려지게 될 경우 증강되었던 객체가 순간 사라져 버리는 불안정성 (Instability) 문제를 해결하기 위한 방법에 초점을 맞춘다. 불안정성의 문제는 이미지 안에 태그가 존재하지만 해당하는 객체를 증강시키지 못하는 False Negative 에러와 태그가 존재하지 않는 곳에 잘못된 객체를 증강시키는 False Positive 에러로 분류 될 수 있다. 제안된 탐지 알고리즘으로 특정 컬러 영역을 분리하여 모서리 여부를 판별하고 모서리인 경우 가려진 꼭지점의 위치를 추출하여 태그가 차단에 의하여 가려졌을 때에도 객체를 안정적으로 증강시킬 수 있다. 기존 AR 시스템들의 태그를 가지고 Daylight 65, Illuminant A. CWF, TL84의 4가지의 표준 조명하에 컬러코드 4종류, ARToolkit 태그 4개, ARTag 4개를 이용하여 실험을 진행하여 차단 현상이 발생하면 전혀 객체를 증강시킬 수 없었던 ARToolkit에서도 DayLight65의 경우 50%의 False Negative. False Positive rate을 보여 기존 증강현실 시스템에서 보였던 불안정성 문제를 개선하였다.

  • PDF

Moving object segmentation using Markov Random Field (마코프 랜덤 필드를 이용한 움직이는 객체의 분할에 관한 연구)

  • 정철곤;김중규
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.27 no.3A
    • /
    • pp.221-230
    • /
    • 2002
  • This paper presents a new moving object segmentation algorithm using markov random field. The algorithm is based on signal detection theory. That is to say, motion of moving object is decided by binary decision rule, and false decision is corrected by markov random field model. The procedure toward complete segmentation consists of two steps: motion detection and object segmentation. First, motion detection decides the presence of motion on velocity vector by binary decision rule. And velocity vector is generated by optical flow. Second, object segmentation cancels noise by Bayes rule. Experimental results demonstrate the efficiency of the presented method.

Detection of Aggressive Pig Activity using Depth Information (깊이 정보를 이용한 돼지의 공격 행동 탐지)

  • Lee, Jonguk;Jin, Long;Zuo, Shangsu;Park, Daihee;Chung, Yongwha
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.770-772
    • /
    • 2015
  • 어미로부터 생후 21일령 또는 28일령에 젖을 때는 이유자돈들만을 개별적인 돈사에서 합사하는 경우, 낯선 환경 및 새로운 동료들과의 서열 구분을 위한 공격적인 행동이 매우 빈번하게 발생한다. 이로 인한 돼지의 성장 저하는 농가의 소득 하락으로 이어져 국내 외 양돈 농가의 큰 문제로 인식되고 있다. 본 논문에서는 키넥트 카메라에서 취득할 수 있는 영상의 깊이정보를 이용하여 이유자돈들의 공격적인 행동을 조기 탐지할 수 있는 프로토타입 모니터링 시스템을 제안한다. 먼저 제안한 시스템은 키넥트의 적외선 센서에서 실시간으로 취득하는 깊이 정보로부터 움직임이 있는 객체들만을 탐지하고, 해당 객체들의 ROI를 설정한다, 둘째, ROI를 이용하여 5가지 특정 정보(객체의 평균, 최고, 최소 속도, 객체 속도의 표준편차, 두 객체 사이의 최소 거리)를 추출한다. 셋째, 취득한 특징 정보는 이진 클래스 분류 문제로 해석하여, 기계학습의 대표적인 모델인 SVM을 탐지기로 사용하였다. 실제 이유자돈사에서 취득한 키넥트 영상을 이용하여 모의 실험을 수행한 결과 안정적인 성능을 확인하였다.

Fingertip Detection through Atrous Convolution and Grad-CAM (Atrous Convolution과 Grad-CAM을 통한 손 끝 탐지)

  • Noh, Dae-Cheol;Kim, Tae-Young
    • Journal of the Korea Computer Graphics Society
    • /
    • v.25 no.5
    • /
    • pp.11-20
    • /
    • 2019
  • With the development of deep learning technology, research is being actively carried out on user-friendly interfaces that are suitable for use in virtual reality or augmented reality applications. To support the interface using the user's hands, this paper proposes a deep learning-based fingertip detection method to enable the tracking of fingertip coordinates to select virtual objects, or to write or draw in the air. After cutting the approximate part of the corresponding fingertip object from the input image with the Grad-CAM, and perform the convolution neural network with Atrous Convolution for the cut image to detect fingertip location. This method is simpler and easier to implement than existing object detection algorithms without requiring a pre-processing for annotating objects. To verify this method we implemented an air writing application and showed that the recognition rate of 81% and the speed of 76 ms were able to write smoothly without delay in the air, making it possible to utilize the application in real time.