• Title/Summary/Keyword: 객체분류

Search Result 754, Processing Time 0.029 seconds

Joint Object Detection and Tracking in Video Sequences (동영상을 위한 객체 검출 기법과 추적 기법의 결합)

  • Lim, Kyungsun;Kim, Han-Ul;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.300-301
    • /
    • 2016
  • 본 논문에서는 동영상에서 제한된 종류의 동적 객체를 자동적으로 검출하여 추적하는 기법을 제안한다. 제안하는 기법은 객체 검출 기법[1]과 객체 추적 기법[2]의 협업을 통해 이를 수행한다. 검출기는 매 장면마다 객체들을 검출하고 이 중 높은 신뢰도의 객체에 대해 추적을 시작한다. 추적기는 이전 장면에서 학습된 분류기에 기반하여 객체를 추적한다. 추적 결과와 겹치는 검출 결과를 분석하여 현재 장면에서 객체의 정확한 위치와 모양을 추정한다. 겹치는 검출 결과가 없을 때는 검출기로 부터 추적 결과의 신뢰도를 측정하고 문턱값에 따라 추적을 계속 진행하거나 종료한다. 실험 결과를 통해 제안하는 기법이 기존 검출 기법에 비해 우수한 검출 성능을 보임을 확인한다.

  • PDF

Visual Object Tracking Using Superpixel-Based Graph Cuts (슈퍼픽셀 기반의 그래프 컷을 이용한 객체 추적)

  • Lee, Dae-Youn;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.06a
    • /
    • pp.64-65
    • /
    • 2013
  • 본 논문에서는 슈퍼픽셀(superpixel) 단위의 그래프 컷 알고리즘을 적용하여 객체 추적의 정확도를 향상시키기 위한 방법을 제안한다. 먼저 영상 분할 기법을 사용하여 입력 영상을 슈퍼픽셀로 분할하고 각 슈퍼픽셀에서 색상 히스토그램을 이용한 특성 벡터를 생성한다. 그리고 특성 벡터에 지지벡터기계(support vector machines)를 사용하여 각 슈퍼픽셀의 객체 확률 값을 추정한다. 객체 확률 값을 데이터 항(data term)으로, 이웃한 슈퍼픽셀 간의 특성 벡터 차 값을 스무드 항(smooth term)으로 하여, 그래프 컷(graph cuts) 알고리즘으로 슈퍼픽셀들을 객체와 배경으로 분류하고 객체 슈퍼픽셀을 최대한으로 포함하는 객체 윈도우를 찾는다. 실험 결과는 제안하는 기법이 기존 기법들보다 객체 추적 성능이 우수함을 보여준다.

  • PDF

A Survey of Real-Time Object Recognition (실시간 객체인식을 위한 이미지 처리기술 분석)

  • Park, Ju-Hyeok;Ha, Ok-Kyoon;Jun, Yong-Kee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.01a
    • /
    • pp.35-36
    • /
    • 2017
  • 실시간 객체 인식은 카메라로부터 입력받은 영상 내에 존재하는 객체를 실시간으로 처리하는 기술로써 정확한 인식률과 빠른 인식 속도를 가져야 한다. 하지만 인식 속도가 보장되지 않으면 실시간으로 객체를 인식 할 수 없고 인식률이 보장되지 않으면 객체 인식을 통해 구현한 기능이 올바르게 동작하지 않을 수 도 있다. 따라서 본 논문에서는 실시간으로 객체를 인식하는 기술을 분류하고 연구 동향을 소개한다. 그리고 실시간 객체 인식을 위한 향후 연구 방향을 제시한다.

  • PDF

Affecting Factors on the Technology Adoption of Object Orientation (객체지향 기술채택에 미치는 영향 요인)

  • Kim, Injai
    • The Journal of Information Systems
    • /
    • v.8 no.2
    • /
    • pp.49-67
    • /
    • 1999
  • 본 연구는 객체지향 기술채택에 영향을 미치는 요인을 조사했다. 한가지의 중요한 연구 의문을 제시했다: 무엇이 객체지향 기술의 채택에 중요하게 영향을 미치는가? 본 연구는 객체지향 기술의 실제 사용정도에 영향을 주는 독립변수를 연구했다. 그 독립변수는 다음과 같은 세 가지 범주로 분류된다: (1) 개인적 요인: 구조지향 방법론을 사용한 경험, 새로운 기술에 대한 개방 정도: (2) 관리적 요인: 경영층의 지원 정도, 훈련, (3) 조직적/환경 요인: 부서와 조직에 있는 정보시스템 전문가의 수, 기술 챔피언에 대한 접근 용이성, 객체지향 기술을 지원하는 소프트웨어 및 하드웨어 환경. 설문지를 이용하여 위에서 언급된 독립변수들이 하나의 독립변수, 즉 객체지향 기술의 실제 사용정도에 미치는 영향을 조사하였다. 그 구조화된 설문지가 미국에 있는 DPMA(Data Processing Management Association)에 소속된 정보시스템 전문가에게 돌려졌다. 본 연구는 기존의 연구 결과와 일치하는 중요한 내용을 보여 주었다. 새로운 기술에 대한 개인의 개방성, 경영층의 지원정도, 훈련, 그리고 하드웨어 및 소프트웨어 환경은 객체지향 기술의 사용과 밀접한 관련이 있었다. 본 연구는 또 조직에서의 객체지향기술의 초기 채택을 이해하는 실증적인 근거를 제시하였다.

  • PDF

A comparative study on the characteristics of each version of object detection model YOLO (객체탐지모델 YOLO의 버전별 특성 비교 연구)

  • Joon-Yong Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.75-78
    • /
    • 2023
  • 본 논문은 객체탐지 모델 중 주류를 이루고 있는 YOLO의 v1부터 v8까지의 특성을 비교 분석하여 각각의 버전에 최적화할 수 있는 모델에 대한 연구이다. 연구 결과 v1, v2는 정확성이 최우선인 모델에 적합하다. 반면, v3, v4는 속도가 우선인 모델에 적합하다. 또한 v5, v6는 정확도와 속도 사이의 균형이 필요한 모델에 적합하다는 결론을 얻었다. v7, v8은 메모리 및 컴퓨팅 성능에 제약이 있는 경우 주로 적용이 가능하며, 적은 연산과 저 메모리 사용으로 객체를 탐지하여 포즈추정이나 객체 추적 등을 적용할 모델에 적합하다는 결과를 확인하였다.

  • PDF

A Study on Class Sample Extraction Technique Using Histogram Back-Projection for Object-Based Image Classification (객체 기반 영상 분류를 위한 히스토그램 역투영을 이용한 클래스 샘플 추출 기법에 관한 연구)

  • Chul-Soo Ye
    • Korean Journal of Remote Sensing
    • /
    • v.39 no.2
    • /
    • pp.157-168
    • /
    • 2023
  • Image segmentation and supervised classification techniques are widely used to monitor the ground surface using high-resolution remote sensing images. In order to classify various objects, a process of defining a class corresponding to each object and selecting samples belonging to each class is required. Existing methods for extracting class samples should select a sufficient number of samples having similar intensity characteristics for each class. This process depends on the user's visual identification and takes a lot of time. Representative samples of the class extracted are likely to vary depending on the user, and as a result, the classification performance is greatly affected by the class sample extraction result. In this study, we propose an image classification technique that minimizes user intervention when extracting class samples by applying the histogram back-projection technique and has consistent intensity characteristics of samples belonging to classes. The proposed classification technique using histogram back-projection showed improved classification accuracy in both the experiment using hue subchannels of the hue saturation value transformed image from Compact Advanced Satellite 500-1 imagery and the experiment using the original image compared to the technique that did not use histogram back-projection.

The Evaluation of on Land Cover Classification using Hyperspectral Imagery (초분광 영상을 이용한 토지피복 분류 평가)

  • Lee, Geun-Sang;Lee, Kang-Cheol;Go, Sin-Young;Choi, Yun-Woong;Cho, Gi-Sung
    • Journal of Cadastre & Land InformatiX
    • /
    • v.44 no.2
    • /
    • pp.103-112
    • /
    • 2014
  • The objective of this study is to suggest the possibility on land cover classification using hyperspectal imagery on area which includes lands and waters. After atmospheric correction as a preprocessing work was conducted on hyperspectral imagery acquired by airborne hyperspectral sensor CASI-1500, the effect of atmospheric correction to a few land cover class in before and after atmospheric correction was compared and analyzed. As the result of accuracy of land cover classification by highspectral imagery using reference data as airphoto and digital topographic map, maximum likelihood method represented overall accuracy as 67.0% and minimum distance method showed overall accuracy as 52.4%. Also product accuracy of land cover classification on road, dry field and green house, but that on river, forest, grassland showed low because the area of those was composed of complex object. Therefore, the study needs to select optimal band to classify specific object and to construct spectral library considering spectral characteristics of specific object.

Design of Pet Behavior Classification Method Based On DeepLabCut and Mask R-CNN (DeepLabCut과 Mask R-CNN 기반 반려동물 행동 분류 설계)

  • Kwon, Juyeong;Shin, Minchan;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.927-929
    • /
    • 2021
  • 최근 펫팸족(Pet-Family)과 같이 반려동물을 가족처럼 생각하는 가구가 증가하면서 반려동물 시장이 크게 성장하고 있다. 이러한 이유로 본 논문에서는 반려동물의 객체 식별을 통한 객체 분할과 신체 좌표추정에 기반을 둔 반려동물의 행동 분류 방법을 제안한다. 이 방법은 CCTV를 통해 반려동물 영상 데이터를 수집한다. 수집된 영상 데이터는 반려동물의 인스턴스 분할을 위해 Mask R-CNN(Region Convolutional Neural Networks) 모델을 적용하고, DeepLabCut 모델을 통해 추정된 신체 좌푯값을 도출한다. 이 결과로 도출된 영상 데이터와 추정된 신체 좌표 값은 CNN(Convolutional Neural Networks)-LSTM(Long Short-Term Memory) 모델을 적용하여 행동을 분류한다. 본 모델을 바탕으로 행동을 분석 및 분류하여, 반려동물의 위험 상황과 돌발 행동에 대한 올바른 대처를 제공할 수 있는 기반을 제공할 것이라 기대한다.

Video Segmentation Using Image signal and Human characteristic (영상신호 특성 및 Human 특징을 이용한 실시간 영상 분류)

  • Kim, Min-Joon;Kim, Won-Ha
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.284-287
    • /
    • 2016
  • 영상에서 배경으로부터 객체를 분류하는 영상 분류 알고리즘은 물체 인식 및 추적 등 다양한 응용분야에서 중요하다. 본 논문에서는 고정된 카메라에서 다수의 초기 프레임을 참조하여 실시간 영상 분류 방법을 제안한다. 먼저 전경과 배경을 구분하는 확률모델을 제안하였으며 초기 프레임 동안에 카메라의 특성을 추출하여 카메라에 적응적으로 영상을 분류한다. 또한 분류된 영상에서 human의 특징을 이용하여 분류된 결과를 보정하는 방법을 제안한다. 마지막으로 제안한 알고리즘의 실시간 분류 처리를 위하여 복잡도를 최소화 하였다.

  • PDF

Research of Deep Learning-Based Multi Object Classification and Tracking for Intelligent Manager System (지능형 관제시스템을 위한 딥러닝 기반의 다중 객체 분류 및 추적에 관한 연구)

  • June-hwan Lee
    • Smart Media Journal
    • /
    • v.12 no.5
    • /
    • pp.73-80
    • /
    • 2023
  • Recently, intelligent control systems are developing rapidly in various application fields, and methods for utilizing technologies such as deep learning, IoT, and cloud computing for intelligent control systems are being studied. An important technology in an intelligent control system is recognizing and tracking objects in images. However, existing multi-object tracking technology has problems in accuracy and speed. In this paper, a real-time intelligent control system was implemented using YOLO v5 and YOLO v6 based on a one-shot architecture that increases the accuracy of object tracking and enables fast and accurate tracking even when objects overlap each other or when there are many objects belonging to the same class. The experiment was evaluated by comparing YOLO v5 and YOLO v6. As a result of the experiment, the YOLO v6 model shows performance suitable for the intelligent control system.