• Title/Summary/Keyword: Video Object Detection

검색결과 358건 처리시간 0.026초

물체탐색과 전경영상을 이용한 인공지능 멀티태스크 성능 비교 (Comparison of Artificial Intelligence Multitask Performance using Object Detection and Foreground Image)

  • 정민혁;김상균;이진영;추현곤;이희경;정원식
    • 방송공학회논문지
    • /
    • 제27권3호
    • /
    • pp.308-317
    • /
    • 2022
  • 딥러닝 기반 머신 비전 기술을 이용한 영상분석 과정에서 전송되고 저장되는 방대한 양의 동영상 데이터의 용량을 효율적으로 줄이기 위한 연구들이 진행 중이다. MPEG(Moving Picture Expert Group)은 VCM(Video Coding for Machine)이라는 표준화 프로젝트를 신설해 인간을 위한 동영상 부호화가 아닌 기계를 위한 동영상 부호화에 대한 연구를 진행 중이다. 그 중 한 번의 영상 입력으로 여러가지 태스크를 수행하는 멀티태스크에 대한 연구를 진행하고 있다. 본 논문에서는 효율적인 멀티태스크를 위한 파이프라인을 제안한다. 제안하는 파이프라인은 물체탐지를 선행해야 하는 각 태스크들의 물체탐지를 모두 수행하지 않고 한번만 선행하여 그 결과를 각 태스크의 입력으로 사용한다. 제안하는 멀티태스크 파이프라인의 효율성을 알아보기 위해 입력영상의 압축효율, 수행시간, 그리고 결과 정확도에 대한 비교 실험을 수행한다. 실험 결과 입력 영상의 용량이 97.5% 이상 감소한데 반해 결과 정확도는 소폭 감소하여 멀티태스크에 대한 효율적인 수행 가능성을 확인할 수 있었다.

비디오 압축 도메인에서 다시점 카메라 기반 이동체 검출 및 추적 (Moving Object Detection and Tracking in Multi-view Compressed Domain)

  • 이봉렬;신윤철;박주헌;이명진
    • 한국항행학회논문지
    • /
    • 제17권1호
    • /
    • pp.98-106
    • /
    • 2013
  • 본 논문에서는 다시점 카메라 환경에서 비디오 압축 도메인의 이동체 검출 및 추적 방법을 제안한다. 비디오 압축 비트열로부터 추출된 움직임 벡터와 블록 모드를 기반으로 이동블록 검증 및 라벨링, 이웃 blob 결합 알고리즘을 제안한다. 또한, 단일시점 및 다시점 환경에서 이동체의 일시 정지, 교차, 겹침시에도 지속적인 추적이 가능한 일정 시간 구간내 이동체 정보 갱신 기법을 제안한다. 기준 카메라 화면에 나타나지 않는 이동체는 다른 카메라 화면의 이동체 위치로부터 기준 카메라 화면상 좌표로 변환하여 참조하였다. 제안 기법의 성능은 부호기의 움직임 벡터 정밀도에 의존적인데, 두 대의 카메라 환경에서 H.264 JM15.1 압축 비트열로부터 복호화 없이 평균 89%와 84%의 검출률과 추적률을 보였다. 또한, 물체의 일시 정지, 교차, 겹침시에도 지속적인 이동체 검출 및 추적이 가능하며, 단일시점 환경에 비해 다시점 환경에서 평균 6%의 검출률과 7%의 추적률 개선을 확인할 수 있었다.

다시점 영상에 대한 이상 물체 탐지 기반 영상 시놉시스 프레임워크 (Abnormal Object Detection-based Video Synopsis Framework in Multiview Video)

  • 팔라시 잉글;유진용;김영갑
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.213-216
    • /
    • 2022
  • There has been an increase in video surveillance for public safety and security, which increases the video data, leading to analysis, and storage issues. Furthermore, most surveillance videos contain an empty frame of hours of video footage; thus, extracting useful information is crucial. The prominent framework used in surveillance for efficient storage and analysis is video synopsis. However, the existing video synopsis procedure is not applicable for creating an abnormal object-based synopsis. Therefore, we proposed a lightweight synopsis methodology that initially detects and extracts abnormal foreground objects and their respective backgrounds, which is stitched to construct a synopsis.

Visual Modeling and Content-based Processing for Video Data Storage and Delivery

  • Hwang Jae-Jeong;Cho Sang-Gyu
    • Journal of information and communication convergence engineering
    • /
    • 제3권1호
    • /
    • pp.56-61
    • /
    • 2005
  • In this paper, we present a video rate control scheme for storage and delivery in which the time-varying viewing interests are controlled by human gaze. To track the gaze, the pupil's movement is detected using the three-step process : detecting face region, eye region, and pupil point. To control bit rates, the quantization parameter (QP) is changed by considering the static parameters, the video object priority derived from the pupil tracking, the target PSNR, and the weighted distortion value of the coder. As results, we achieved human interfaced visual model and corresponding region-of-interest rate control system.

강아지 행동 분석을 위한 YOLOv4 기반의 실시간 객체 탐지 및 트리밍 (YOLOv4-based real-time object detection and trimming for dogs' activity analysis)

  • 오스만;이종욱;박대희;정용화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 추계학술발표대회
    • /
    • pp.967-970
    • /
    • 2020
  • In a previous work we have done, we presented a monitoring system to automatically detect some dogs' behaviors from videos. However, the input video data used by that system was pre-trimmed to ensure it contained a dog only. In a real-life situation, the monitoring system would continuously receive video data, including frames that are empty and ones that contain people. In this paper, we propose a YOLOv4-based system for automatic object detection and trimming of dog videos. Sequences of frames trimmed from the video data received from the camera are analyzed to detect dogs and people frame by frame using a YOLOv4 model, and then records of the occurrences of dogs and people are generated. The records of each sequence are then analyzed through a rule-based decision tree to classify the sequence, forward it if it contains a dog only or ignore it otherwise. The results of the experiments on long untrimmed videos show that our proposed method manages an excellent detection performance reaching 0.97 in average of precision, recall and f-1 score at a detection rate of approximately 30 fps, guaranteeing with that real-time processing.

복잡한 배경에서 움직이는 물체의 영역분할에 관한 연구 (A Segmentation Method for a Moving Object on A Static Complex Background Scene.)

  • 박상민;권희웅;김동성;정규식
    • 대한전기학회논문지:전력기술부문A
    • /
    • 제48권3호
    • /
    • pp.321-329
    • /
    • 1999
  • Moving Object segmentation extracts an interested moving object on a consecutive image frames, and has been used for factory automation, autonomous navigation, video surveillance, and VOP(Video Object Plane) detection in a MPEG-4 method. This paper proposes new segmentation method using difference images are calculated with three consecutive input image frames, and used to calculate both coarse object area(AI) and it's movement area(OI). An AI is extracted by removing background using background area projection(BAP). Missing parts in the AI is recovered with help of the OI. Boundary information of the OI confines missing parts of the object and gives inital curves for active contour optimization. The optimized contours in addition to the AI make the boundaries of the moving object. Experimental results of a fast moving object on a complex background scene are included.

  • PDF

차량의 헤드라이트에 강인한 실시간 객체 영역 검출 (Realtime Object Region Detection Robust to Vehicle Headlight)

  • 연승호;김재민
    • 한국멀티미디어학회논문지
    • /
    • 제18권2호
    • /
    • pp.138-148
    • /
    • 2015
  • Object detection methods based on background learning are widely used in video surveillance. However, when a car runs with headlights on, these methods are likely to detect the car region and the area illuminated by the headlights as one connected change region. This paper describes a method of separating the car region from the area illuminated by the headlights. First, we detect change regions with a background learning method, and extract blobs, connected components in the detected change region. If a blob is larger than the maximum object size, we extract candidate object regions from the blob by clustering the intensity histogram of the frame difference between the mean of background images and an input image. Finally, we compute the similarity between the mean of background images and the input image within each candidate region and select a candidate region with weak similarity as an object region.

Experiment on Intermediate Feature Coding for Object Detection and Segmentation

  • Jeong, Min Hyuk;Jin, Hoe-Yong;Kim, Sang-Kyun;Lee, Heekyung;Choo, Hyon-Gon;Lim, Hanshin;Seo, Jeongil
    • 방송공학회논문지
    • /
    • 제25권7호
    • /
    • pp.1081-1094
    • /
    • 2020
  • With the recent development of deep learning, most computer vision-related tasks are being solved with deep learning-based network technologies such as CNN and RNN. Computer vision tasks such as object detection or object segmentation use intermediate features extracted from the same backbone such as Resnet or FPN for training and inference for object detection and segmentation. In this paper, an experiment was conducted to find out the compression efficiency and the effect of encoding on task inference performance when the features extracted in the intermediate stage of CNN are encoded. The feature map that combines the features of 256 channels into one image and the original image were encoded in HEVC to compare and analyze the inference performance for object detection and segmentation. Since the intermediate feature map encodes the five levels of feature maps (P2 to P6), the image size and resolution are increased compared to the original image. However, when the degree of compression is weakened, the use of feature maps yields similar or better inference results to the inference performance of the original image.

실시간 고압축 MPEG-4 부호화를 위한 비디오 객체 분할과 프레임 전처리 (Video object segmentation and frame preprocessing for real-time and high compression MPEG-4 encoding)

  • 김준기;이호석
    • 한국통신학회논문지
    • /
    • 제28권2C호
    • /
    • pp.147-161
    • /
    • 2003
  • 비디오 객체 분할(Video Object Segmentation)은 MPEG-4 부호화의 핵심기술로 실시간 요구사항을 위해 빠르고 정확하여야 한다. 그러나 대부분의 존재하는 알고리즘은 계산량이 많으며 실시간 응용을 위해 적합하지 않다. 또한 이전 MPEG-4 VM(Verification Model) 기본 모델은 MPEG-4 부호화 처리를 위한 기본 알고리즘을 제공하였으나 실시간 요구사항을 위한 카메라 입력 시스템, 실용적인 소프트웨어 개발, 비디오 객체 분할 그리고 압축효율에 많은 제한이 있다. 이에 본 논문은 기본 MPEG-4 VM모델에 내용 기반 비디오 코딩의 핵심인 VOP 추출알고리즘, 실시간 카메라 입력 시스템, 압축율을 높일 수 있는 움직임 감지 알고리즘을 추가하여 최대 180:1의 압축율을 보여주는 실시간 고압축 MPEG-4 전처리 시스템을 개발하였다.

효율적인 비디오 데이터베이스 구축을 위해 카메라와 객체 파라미터를 이용한 계층형 영상 모자이크 (A Hierarchical Image Mosaicing using Camera and Object Parameters for Efficient Video Database Construction)

  • 신성윤;이양원
    • 한국멀티미디어학회논문지
    • /
    • 제5권2호
    • /
    • pp.167-175
    • /
    • 2002
  • 모자이크 영상은 연관성 있는 비디오 프레임이나 정지 영상들을 합성하여 하나의 새로운 영상을 생성하는 것으로서 영상의 정렬, 통합 그리고 중복성에 대한 분석으로 수행된다. 본 논문에서는 효율적인 비디오 데이터 베이스 구축을 위하여 카메라와 객체 파라미터를 이용한 계층형 영상 모자이크 시스템을 제시한다. 모자이크 영상 생성의 빠른 계산 시간과 정적 및 동적 영상 모자이크 구축을 위하여 트리 기반 영상 모자이크 시스템을 구축한다. 카메라 파라미터를 측정하기 위하여 최소사각형 오류기법과 어파인 모델을 이용하였다. 객체의 추출을 위하여 차영상, 매크로 블록, 영역 분할과 4분할 탐색 기법들을 제시하여 사용하였다. 또한, 동적 객체 표현을 위하여 동적 궤도 표현 방법을 제시하였고, 완만한 모자이크 영상 생성을 위하여 블러링을 이용하였다.

  • PDF