• 제목/요약/키워드: video object

검색결과 1,056건 처리시간 0.03초

AnoVid: 비디오 주석을 위한 심층 신경망 기반의 도구 (AnoVid: A Deep Neural Network-based Tool for Video Annotation)

  • 황지수;김인철
    • 한국멀티미디어학회논문지
    • /
    • 제23권8호
    • /
    • pp.986-1005
    • /
    • 2020
  • In this paper, we propose AnoVid, an automated video annotation tool based on deep neural networks, that automatically generates various meta data for each scene or shot in a long drama video containing rich elements. To this end, a novel meta data schema for drama video is designed. Based on this schema, the AnoVid video annotation tool has a total of six deep neural network models for object detection, place recognition, time zone recognition, person recognition, activity detection, and description generation. Using these models, the AnoVid can generate rich video annotation data. In addition, AnoVid provides not only the ability to automatically generate a JSON-type video annotation data file, but also provides various visualization facilities to check the video content analysis results. Through experiments using a real drama video, "Misaeing", we show the practical effectiveness and performance of the proposed video annotation tool, AnoVid.

모양 시퀀스 기술자를 이용한 효과적인 동작 표현 및 검색 방법 (Efficient Representation and Matching of Object Movement using Shape Sequence Descriptor)

  • 최민석
    • 정보처리학회논문지B
    • /
    • 제15B권5호
    • /
    • pp.391-396
    • /
    • 2008
  • 동영상에서 객체의 움직임은 동영상의 내용을 분석하는데 중요한 요소로 작용한다. 따라서 움직임 정보를 이용하여 동영상 내용을 분석하고 검색하기 위한 많은 방법들이 제안되었다. 그러나 대부분의 방법들은 객체 자체의 동작 보다는 움직임의 방향이나 경로를 분석하는 쪽으로 치중되었다. 본 논문에서는 객체의 움직임에 의한 모양 변화를 이용하여 객체의 동작을 표현하고 비교하기 위한 모양 시퀀스 기술자(descriptor)를 제안한다. 객체의 움직임 정보는 입력된 이미지 시퀀스에서 객체 영역을 추출하여 연속된 2차원 모양 정보로 표현되고, 각각의 2차원 모양 정보는 모양 기술자를 이용하여 1차원 모양 특징 값으로 변환된다. 순서에 따라 배열된 모양 기술자들을 시간 축으로 주파수 변환한 후 저주파영역의 계수를 취하여 모양 시퀀스 기술자를 얻게 된다. 실험을 통하여 제안된 방법이 객체의 동작 정보를 매우 효과적으로 표현 및 비교 가능하여 내용 기반 동영상 검색, 동작 인식 등의 인지적 관점의 움직임 분석 응용에 적용 가능함을 보였다.

안개 제거에 의한 객체 검출 성능 향상 방법 (A Framework for Object Detection by Haze Removal)

  • 김상균;최경호;박순영
    • 전자공학회논문지
    • /
    • 제51권5호
    • /
    • pp.168-176
    • /
    • 2014
  • 영상 시퀀스로부터 움직이는 객체의 검출은 비디오 감시, 교통 모니터링 및 분석, 사람 검출 및 추적 등에서 가장 기본적이며 중요한 분야이다. 안개와 같은 환경적 요인에 의하여 화질이 저하된 영상 속에서 움직이는 객체를 검출하는 일은 매우 어렵다. 특히, 안개는 주변 물체의 색상을 모두 비슷하게 만들고 채도를 떨어뜨려 배경으로부터 객체를 구별하기 힘들게 만든다. 이런 이유로 안개 영상 속에서 객체 검출 성능은 매우 낮으며 신뢰할 수 없는 결과를 나타내고 있다. 본 논문은 안개와 같은 환경적 요인을 제거하고 객체의 검출 성능을 높이기 위한 방법으로 안개 지수를 기반으로 안개 유무를 판단하고, Dark Channel Prior을 이용하여 안개 영상의 전달량을 추정하고 안개가 제거된 영상으로 복원하였으며 가우시안 혼합 모델을 이용한 배경 차분 방법을 이용하여 객체를 검출하였다. 그리고 제안된 방법의 성능을 비교하기 위해 안개 제거 전과 후의 영상에 대한 Recall 과 Precision을 측정하여 안개 제거에 따른 성능 향상 정도를 수치화하여 비교하였다. 결과적으로 안개 제거 후 영상의 가시성이 매우 향상되었으며 객체 검출 성능이 매우 향상됨을 알 수 있었다.

HEVC 스트림 상에서의 객체 추적 방법 (Object Tracking in HEVC Bitstreams)

  • 박동민;이동규;오승준
    • 방송공학회논문지
    • /
    • 제20권3호
    • /
    • pp.449-463
    • /
    • 2015
  • 동영상에서의 객체 추적은 보안, 색인 및 검색, 감시, 통신, 압축 등 다양한 분야에서 중요하다. 본 논문은 HEVC 비트스트림 상에서의 객체 추적 방법을 제안한다. 복호화를 수행하지 않고, 비트스트림 상에 존재하는 움직임 벡터(MV : Motion Vector)와 부호화 크기 정보를 Spatio-Temporal Markov Random Fields (ST-MRF) 모델에 적용해 객체 움직임의 공간적 및 시간적 특성을 반영한다. 변환계수를 특징점으로 활용하는 객체형태 조정 알고리즘을 적용해 ST-MRF 모델 기반 객체 추적방법에서 나타나는 과분할에 의한 오차전파 문제를 해결한다. 제안하는 방법의 추적성능은 정확도 86.4%, 재현율 79.8%, F-measure 81.1%로 기존방법 대비 평균 F-measure는 약 0.2% 향상하지만 기존방법에서 과분할 및 오차전파가 두드러지는 영상에 대해서는 최대 9% 정도의 성능향상을 보인다. 전체 수행시간은 프레임 당 평균 5.4ms이며 실시간 추적이 가능하다.

다중 객체가 존재하는 ERP 영상에서 행동 인식 모델 성능 향상을 위한 전처리 기법 (Preprocessing Technique for Improving Action Recognition Performance in ERP Video with Multiple Objects)

  • 박은수;김승환;류은석
    • 방송공학회논문지
    • /
    • 제25권3호
    • /
    • pp.374-385
    • /
    • 2020
  • 본 논문에서 Equirectangular Projection(ERP) 영상으로 행동 인식을 할 때의 문제점들을 해결할 수 있는 전처리 기법을 제안한다. 본 논문에서 제안하는 전처리 기법은 사람 객체를 행동의 주체 즉, Object of Interest(OOI)로 가정하고, OOI의 주변 영역을 ROI로 가정한다. 전처리 기법은 3개의 모듈로 이루어져 있다. I) 객체 인식 모델로 영상 내 사람 객체를 인식한다. II) 입력 영상에서 saliency map을 생성한다. III) 인식된 사람 객체와 saliency map을 이용하여 행동의 주체를 선정한다. 이후 행동 인식 모델에 선정된 행동의 주체 boundary box를 입력하여 행동 인식 성능을 높인다. 제안하는 전처리기법을 사용한 데이터를 행동 인식 모델에 입력한 방법의 성능과 원본 ERP 영상을 입력한 방법의 성능을 비교하였을 때 최대 99.6%의 성능 향상을 보이며, OOI가 감지되는 프레임만을 추출하였을 때 행동 관련 영상 요약의 효과도 볼 수 있다.

Fundamental Research for Video-Integrated Collision Prediction and Fall Detection System to Support Navigation Safety of Vessels

  • Kim, Bae-Sung;Woo, Yun-Tae;Yu, Yung-Ho;Hwang, Hun-Gyu
    • 한국해양공학회지
    • /
    • 제35권1호
    • /
    • pp.91-97
    • /
    • 2021
  • Marine accidents caused by ships have brought about economic and social losses as well as human casualties. Most of these accidents are caused by small and medium-sized ships and are due to their poor conditions and insufficient equipment compared with larger vessels. Measures are quickly needed to improve the conditions. This paper discusses a video-integrated collision prediction and fall detection system to support the safe navigation of small- and medium-sized ships. The system predicts the collision of ships and detects falls by crew members using the CCTV, displays the analyzed integrated information using automatic identification system (AIS) messages, and provides alerts for the risks identified. The design consists of an object recognition algorithm, interface module, integrated display module, collision prediction and fall detection module, and an alarm management module. For the basic research, we implemented a deep learning algorithm to recognize the ship and crew from images, and an interface module to manage messages from AIS. To verify the implemented algorithm, we conducted tests using 120 images. Object recognition performance is calculated as mAP by comparing the pre-defined object with the object recognized through the algorithms. As results, the object recognition performance of the ship and the crew were approximately 50.44 mAP and 46.76 mAP each. The interface module showed that messages from the installed AIS were accurately converted according to the international standard. Therefore, we implemented an object recognition algorithm and interface module in the designed collision prediction and fall detection system and validated their usability with testing.

효과적인 이동물체 추적을 위한 색도 영상과 엔트로피 기반의 그림자 제거 (Shadow Removal Based on Chromaticity and Entropy for Efficient Moving Object Tracking)

  • 박기홍
    • 한국항행학회논문지
    • /
    • 제18권4호
    • /
    • pp.387-392
    • /
    • 2014
  • 최근 지능형 비디오 감시를 위한 다양한 연구가 제안되고 있음에도 CCTV 영상에서 이상 징후 판단이 사람에 의해 이루어지고 있어 상황인식을 위한 방법 및 연구가 필요하다. 본 논문에서는 이동물체 검출 및 추적을 위해 RGB 칼라 모델 기반의 색도 영상과 엔트로피 영상을 도출하여 그림자 제거를 수행한 후 이동물체를 추적하는 방법을 제안한다. 이동물체 검출을 위해 잡음 및 주위환경변화에 민감하지만 순간적으로 발생되는 상황인지 환경에서 효과적인 차영상 모델을 적용하였다. 검출한 이동물체 영역에서 RGB 채널의 색도 영상을 기반으로 첫 번째 그림자 후보 영역을 선정하였고, 그레이레벨에서 엔트로피를 계산하여 두 번째 그림자 후보 영역을 추정하여 그림자를 제거하였다. 제안하는 방법의 타당성을 위해 고속도로에서 주행하는 자동차들을 대상으로 실험하였고, 실험 결과 색상과 엔트로피를 이용한 그림자를 제거와 이동물체 추적이 효과적으로 수행됨을 확인하였다.

움직임 예측을 이용한 무인항공기 영상에서의 이동 객체 추적 (Moving Object Tracking in UAV Video using Motion Estimation)

  • 오훈걸;이형진;백중환
    • 한국항행학회논문지
    • /
    • 제10권4호
    • /
    • pp.400-405
    • /
    • 2006
  • 본 논문에서는 무인항공기 영상에서 움직임 예측을 이용한 이동 물체 추적 알고리즘을 제안하였다. 제안한 알고리즘은 초기모델 생성단계와 이동 물체 추적 단계로 구성되어있으며, 이전 프레임에 비해 이동 거리가 커진 경우에도 안정적으로 추적할 수 있었다. 그리고 무인항공기 카메라의 흔들림에도 효과적으로 추적을 할 수 있었고, 이동 물체의 위치를 정확히 검출하여 추적시간을 단축할 수 있었다. 블록 영상과 참조 영상 간 이동물체의 유사도 판정은 블록 매칭 알고리즘을 사용하였다. 제안한 알고리즘은 실험을 통해서 기존의 전역탐색 알고리즘보다 향상된 결과를 보여주었다.

  • PDF

VHDL을 이용한 프로그램 가능한 스택 기반 영상 프로세서 구조 설계 (Design of Architecture of Programmable Stack-based Video Processor with VHDL)

  • 박주현;김영민
    • 전자공학회논문지C
    • /
    • 제36C권4호
    • /
    • pp.31-43
    • /
    • 1999
  • 본 논문의 주요 목표는 고성능 SVP(Stack-based Video Processor)를 설계하는 것이다. SVP는 과거에 제안된 스택 머신과 영상 프로세서의 최적의 측면만을 선택함으로써 더 좋은 구조를 갖도록 하는 포괄적인 구조이다. 본 구조는 객체 지향형 프로그램의 소규모의 많은 서브루틴을 가지고 있기 때문에 스택 버퍼를 갖는 준범용 S-RISC(Stack-based Reduced Instruction Set Comuter)를 이용하여 객체 지향형 영상 데이터를 처리한다. 그리고 MPEG-4의 반화소 단위 처리와 고급 모드 움직임 보상, 움직임 예측, SA-DCT(Shape Adaptive-Discrete Cosine Transform)가 가능하며, 절대값기, 반감기를 가지고 있어서 부호화하기로 확장할 수 있도록 하였다. SVP는 0.6㎛ 3-메탈 계층 CMOS 표준 셀 기준을 이용하여 설계되었으며, 110K 로직 게이트와 12Kbit SRAM 내부 버퍼로 이루어지고 50 MHz의 동작 속도를 가진다 . MPEG-4의 VLBL(Very Low Bitrate Video) 최대 전송율인 QCIF 15fps(frame per second)로 영상 재생 알고리즘을 수행한다.

  • PDF

구조화된 비디오 문서의 데이터 모델 및 질의어와 색인 기법 (Data Model, Query Language, and Indexing Scheme for Structured Video Documents)

  • 류은숙;이규철
    • 한국멀티미디어학회논문지
    • /
    • 제1권1호
    • /
    • pp.1-17
    • /
    • 1998
  • 비디오 정보는 전자 도서관이나 WWW 및 주문형 비디오 (VOD) 시스템과 같은 다양한 응용분야에서 중요한 요소로 부각되고 있다. 비디오 정보는 특성상 계층적으로 구조화된 문서 형태를 가지기 때문에 본 논문에서는 이를 “구조화된 비디오 문서”라 부른다. 본 논문에서는 구조화된 비디오 문서를 데이터베이스에 효율적으로 저장하고, 검색하기 위한 데이터 모델과 질의어 및 색인 기법을 제안한다. 구조화된 비디오 문서는 논리적인 계층 구조 특성을 지니기 때문에, 본 논문에서는 객체 지향 데이터 모델을 이용하여 비디오 문서를 복합 객체로 모델링하고, 이를 저장하기 위한 객체 타입들을 정의한다. 또한 본 논문에서는 비디오 데이터의 캡션이나 주석을 기반으로 한 내용 기반 검색과 비디오 문서의 논리적 구조를 기반으로 한 구조 기반 검색을 제공하며, 비디오 문서의 시공간 관계 연산을 이용한 검색도 지원한다. 그리고, 구조화된 비디오 문서의 효율적인 질의와 색인 공간의 오버헤드를 줄이기 위해 최적화된 역 색인 기법을 제시한다.

  • PDF