• 제목/요약/키워드: Video Object

검색결과 1,055건 처리시간 0.031초

고속의 세미오토매틱 비디오객체 추적 알고리즘 (A Fast Semiautomatic Video Object Tracking Algorithm)

  • 이종원;김진상;조원경
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.291-294
    • /
    • 2004
  • Semantic video object extraction is important for tracking meaningful objects in video and object-based video coding. We propose a fast semiautomatic video object extraction algorithm which combines a watershed segmentation schemes and chamfer distance transform. Initial object boundaries in the first frame are defined by a human before the tracking, and fast video object tracking can be achieved by tracking only motion-detected regions in a video frame. Experimental results shows that the boundaries of tracking video object arc close to real video object boundaries and the proposed algorithm is promising in terms of speed.

  • PDF

Online Video Synopsis via Multiple Object Detection

  • Lee, JaeWon;Kim, DoHyeon;Kim, Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권8호
    • /
    • pp.19-28
    • /
    • 2019
  • In this paper, an online video summarization algorithm based on multiple object detection is proposed. As crime has been on the rise due to the recent rapid urbanization, the people's appetite for safety has been growing and the installation of surveillance cameras such as a closed-circuit television(CCTV) has been increasing in many cities. However, it takes a lot of time and labor to retrieve and analyze a huge amount of video data from numerous CCTVs. As a result, there is an increasing demand for intelligent video recognition systems that can automatically detect and summarize various events occurring on CCTVs. Video summarization is a method of generating synopsis video of a long time original video so that users can watch it in a short time. The proposed video summarization method can be divided into two stages. The object extraction step detects a specific object in the video and extracts a specific object desired by the user. The video summary step creates a final synopsis video based on the objects extracted in the previous object extraction step. While the existed methods do not consider the interaction between objects from the original video when generating the synopsis video, in the proposed method, new object clustering algorithm can effectively maintain interaction between objects in original video in synopsis video. This paper also proposed an online optimization method that can efficiently summarize the large number of objects appearing in long-time videos. Finally, Experimental results show that the performance of the proposed method is superior to that of the existing video synopsis algorithm.

Low-Complexity MPEG-4 Shape Encoding towards Realtime Object-Based Applications

  • Jang, Euee-Seon
    • ETRI Journal
    • /
    • 제26권2호
    • /
    • pp.122-135
    • /
    • 2004
  • Although frame-based MPEG-4 video services have been successfully deployed since 2000, MPEG-4 video coding is now facing great competition in becoming a dominant player in the market. Object-based coding is one of the key functionalities of MPEG-4 video coding. Real-time object-based video encoding is also important for multimedia broadcasting for the near future. Object-based video services using MPEG-4 have not yet made a successful debut due to several reasons. One of the critical problems is the coding complexity of object-based video coding over frame-based video coding. Since a video object is described with an arbitrary shape, the bitstream contains not only motion and texture data but also shape data. This has introduced additional complexity to the decoder side as well as to the encoder side. In this paper, we have analyzed the current MPEG-4 video encoding tools and proposed efficient coding technologies that reduce the complexity of the encoder. Using the proposed coding schemes, we have obtained a 56 percent reduction in shape-coding complexity over the MPEG-4 video reference software (Microsoft version, 2000 edition).

  • PDF

Object segmentation and object-based surveillance video indexing

  • Kim, Jin-Woong;Kim, Mun-Churl;Lee, Kyu-Won;Kim, Jae-Gon;Ahn, Chie-Teuk
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.165.1-170
    • /
    • 1999
  • Object segmentation fro natural video scenes has recently become one of very active research to pics due to the object-based video coding standard MPEG-4. Object detection and isolation is also useful for object-based indexing and search of video content, which is a goal of the emerging new standard, MPEG-7. In this paper, an automatic segmentation method of moving objects in image sequence is presented which is applicable to multimedia content authoring for MPEG-4, and two different segmentation approaches suitable for surveillance applications are addressed in raw data domain and compressed bitstream domains. We also propose an object-based video description scheme based on object segmentation for video indexing purposes.

비디오 시퀸스에서 움직임 객체 분할과 VOP 추출을 위한 강력한 알고리즘 (A Robust Algorithm for Moving Object Segmentation and VOP Extraction in Video Sequences)

  • 김준기;이호석
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제8권4호
    • /
    • pp.430-441
    • /
    • 2002
  • 비디오 객체 분할은 MPEG-4와 같은 객체기반 비디오 코딩을 위한 중요한 구성 요소이다. 본논문은 비디오 시퀸스에서 움직임 객체 분할을 위한 새로운 알고리즘과 VOP(Video Object Plane)추출 방법을 소개한다. 본 논문의 핵심은 시간적으로 변하는 움직임 객체 에지와 공간적 객체 에지 검출 결과를 효율적으로 조합하여 정확한 객체 경계를 추출하는 것이다. 이후 추출된 에지를 통하여 VOP를 생성한다. 본 알고리즘은 첫 번째 프레임을 기준영상으로 설정한 후 두 개의 연속된 프레임 사이의 움직임 픽셀 차이 값으로부터 시작된다. 차이영상을 추출한 후 차이영상에 Canny 에지 연산과 수리형태 녹임 연산(erosion)을 적용하고, 다음 프레임의 영상에 Canny 에지 연산과 수리형태 녹임 연산을 적용하여 두 프레임 사이의 에지 비교를 통하여 정확한 움직임 객체 경계를 추출한다. 이 과정에서 수리형태학 녹임 연산은 잘못된 객체 에지의 검출을 방지하는 작용을 한다. 두 영상 사이의 정확한 움직임 객체 에지(moving object edge)는 에지 크기를 조절하여 생성한다. 본 알고리즘은 픽셀 범위까지 고려한 정화한 객체의 경계를 얻음으로서 매우 쉬운 구현과 빠른 객체 추출을 보였다.

동영상 내용 분석을 위한 관심 객체 추출 (Segmentation of Objects of Interest for Video Content Analysis)

  • 박소정;김민환
    • 한국멀티미디어학회논문지
    • /
    • 제10권8호
    • /
    • pp.967-980
    • /
    • 2007
  • 동영상에서의 관심 객체를 추출하는 것은 비디오 내용 분석과 비디오 검색 및 압축의 성능을 개선시키는데 큰 역할을 한다. 관심 객체는 단순히 사람 눈의 시선을 끄는 대상물이 아니라 내용전개의 중심이 되거나 제작자가 표현하려고 하는 핵심 객체를 의미한다. 이러한 관심 객체는 움직이는 객체뿐만 아니라 정지해 있는 객체도 될 수 있으나, 사람의 관심을 절차적으로 표현하는 것이 어렵기 때문에 관심 객체를 명확하게 정의하기가 곤란하다. 이에, 본 논문에서는 동영상 샷에서의 움직이는 객체의 위치, 크기, 움직임 패턴의 변화에 대한 조건을 정의하여 필터링에 의해 사람의 관심을 끄는 움직임 관심 객체를 추출하는 방법을 제시하고, 아울러 동영상 샷에서 정지되어 있는 객체에 대해서도 컬러/텍스처 특이성, 위치, 크기, 출현 빈도 등에 대한 조건을 정의하여 정지 관심 객체도 추출할 수 있는 방법을 제안한다. 제안한 방법을 50개의 동영상 샷에 대하여 실험한 결과, 사람이 선정한 움직임 및 정지 관심 객체를 84% 정도 추출할 수 있음을 확인할 수 있었다.

  • PDF

객체 기반 MPEG-4 동영상의 입체 변환 (Stereoscopic Conversion of Object-based MPEG-4 Video)

  • 박상훈;김만배;손현식
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.2407-2410
    • /
    • 2003
  • In this paper, we propose a new stereoscopic video conversion methodology that converts two-dimensional (2-D) MPEG-4 video to stereoscopic video. In MPEG-4, each Image is composed of background object and primary object. In the first step of the conversion methodology, the camera motion type is determined for stereo Image generation. In the second step, the object-based stereo image generation is carried out. The background object makes use of a current image and a delayed image for its stereo image generation. On the other hand, the primary object uses a current image and its horizontally-shifted version to avoid the possible vertical parallax that could happen. Furthermore, URFA(Uncovered Region Filling Algorithm) is applied in the uncovered region which might be created after the stereo image generation of a primary object. In our experiment, show MPEG-4 test video and its stereoscopic video based upon out proposed methodology and analyze Its results.

  • PDF

A Novel Approach for Object Detection in Illuminated and Occluded Video Sequences Using Visual Information with Object Feature Estimation

  • Sharma, Kajal
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제4권2호
    • /
    • pp.110-114
    • /
    • 2015
  • This paper reports a novel object-detection technique in video sequences. The proposed algorithm consists of detection of objects in illuminated and occluded videos by using object features and a neural network technique. It consists of two functional modules: region-based object feature extraction and continuous detection of objects in video sequences with region features. This scheme is proposed as an enhancement of the Lowe's scale-invariant feature transform (SIFT) object detection method. This technique solved the high computation time problem of feature generation in the SIFT method. The improvement is achieved by region-based feature classification in the objects to be detected; optimal neural network-based feature reduction is presented in order to reduce the object region feature dataset with winner pixel estimation between the video frames of the video sequence. Simulation results show that the proposed scheme achieves better overall performance than other object detection techniques, and region-based feature detection is faster in comparison to other recent techniques.

동적 비디오 객체 데이터 모델(DVID) ((Dynamic Video Object Data Model(DIVID))

  • 송용준;김형주
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제26권9호
    • /
    • pp.1052-1060
    • /
    • 1999
  • 이제까지 비디오 데이타베이스를 모델링하기 위한 많은 연구들이 수행되었지만 그 모든 모델들에서 다루는 비디오 데이타는 사용자의 개입이 없을 때 항상 미리 정의된 순서로 보여진다는 점에서 정적 데이타 모델로 간주될 수 있다. 주문형 뉴스 서비스, 주문형 비디오 서비스, 디지털 도서관, 인터넷 쇼핑 등과 같이 최신 비디오 정보 서비스를 제공하는 비디오 데이타베이스 응용들에서는 빈번한 비디오 편집이 요구되는데 실시간 처리가 바람직하다. 이를 위해서 기존의 비디오 데이타 내용이 변경되거나 새로운 비디오 데이타가 생성되어야 하지만 이제까지의 비디오 데이타 모델에서는 이러한 비디오 편집 작업이 일일이 수작업으로 수행되어야만 했다. 본 논문에서는 비디오 편집에 드는 노력을 줄이기 위해서 객체지향 데이타 모델에 기반하여 DVID(Dynamic Video Object Data Model)라는 동적 비디오 객체 데이타 모델을 제안한다. DVID는 기존의 정적 비디오 객체뿐만 아니라 사용자의 개입없이도 비디오의 내용을 비디오 데이타베이스로부터 동적으로 결정하여 보여주는 동적 비디오 객체도 함께 제공한다.Abstract A lot of research has been done on modeling video databases, but all of them can be considered as the static video data model from the viewpoint that all video data on those models are always presented according to the predefined sequences if there is no user interaction. For some video database applications which provides with up-to-date video information services such as news-on-demand, video-on-demand, digital library, internet shopping, etc., video editing is requested frequently, preferably in real time. To do this, the contents of the existing video data should be changed or new video data should be created, but on the traditional video data models such video editing works should be done manually. In order to save trouble in video editing work, this paper proposes the dynamic video object data model named DVID based on object oriented data model. DVID allows not only the static video object but also the dynamic video object whose contents are dynamically determined from video databases in real time even without user interaction.

모바일 영상통화 환경에 적합한 하이브리드 변환을 이용한 객체 기반 비디오 코덱 설계 (Design of Object-based Video CODEC for the Mobile Video Telephony Using Hybrid Transform)

  • 전성혜;서용수;권기룡
    • 한국멀티미디어학회논문지
    • /
    • 제13권4호
    • /
    • pp.560-574
    • /
    • 2010
  • 3G 통신 기술의 상용화로 모바일 단말기 상에서 영상통화 서비스가 활발히 제공되고 있다. 하지만, 단말기 상에서 비디오 시스템은 안정성과 성능 면에서 사용자들의 요구를 충족시키지 못하고 있으며, 이 때문에 영상통화 서비스에 대한 사용자들의 불만이 증가하는 것이 현 실정이다. 따라서 본 논문에서는 기존의 제한된 모바일 영상통화 환경에서 향상된 품질의 영상통화 서비스를 제공하기 위한 비디오 압축 방법을 제안한다. 제안한 방법에서는 매 프레임마다 중요 객체와 비중요 객체를 분리하며, 분리된 객체는 다른 비트율과 화질을 갖도록 각 객체에 적합한 변환 커널을 적용하여 부호화 절차를 달리한다. 중요 객체는 고화질을 가지도록 부호화하며, 비중요 객체에 대해서는 저화질을 가지도록 부호화함으로써 제한된 대역폭 내에서 중요 객체에 대한 화질을 보장하도록 한다. 실험 결과에서 동일 비트율에서 제안한 방법이 기존 방법보다 중요객체 영역에 대한 화질이 우수한 것을 확인할 수 있었다.