• 제목/요약/키워드: video information extraction

검색결과 346건 처리시간 0.024초

비디오객체의 경계향상을 위한 VLSI 구조 (VLSI Architecture for Video Object Boundary Enhancement)

  • 김진상
    • 한국통신학회논문지
    • /
    • 제30권11A호
    • /
    • pp.1098-1103
    • /
    • 2005
  • 에지나 윤곽 정보는 인간의 시각 시스템에 의하여 가장 잘 인식되며 객체의 인식과 지각에 사용되는 중요한 정보이다. 그러므로 비디오내의 객체간의 상호작용, 객체기반 코딩과 표현과 같은 응용을 위하여, 비디오객체의 추출과정에 에지정보를 적용하면 인간의 시각 시스템과 근접한 객체 경계를 얻을 수 있다. 대부분의 객체추출 방식은 연산량이 많고 반복적인 연산을 수행하므로 실시간 처리가 어렵다. 본 논문에서는 비디오객체 분할 과정에 에지 정보를 적용하여 정확한 객체 경계를 추출하는 VLSI 구조를 제안한다. 제안된 하드웨어 구조는 연산방식이 간단하므로 하드웨어로 쉽게 구현될 수 있으며, 제안된 VLSI 하드웨어 구조를 이용하면 객체기반 멀티미디어 응용을 위하여 실시간으로 비디오객체를 분할할 수 있다.

Sensorial Information Extraction and Mapping to Generate Temperature Sensory Effects

  • Kim, Sang-Kyun;Yang, Seung-Jun;Ahn, Chung Hyun;Joo, Yong Soo
    • ETRI Journal
    • /
    • 제36권2호
    • /
    • pp.224-231
    • /
    • 2014
  • In this paper, a method to extract temperature effect information using the color temperatures of video scenes with mapping to temperature effects is proposed to author temperature effects of multiple sensorial media content automatically. An authoring tool to apply the proposed method is also introduced. The temperature effects generated by the proposed method are evaluated by a subjective test to measure the level of satisfaction. The mean opinion score results show that most of the test video sequences receive an average of approximately four points (in a five-point scale), indicating that test video sequences (with the temperature effects generated by the proposed method) enhance levels of satisfaction.

Online Video Synopsis via Multiple Object Detection

  • Lee, JaeWon;Kim, DoHyeon;Kim, Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권8호
    • /
    • pp.19-28
    • /
    • 2019
  • In this paper, an online video summarization algorithm based on multiple object detection is proposed. As crime has been on the rise due to the recent rapid urbanization, the people's appetite for safety has been growing and the installation of surveillance cameras such as a closed-circuit television(CCTV) has been increasing in many cities. However, it takes a lot of time and labor to retrieve and analyze a huge amount of video data from numerous CCTVs. As a result, there is an increasing demand for intelligent video recognition systems that can automatically detect and summarize various events occurring on CCTVs. Video summarization is a method of generating synopsis video of a long time original video so that users can watch it in a short time. The proposed video summarization method can be divided into two stages. The object extraction step detects a specific object in the video and extracts a specific object desired by the user. The video summary step creates a final synopsis video based on the objects extracted in the previous object extraction step. While the existed methods do not consider the interaction between objects from the original video when generating the synopsis video, in the proposed method, new object clustering algorithm can effectively maintain interaction between objects in original video in synopsis video. This paper also proposed an online optimization method that can efficiently summarize the large number of objects appearing in long-time videos. Finally, Experimental results show that the performance of the proposed method is superior to that of the existing video synopsis algorithm.

몰입형 화상 회의를 위한 강건한 객체 추출 방법 (A Robust Object Extraction Method for Immersive Video Conferencing)

  • 안일구;오대영;김재광;김창익
    • 대한전자공학회논문지SP
    • /
    • 제48권2호
    • /
    • pp.11-23
    • /
    • 2011
  • 본 논문에서 우리는 실시간 성능이 요구되는 비디오 화상회의 시스템을 위해 사전정보 없이 정확하면서도 완전히 자동으로 비디오 객체를 추출하는 방법을 제안한다. 제안하는 방법은 두 단계로 이루어진다: 1) 초기 프레임에서의 정확한 객체 추출, 2) 객체 추출 결과를 이용한 그 이후 프레임에서의 실시간 객체 추출. 초기 프레임에서의 객체 추출은 초기 프레임들의 차영상으로부터 구한 에지들을 누적시킨 누적 에지맵 생성으로부터 시작된다. 즉, 객체의 초기 움직임의 누적으로부터 객체의 형상을 추측하고자 하는 것이다. 이 추측된 형상은 그래프 컷(Graph-Cut) 영상 분할을 위한 객체 씨드(seeds)와 배경 씨드를 할당하는데 이용된다. 그래프 컷 기반 객체 추출 이후 프레임부터는 객체 추출 결과와 연속된 프레임의 차영상의 에지맵을 이용하여 실시간 객체 추출이 수행된다. 실험결과를 통해 제안하는 방법이 이전 연구들과 달리 VGA 크기의 비디오에 대해서도 실시간으로 동작함을 보이고, 따라서 몰입적인 비디오 화상회의 시스템의 개발을 위한 유용한 도구임을 보이고자 한다.

QoS 기반 스트리밍 서비스를 위한 실시간 SVC 비트스트림 추출기에 대한 연구 (A Study of Real-time SVC Bitstream Extraction for QoS guaranteed Streaming)

  • 김덕연;배태면;김영석;노용만;최해철;김재곤
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.513-516
    • /
    • 2005
  • SVC(Scalable Video coding) is the standardization of MPEG that aims to support multi spatial, temporal, and quality layers. We can support the video service guaranteeing the QoS in varied network circumstance by using SVC bitstream. In this paper, we propose the real-time SVC bitstream extractor that is able to extract the bitstream with varied frame rate and SNR quality in real-time. To do, extraction processing needs to be performed by GOP unit. As well , essential bitstream information for real-time extraction is aquired before doing extraction process. The proposed method is implemented by using JSVM 2.0. Experimental results show that the proposed method is valid.

  • PDF

A New Video Watermarking Scheme Resistant to Collusion and Synchronization Attacks

  • Kim, Ki-Jung
    • International Journal of Contents
    • /
    • 제5권2호
    • /
    • pp.32-37
    • /
    • 2009
  • A new video watermarking scheme with robustness against collusion and synchronization attacks is presented. We propose to embed only a few copies of the watermark along the temporal axis into frames, which are located at the borders of each two different plotlines of the video. As a result, each change of the video plotline is transformed into pulse, which is used for watermark embedding and extraction. In addition, since we embed a watermark only into a small number of frames, the distortions of the video are reduced to minimum. Experimental results show the robustness of the proposed scheme.

Video Captioning with Visual and Semantic Features

  • Lee, Sujin;Kim, Incheol
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1318-1330
    • /
    • 2018
  • Video captioning refers to the process of extracting features from a video and generating video captions using the extracted features. This paper introduces a deep neural network model and its learning method for effective video captioning. In this study, visual features as well as semantic features, which effectively express the video, are also used. The visual features of the video are extracted using convolutional neural networks, such as C3D and ResNet, while the semantic features are extracted using a semantic feature extraction network proposed in this paper. Further, an attention-based caption generation network is proposed for effective generation of video captions using the extracted features. The performance and effectiveness of the proposed model is verified through various experiments using two large-scale video benchmarks such as the Microsoft Video Description (MSVD) and the Microsoft Research Video-To-Text (MSR-VTT).

Visual Semantic Based 3D Video Retrieval System Using HDFS

  • Ranjith Kumar, C.;Suguna, S.
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권8호
    • /
    • pp.3806-3825
    • /
    • 2016
  • This paper brings out a neoteric frame of reference for visual semantic based 3d video search and retrieval applications. Newfangled 3D retrieval application spotlight on shape analysis like object matching, classification and retrieval not only sticking up entirely with video retrieval. In this ambit, we delve into 3D-CBVR (Content Based Video Retrieval) concept for the first time. For this purpose we intent to hitch on BOVW and Mapreduce in 3D framework. Here, we tried to coalesce shape, color and texture for feature extraction. For this purpose, we have used combination of geometric & topological features for shape and 3D co-occurrence matrix for color and texture. After thriving extraction of local descriptors, TB-PCT (Threshold Based- Predictive Clustering Tree) algorithm is used to generate visual codebook. Further, matching is performed using soft weighting scheme with L2 distance function. As a final step, retrieved results are ranked according to the Index value and produce results .In order to handle prodigious amount of data and Efficacious retrieval, we have incorporated HDFS in our Intellection. Using 3D video dataset, we fiture the performance of our proposed system which can pan out that the proposed work gives meticulous result and also reduce the time intricacy.

뉴스 비디오 자막 추출 및 인식 기법에 관한 연구 (Study on News Video Character Extraction and Recognition)

  • 김종열;김성섭;문영식
    • 대한전자공학회논문지SP
    • /
    • 제40권1호
    • /
    • pp.10-19
    • /
    • 2003
  • 비디오 영상에 포함되어 있는 자막은 비디오의 내용을 함축적으로 표현하고 있기 때문에 비디오 색인 및 검색에 중요하게 사용될 수 시다. 본 논문에서는 뉴스 비디오로부터 폰트, 색상, 자막의 크기 등과 같은 사전 지식 없이도 자막을 효율적으로 추출하여 인식하는 방법을 제안한다. 문자 영역의 추출과정에서 문자영역은 뉴스 비디오의 여러 프레임에 걸쳐나 나오기 때문에 인길 프레임의 차영상을 통해서 동일한 자막 영역이 존재하는 프레임을 자동적으로 추출한 후, 이들의 시간적 평균영상을 만들어 인식에 사용함으로써 인식률을 향상한다. 또한, 평균 영상의 외각선 영상을 수평, 수직방향으로 투영한 값을 통해 문자 영역을 찾아 Region filling, K-means clustering을 적용하여 배경들을 완벽하게 제거함으로써 최종적인 자막 영상을 추출한다. 자막 인식과정에서는 문사 영역 추출과정에서 추출된 글자영상을 사용하여 white run, zero-one transition과 같은 비교적 간단한 특징 값을 추출하여 이를 비교함으로써 인식과정을 수행한다. 제한된 방법을 다양한 뉴스 비디오에 적용하여 문자영역 추출 능력과 인식률을 측정한 결과 우수함을 확인하였다.

도로공간정보의 추출방법에 따른 경제성 분석 (Analysis of Economical Efficiency by the Extraction Method of Road Spatial Information)

  • 이종출;박운용;문두열;서동주
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2004년도 춘계학술발표회논문집
    • /
    • pp.527-533
    • /
    • 2004
  • This study has based on RTKGPS and DGPS and Digital Video Camera to 3-dimensional position data of road, as a Road Spatial Information. Economic efficiency analysis was applied to road spatial information system built up by four different methods such as conventional surveying, RTK GPS, DGPS, and Digital Video Camera. As a result of analysis, it was shown conventional surveying 100%, it was shown that about 64% in RTKGPS, it was shown that about 63% in DGPS, it was shown that about 37% in Digital Video Camera cost-saving.

  • PDF