• 제목/요약/키워드: Information Video

검색결과 6,857건 처리시간 0.043초

비디오 문서의 구조 정보를 이용한 메타데이터 모델링에 관한 연구 (A study on Metadata Modeling using Structure Information of Video Document)

  • 권재길
    • 한국컴퓨터정보학회논문지
    • /
    • 제3권4호
    • /
    • pp.10-18
    • /
    • 1998
  • 비디오 정보는 전자도서관이나 WWW 및 주문형 비디오(VOD) 시스템과 같은 다양한 분야에서 중요한 요소로 부각되고 있으며, 시청각적(audio-visual), 시공간적(spatial-temporal), 의미적(semantics) 정보를 모두 포함하고 있어 사용자에게 다양한 형태의 정보를 제공할 수 있다. 또한 대부분의 경우 비디오 문서 전체를 검색하는 대신 비디오의 원하는 장면만을 검색할 수 있는 기능이 요구되고 있다. 따라서 본 논문에서는 이러한 검색의 다양성을 지원하기 위해 계층적으로 구성되어 있는 동영상 문서의 구조 정보를 이용하여 메타데이터를 모델링하고, 이를 통하여 동영상 문서를 통합적으로 다룰 수 있는 데이터베이스 스키마를 설계한다.

  • PDF

A Generation Method of Spatially Encoded Video Data for Geographic Information Systems

  • Joo, In-Hak;Hwang, Tae-Hyun;Choi, Kyoung-Ho;Jang, Byung-Tae
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.801-803
    • /
    • 2003
  • In this paper, we present a method for generating and providing spatially encoded video data that can be effectively used by GIS applications. We collect the video data by a mobile mapping system called 4S-Van that is equipped by GPS, INS, CCD camera, and DVR system. The information about spatial object appearing in video, such as occupied region in each frame, attribute value, and geo-coordinate, are generated and encoded. We suggest methods that can generate such data for each frame in semi-automatic manner. We adopt standard MPEG-7 metadata format for representation of the spatially encoded video data to be generally used by GIS application. The spatial and attribute information encoded to each video frame can make visual browsing between map and video possible. The generated video data can be provided and applied to various GIS applications where location and visual data are both important.

  • PDF

영상분석 기술을 활용한 시니어용 동영상 편집 시스템 (Video Content Editing System for Senior Video Creator based on Video Analysis Techniques)

  • 장달원;이재원;이종설
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.499-510
    • /
    • 2022
  • 본 논문에서는 영상 편집이 익숙하지 않은 시니어 동영상 크리에이터를 위한 동영상 편집 시스템을 설명한다. 영상분석 기술을 이용하여 편집소스 동영상을 분석하여 각종 정보를 제공하고, 자동으로 일부 장면을 삭제한다. 사용자가 다수의 소스 콘텐츠를 입력하였을 때, RNN(Recurrent Neural Network) 기술을 기반으로 샷 단위로 분할하고, 이 중 동영상 편집에서 배제할 부분을 구분한다. 각 샷 별로 중요도를 계산하여 샷 단위로 자동 삭제가 가능하도록 한다. 중요도 계산을 위해서 동영상 초점 정보를 추출하여 활용하는데, 이는 초점이 맞지 않는 영상 또는 흔들린 영상을 배제할 수 있도록 한다. 이후 시스템은 객체 인식을 수행하고, 얼굴이 나온 영상에 대해서 감정, 나이, 성별 등의 정보를 추출하여 사용자에게 제공한다. 사용자는 이런 정보를 활용하여 동영상을 제작한다. 동영상에 자막을 삽입하는 등 동영상을 꾸미기 위한 기능들도 포함되어 있으며, 이런 기능들을 활용할 시, 사용자의 과거 정보를 이용해서 선호 디자인을 쉽게 찾을 수 있도록 앞서 배치하고 있다. 시니어 동영상 크리에이터들이 본 시스템을 통해서 쉽고 빠르게 동영상 콘텐츠를 제작할 수 있다.

다시점 영상에 대한 이상 물체 탐지 기반 영상 시놉시스 프레임워크 (Abnormal Object Detection-based Video Synopsis Framework in Multiview Video)

  • 팔라시 잉글;유진용;김영갑
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.213-216
    • /
    • 2022
  • There has been an increase in video surveillance for public safety and security, which increases the video data, leading to analysis, and storage issues. Furthermore, most surveillance videos contain an empty frame of hours of video footage; thus, extracting useful information is crucial. The prominent framework used in surveillance for efficient storage and analysis is video synopsis. However, the existing video synopsis procedure is not applicable for creating an abnormal object-based synopsis. Therefore, we proposed a lightweight synopsis methodology that initially detects and extracts abnormal foreground objects and their respective backgrounds, which is stitched to construct a synopsis.

비디오 GIS를 이용한 공간데이터 구축 시스템 (A Spatial Data Construction System with Video GIS)

  • 주인학;유재준;남광우;김민수;이종훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (하)
    • /
    • pp.1903-1906
    • /
    • 2002
  • 비디오 GIS 는 비디오 데이터가 지도 또는 3 차원 그래픽스, 이미지, 비디오, 위성영상 등의 여러 가지 매체와 통합 연계되어 사용되고 관리되는 시스템이다. 특히 비디오 형태의 정보는 그 특성상 지리정보의 사실적인 정보를 제공해 줄 수 있으므로, 공간객체의 실제 모습을 촬영하여 지도 데이터와 연계함으로써 현실적이고 사실적인 시각화를 더하여 기존 지도 중심의 GIS 의 단점을 보완할 수 있다. 비디오 GIS 에서는 비디오 데이터에 위치정보를 포함함으로써 비디오가 지리정보와 연계되어 양방향 검색과 브라우징, 분석 등을 제공해 줄 수 있다. 본 논문에서는 비디오와 지도 정보를 통합하여 관리하고 공간정보를 구축할 수 있는 비디오 GIS 기술 및 공간데이터를 구축하는 방법을 제시하며 프로토타입 시스템 개발 결과 및 도로시설물 관리 분야에 적용한 결과를 제시한다.

  • PDF

무선 비디오 센서 네트워크에서 스케일러블 비디오 전송을 위한 계층 기반 협업 중계 알고리즘* (Layer based Cooperative Relaying Algorithm for Scalable Video Transmission over Wireless Video Sensor Networks)

  • 하호진
    • 디지털산업정보학회논문지
    • /
    • 제18권4호
    • /
    • pp.13-21
    • /
    • 2022
  • Recently, in wireless video sensor networks(WVSN), various schemes for efficient video data transmission have been studied. In this paper, a layer based cooperative relaying(LCR) algorithm is proposed for minimizing scalable video transmission distortion from packet loss in WVSN. The proposed LCR algorithm consists of two modules. In the first step, a parameter based error propagation metric is proposed to predict the effect of each scalable layer on video quality degradation at low complexity. In the second step, a layer-based cooperative relay algorithm is proposed to minimize distortion due to packet loss using the proposed error propagation metric and channel information of the video sensor node and relay node. In the experiment, the proposed algorithm showed that the improvement of peak signal-to-noise ratio (PSNR) in various channel environments, compared to the previous algorithm(Energy based Cooperative Relaying, ECR) without considering the metric of error propagation.The proposed LCR algorithm minimizes video quality degradation from packet loss using both the channel information of relaying node and the amount of layer based error propagation in scalable video.

Video Expression Recognition Method Based on Spatiotemporal Recurrent Neural Network and Feature Fusion

  • Zhou, Xuan
    • Journal of Information Processing Systems
    • /
    • 제17권2호
    • /
    • pp.337-351
    • /
    • 2021
  • Automatically recognizing facial expressions in video sequences is a challenging task because there is little direct correlation between facial features and subjective emotions in video. To overcome the problem, a video facial expression recognition method using spatiotemporal recurrent neural network and feature fusion is proposed. Firstly, the video is preprocessed. Then, the double-layer cascade structure is used to detect a face in a video image. In addition, two deep convolutional neural networks are used to extract the time-domain and airspace facial features in the video. The spatial convolutional neural network is used to extract the spatial information features from each frame of the static expression images in the video. The temporal convolutional neural network is used to extract the dynamic information features from the optical flow information from multiple frames of expression images in the video. A multiplication fusion is performed with the spatiotemporal features learned by the two deep convolutional neural networks. Finally, the fused features are input to the support vector machine to realize the facial expression classification task. The experimental results on cNTERFACE, RML, and AFEW6.0 datasets show that the recognition rates obtained by the proposed method are as high as 88.67%, 70.32%, and 63.84%, respectively. Comparative experiments show that the proposed method obtains higher recognition accuracy than other recently reported methods.

소셜 미디어 사용자가 제작한 광고 효과: 정보형과 오락형 동영상 비교를 중심으로 (A study on the effectiveness of video advertisements Generated by social media users: Centered on Information and Entertainment Video Comparison)

  • 장녕;추장운;김치용
    • 한국멀티미디어학회논문지
    • /
    • 제25권4호
    • /
    • pp.628-639
    • /
    • 2022
  • Starting from the content types of video advertisements produced by social media users, this paper conducts a comparative study on the information and entertainment video advertising effects of the same product, to help video producers achieve better advertising effects when facing different products. Experimental results show that. In Garment, the information is higher than that of entertainment in terms of advertising cognition. In terms of advertising attitude and purchase intention, the entertainment is higher than that of information; in food, the entertainment is higher than that of information in terms of advertising cognition, advertising attitude, and purchase intention; in household items, the entertainment is higher than that of information; in terms of advertising cognition and purchase intention, the information is higher than that of entertainment; in terms of advertising attitude, the entertainment is higher than that of information; in cosmetics, the information is higher than that of entertainment in terms of advertising cognition; in terms of advertising attitude and purchase intention, the entertainment is higher than that of the information; in digital accessories, the information is higher than that of the entertainment in terms of advertising cognition, advertising attitude and purchase intention.

효율적인 국방 영상정보 전송을 위한 확장비디오코딩(SVC) 및 균형선택 알고리즘 기반의 피투피(P2P) 비디오 스트리밍 기법 연구 (A Scalable Video Coding(SVC) and Balanced Selection Algorithm based P2P Streaming Technique for Efficient Military Video Information Transmission)

  • 신규용;김경민;이종관
    • 융합보안논문지
    • /
    • 제19권4호
    • /
    • pp.87-96
    • /
    • 2019
  • 최근 영상 장비와 기술이 발전함에 따라 우리 군에서도 작전지역에 대한 정보를 획득하고, 효율적인 지휘통제에 활용하기 위해 수많은 영상정보가 생산되어 활용되고 있다. 이때 현재 군내에서 활용하고 있는 영상 재생장비는 저성능의 전술용 다기능 단말기(TMFT)로부터 고성능의 영상서버에 이르기까지 매우 다양하고, 영상이 전송되는 네트워크 또한 저속의 전술정보통신체계(TICN)로부터 초고속의 국방광대역통합망(M-BcN)에 이르기까지 다양하다. 따라서 이기종(異機種) 통신장비 및 네트워크 환경에서 국방 영상정보를 효율적으로 전송할 수 있는 스트리밍 기법이 필요하다. 이 문제를 해결하기 위해 본 논문에서는 확장비디오코딩(SVC) 및 균형선택 알고리즘 기반의 피투피(P2P) 스트리밍 기법을 제안한다. 비토렌트 기반의 시뮬레이터를 활용한 성능분석결과 우리가 제안하는 균형선택 알고리즘 기반의 스트리밍 기법은 순차선택이나 희소선택 알고리즘에 비해 우수한 성능을 보였다.

멀티미디어 서비스를 위한 동영상 이미지의 특징정보 분석 시스템에 관한 연구 (A Study on Feature Information Parsing System of Video Image for Multimedia Service)

  • 이창수;지정규
    • Journal of Information Technology Applications and Management
    • /
    • 제9권3호
    • /
    • pp.1-12
    • /
    • 2002
  • Due to the fast development in computer and communication technologies, a video is now being more widely used than ever in many areas. The current information analyzing systems are originally built to process text-based data. Thus, it has little bits problems when it needs to correctly represent the ambiguity of a video, when it has to process a large amount of comments, or when it lacks the objectivity that the jobs require. We would like to purpose an algorithm that is capable of analyze a large amount of video efficiently. In a video, divided areas use a region growing and region merging techniques. To sample the color, we translate the color from RGB to HSI and use the information that matches with the representative colors. To sample the shape information, we use improved moment invariants(IMI) so that we can solve many problems of histogram intersection caused by current IMI and Jain. Sampled information on characteristics of the streaming media will be used to find similar frames.

  • PDF