• 제목/요약/키워드: Korean Video Content

검색결과 581건 처리시간 0.031초

영상매체에 나타난 도시생태환경 콘텐츠 분석 및 환경교육 활용 가능성에 관한 연구 (A study on the environmental education based on the analysis of urban ecological environment contents appeared in video media)

  • 이영범
    • 교육녹색환경연구
    • /
    • 제10권3호
    • /
    • pp.17-26
    • /
    • 2011
  • National efforts responding to climate change is directly connected to competitiveness of the urban environment. Practice in the daily life of the individual citizens is prerequisite for the paradigm shift that can be made by the reduction of the city's energy consumption and low-carbon green growth. Therefore, the comprehensive understanding combined with the educational programs is required on the issue of the ecological environment and the urban environment competitiveness. In this paper, the meaning and role of urban ecological environment will be researched first. it also takes a look at the content of curriculum and analyses domestic policies related to environmental education of primary and middle schools. In addition, video documentary on urban ecological environment will be analyzed for the development of educational media dealing with environmental training in schools. Consequently, urban ecological environment shown in video media content will be identified and the advantage of this possibility as a medium of education is to be proposed.

객체의 시공간적 움직임 정보를 이용한 내용 기반 비디오 검색 알고리즘 (Content-Based Video Retrieval Algorithms using Spatio-Temporal Information about Moving Objects)

  • 정종면;문영식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권9호
    • /
    • pp.631-644
    • /
    • 2002
  • In this paper efficient algorithms for content-based video retrieval using motion information are proposed, including temporal scale-invariant retrieval and temporal scale-absolute retrieval. In temporal scale-invariant video retrieval, the distance transformation is performed on each trail image in database. Then, from a given que교 trail the pixel values along the query trail are added in each distance image to compute the average distance between the trails of query image and database image, since the intensity of each pixel in distance image represents the distance from that pixel to the nearest edge pixel. For temporal scale-absolute retrieval, a new coding scheme referred to as Motion Retrieval Code is proposed. This code is designed to represent object motions in the human visual sense so that the retrieval performance can be improved. The proposed coding scheme can also achieve a fast matching, since the similarity between two motion vectors can be computed by simple bit operations. The efficiencies of the proposed methods are shown by experimental results.

고차원 벡터 데이터 색인을 위한 시그니쳐-기반 Hybrid Spill-Tree의 설계 및 성능평가 (Design and Performance Analysis of Signature-Based Hybrid Spill-Tree for Indexing High Dimensional Vector Data)

  • 이현조;홍승태;나소라;장유진;장재우;심춘보
    • 인터넷정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.173-189
    • /
    • 2009
  • 최근 UCC를 중심으로 동영상 데이터에 대해 사람들의 관심이 증가하고 있다. 따라서 동영상 데이터의 내용-기반 검색을 지원하는 효율적인 색인 기법이 요구된다. 그러나 Hybrid Spill-Tree를 제외한 대부분의 색인 기법들은 대용량의 고차원 데이터를 다루는데 비효율적이다. 본 논문에서는 동영상 데이터의 내용-기반 검색을 지원하기 위한 효율적인 고차원 색인 기법을 제안한다. 제안하는 고차원 색인 기법은 기존 Hybrid Spill-Tree을 기반으로 새롭게 제안하는 클러스터링 방법과 시그니쳐를 이용한 데이터 저장 방법을 결합하여 확장된 색인 기법이다. 또한 제안하는 시그니쳐-기반 고차원 색인 기법이 기존 M-Tree 및 Hybrid Spill-Tree에 비해 성능이 우수함을 보인다.

  • PDF

실사 다면영상 촬영에서의 카메라 축 간격에 대한 연구 (A Study on the Spacing of the Camera Axis of the Video Shooting Multi-planar live-action)

  • 백승호;최원호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2014년도 춘계학술대회
    • /
    • pp.529-530
    • /
    • 2014
  • 다면영상은 광고, 전시, 홍보 등 여러 분야에서 활용되고 있으나, 그 속에 적용되는 콘텐츠는 합성, 그래픽 등의 영상이 대부분이다. 바로 실사 영상으로 다면을 촬영하기가 매우 어려울 뿐만 아니라 촬영단계에서의 문제점들을 후반작업에서도 보완하기 어렵기 때문이다. 이에 본 연구에서는 촬영과 후반작업에서의 문제점을 파악한 후, 개선방안을 실험하여 검증하고자 한다. 구체적인 연구방법으로는 카메라 간 거리에 따라 변화하는 영상의 가장자리에서 발생하는 왜곡을 최소화하기 위한 거리를 구하는 실험을 진행하고자 한다. 이를 토대로 다면영상의 매체적 탁월성을 보다 효과적으로 활용할 수 있는 실사기반의 콘텐츠 생산에 기여하고자 한다.

  • PDF

동영상 전송을 위한 내용기반 동적 대역폭 조절 (Content-based Dynamic Bandwidth Control for Video Transmission)

  • 김태용;최종수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권7호
    • /
    • pp.901-910
    • /
    • 2004
  • 본 연구에서는 DCT(Discrete Cosine Transform) 영역에서 불연속 특징을 검출하여 내용기반의 동적 비디오 전송을 위한 트랜스코딩 방법을 제안한다. 이 방법에 의하여 동영상 스트림 각각의 DCT블록은 내부의 대표적인 불연속의 크기에 따라 다르게 트랜스코딩되어 전송되며, 실험에서 같은 대역폭을 유지하면서 기존의 저주파 통과 필터에 의한 방법보다 내용기반 방법이 더 좋은 비디오 화질을 나타내며 픽셀 영역에서의 방법보다 처리 시간이 빠름을 나타낸다.

Analysis of Aggregated HTTP-based Video Traffic

  • Biernacki, Arkadiusz
    • Journal of Communications and Networks
    • /
    • 제18권5호
    • /
    • pp.826-836
    • /
    • 2016
  • Increase of hypertext transfer protocol (HTTP)-based video popularity causes that broadband and Internet service providers' links transmit mainly multimedia content. Network planning, traffic engineering or congestion control requires understanding of the statistical properties of network traffic; therefore, it is desirable to investigate the characteristic of traffic traces generated, among others, by systems which employ adaptive bit-rate streaming. In our work, we investigate traffic originating from 120 client-server pairs, situated in an emulated laboratory environment, and multiplexed onto a single network link. We show that the structure of the traffic is distinct from the structure generated by first and second generation of HTTP video systems, and furthermore, not similar to the structure of general Internet traffic. The obtained traffic exhibits negative correlations, anti-persistence, and its distribution function is skewed to the right. Furthermore, we show that the traffic generated by clients employing the same or similar play-out strategies is positively correlated and synchronised (clustered), whereas traffic originated from different play-out strategies shows negative or no correlations.

뉴스 비디오 브라우저 (News Video Browser)

  • 신성윤;강오형;김형진;장대현
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.336-337
    • /
    • 2021
  • 본 논문에서는 웹상에서 실시간 사용자 인터페이스를 통해 비디오 컨텐츠 검색과 비디오 브라우징을 모두 제공하는 비디오 브라우징 서비스를 제안한다. 영상 시퀀스의 장면 분할 및 키 프레임 추출을 위해 RGB 컬러 히스토그램과 𝛘2 히스토그램을 결합한 효율적인 장면 변경 감지 방법을 제안한다.

  • PDF

CNN-based Visual/Auditory Feature Fusion Method with Frame Selection for Classifying Video Events

  • Choe, Giseok;Lee, Seungbin;Nang, Jongho
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권3호
    • /
    • pp.1689-1701
    • /
    • 2019
  • In recent years, personal videos have been shared online due to the popular uses of portable devices, such as smartphones and action cameras. A recent report predicted that 80% of the Internet traffic will be video content by the year 2021. Several studies have been conducted on the detection of main video events to manage a large scale of videos. These studies show fairly good performance in certain genres. However, the methods used in previous studies have difficulty in detecting events of personal video. This is because the characteristics and genres of personal videos vary widely. In a research, we found that adding a dataset with the right perspective in the study improved performance. It has also been shown that performance improves depending on how you extract keyframes from the video. we selected frame segments that can represent video considering the characteristics of this personal video. In each frame segment, object, location, food and audio features were extracted, and representative vectors were generated through a CNN-based recurrent model and a fusion module. The proposed method showed mAP 78.4% performance through experiments using LSVC data.

저속 영상부호화를 위한 최적 프레임 율과 공간 양자화 결정 (An Optimal Selection of Frame Skip and Spatial Quantization for Low Bit Rate Video Coding)

  • Bu, So-Young;Lee, Byung-Uk
    • 한국통신학회논문지
    • /
    • 제29권6C호
    • /
    • pp.842-847
    • /
    • 2004
  • 본 논문에서는 낮은 전송률에서 공간적 시간적 해상도를 tradeoff하는 새로운 비디오 코딩 알고리듬을 제안한다. 먼저 영상의 움직임을 측정하여 최적의 frame rate를 선택한다. DCT quantization parameter (QP)는 앞에서 결정된 frame rate와 주어진 bit rate에 따라 결정한다. 마지막으로, 본 논문은 skip된 비디오 영상에 대해 단순하고 효과적인 distortion 측정방법을 제안한다. 실험결과, 제안한 알고리듬이 H.263 TMN5 보다 영상 품질이 2 ㏈ 정도 개선되었다.

Comparison of Postural Control Ability according to the Various Video Contents during Action Observations

  • Goo, Bon Wook;Lee, Mi Young
    • The Journal of Korean Physical Therapy
    • /
    • 제33권1호
    • /
    • pp.16-20
    • /
    • 2021
  • Purpose: This study examined the effects of the type of video contents used for action observations on the ability to control posture. Methods: The participants were 48 healthy adults. The two hands of the participants were crossed on both shoulders, and the other foot was placed in a straight line in front of the target to allow them to watch a video of the monitor. The videos were presented in random order with three video contents (natural, stable balance posture, and unstable balance posture) consisting of 30 seconds each. A 15-second resting time was given between each video. During action observation using various video content forms, the posture control ability was measured using a TekScan MetScan® system. Results: The results revealed statistically significant differences in the area of movement and the distance by COP and distance by the type of action-observation videos, and the distance by the anteroposterior and mediolateral sides (p<0.05). The stable balance posture and unstable balance posture video showed significant differences in the distance by the COP, anteroposterior, and mediolateral distance. (p<0.05) Conclusion: This study suggests that choosing the contents of the videos is important during action-observation training, and action-observation training can help improve postural control.