• 제목/요약/키워드: video clips

검색결과 196건 처리시간 0.03초

유튜브 동영상을 활용한 화학 I 수업에 대한 학생들의 인식 (Students' Perceptions on Chemistry I Class Using YouTube Video Clips)

  • 전화영;홍훈기
    • 대한화학회지
    • /
    • 제54권4호
    • /
    • pp.465-470
    • /
    • 2010
  • 시각적 표상을 선호하는 현대의 학생들에게 수업 내용과 일치도가 높은 흥미로운 동영상을 이용하는 것은 과학 수업에의 선호도를 높일 수 있는 좋은 방법 중의 하나이다. 최근 인터넷을 통해 쉽게 접근할 수 있는 동영상 사이트로 여러 가지가 있는데, 그 중 가장 대규모의 사이트가 유튜브이다. 본 연구에서는 고등학교 2학년의 화학1 수업에서 학생들로 하여금 매 수업마다 수업 내용 관련 동영상을 조사하여 한 개씩 발표하도록 하는 수행 평가를 실시한 다음 학기 말에 학생 설문 조사를 통해 유튜브 동영상 활용 수업에 대한 반응을 조사하였다. 연구 결과, 학생들은 교과서 위주의 수업에 비해 유튜브 사용 수업에 대한 선호도와 흥미도가 높았고, 교과 내용과의 연결도가 높으면서 신기한 실험 동영상에 대한 선호도가 높았다. 또한, 동영상의 흥미 요소로 실험을, 학습 도움 요소로 실제 현상을 보는 것을 들었으며, 어려운 점으로는 동영상의 영어 해석을 들었다.

2D Adjacency Matrix Generation using DCT for UWV contents

  • Li, Xiaorui;Lee, Euisang;Kang, Dongjin;Kim, Kyuheon
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.39-42
    • /
    • 2016
  • Since a display device such as TV or signage is getting larger, the types of media is getting changed into wider view one such as UHD, panoramic and jigsaw-like media. Especially, panoramic and jigsaw-like media is realized by stitching video clips, which are captured by different camera or devices. In order to stich those video clips, it is required to find out 2D Adjacency Matrix, which tells spatial relationships among those video clips. Discrete Cosine Transform (DCT), which is used as a compression transform method, can convert the each frame of video source from the spatial domain (2D) into frequency domain. Based on the aforementioned compressed features, 2D adjacency Matrix of images could be found that we can efficiently make the spatial map of the images by using DCT. This paper proposes a new method of generating 2D adjacency matrix by using DCT for producing a panoramic and jigsaw-like media through various individual video clips.

  • PDF

360° 가상현실 동영상과 일반 동영상 교육 콘텐츠의 경험인식 비교 분석 (Comparison of experience recognition in 360° virtual reality videos and common videos)

  • 정은경;정지연
    • 한국응급구조학회지
    • /
    • 제23권3호
    • /
    • pp.145-154
    • /
    • 2019
  • Purpose: This study simulates cardiac arrest situations in 360° virtual reality video clips and general video clips, and compares the correlations between educational media and experience recognition. Methods: Experimental research was carried out on a random control group (n=32) and experimental group (n=32) on March 20, 2019. Results: The groups where participants were trained with the 360° virtual reality video clips and a higher score of experience recognition (p=.047) than the group where participants were trained with the general video clips. Moreover, the subfactors of experience recognition including the sense of presence and vividness (p=.05), immersion (p<.05). experience (p<.01), fantasy factor (p<.05). and content satisfaction (p<.05) were positively correlated. Conclusion: Enhancing vividness and the sense of presence when developing virtual reality videos recorded with a 360° camera is thought to enable experience recognition without any direct interaction.

네이버TV캐스트 클립영상의 TV 방송프로그램에 대한 인지된 대체가능성 (Perceived Substitutability between Video Clips of Naver TV Cast and Regular TV program)

  • 함민정;이상우
    • 한국콘텐츠학회논문지
    • /
    • 제19권6호
    • /
    • pp.92-104
    • /
    • 2019
  • TV를 통한 방송프로그램 시청 등 수동적인 태도로 미디어를 이용하던 과거와 달리 현대의 시청자는 원하는 시간에 원하는 장소에서 원하는 콘텐츠를 본다. 이러한 비선형적 시청행태에 적합한 영상 콘텐츠 형태로서 클립영상이 있다. 클립영상은 기존 방송프로그램을 5~10개로 분절하거나 처음부터 짧은 길이로 기획한 영상 콘텐츠이다. 선형적 미디어 환경에서 비선형적 미디어 환경으로 변화하면서 여러 미디어 간 경쟁이 치열해지고 있으며, 기존 미디어의 콘텐츠가 타 미디어에서 다른 형태로 제공되고 있다. 미디어와 콘텐츠 간 경쟁이 치열해지는 시점에서 이 연구는 네이버TV캐스트의 클립영상 이용자를 대상으로 설문을 진행하여, 클립영상 이용량, 클립영상 이용동기, 클립영상 유형별 시청정도가 클립영상의 TV 방송프로그램에 대한 인지된 대체가능성에 어떠한 영향을 주는지 살펴보았다. 연구결과, 클립영상 이용량, 이용동기의 대인관계, 선택적이용, 화제성 요인과 웹전용 콘텐츠의 시청정도가 클립영상의 TV 방송프로그램에 대한 인지된 대체가능성에 유의미한 영향을 주었다.

Virtual Reality to Help Relieve Travel Anxiety

  • Ahn, Jong-Chang;Cho, Sung-Phil;Jeong, Soon-Ki
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권6호
    • /
    • pp.1433-1448
    • /
    • 2013
  • This study presents empirical evidence of the benefit of viewing narrative video clips on embedded virtual reality (VR) websites of hotels to relieve travel anxiety. As the effectiveness of using VR functions to relieve travel anxiety has been shown, we proposed that a VR website enhanced with narrative video clips could relieve travelers' anxiety about accommodations by showing the important aspects of a hotel. Thus, we created a website with a narrative video showing the escape route from a hotel room and another narrative video showing the surrounding neighborhood. We then conducted experiments by having human subjects explore the enhanced VR website and fill out a questionnaire. The results confirmed our hypothesis that there is a statistically significant relationship between relief from travel anxiety and the use of narrative videos on embedded VR websites of hotels.

샷 경계 검출을 이용한 영상 클립 생성 (Generation of Video Clips Utilizing Shot Boundary Detection)

  • 김혁만;조성길
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제7권6호
    • /
    • pp.582-592
    • /
    • 2001
  • 대용량 영상을 다루는 디지털 비디오 라이브러리나 웹 방송에서는 영상 색인이 매우 중요한 역할을 하며, 이는 영상을 내용 단위로 분할하는 알고리즘에 기반한다. 본 논문에서 구현된 V2Web Studio는 영상 색인을 지원하는 시스템으로서, 샷 경계 검출 알고리즘을 이용한 영상 클립 생성 시스템이다. V2Web Studio는 영상 클립 생성 과정을 1) 영상 신호를 분석하여 샷 경계를 자동 검출하는 단계, 2) 검출된 결과에 포함될 수 있는 오류를 수작업으로 제거하는 단계, 3) 물리적인 샷 경계를 논리적인 계층구조로 모델링하는 단계, 4) 계층구조로 모델링된 각 모델링 인스턴스를 다양한 표준 압축 포맷으로 생성하는 단계로 구분하고, 각 단계에 해당하는 작업은 샷 검출기, 샷 검증기, 영상 모델기, 클립 생성기라는 독립적인 소프트웨어 도구로 구현하였다.

  • PDF

Multimodal Biometrics Recognition from Facial Video with Missing Modalities Using Deep Learning

  • Maity, Sayan;Abdel-Mottaleb, Mohamed;Asfour, Shihab S.
    • Journal of Information Processing Systems
    • /
    • 제16권1호
    • /
    • pp.6-29
    • /
    • 2020
  • Biometrics identification using multiple modalities has attracted the attention of many researchers as it produces more robust and trustworthy results than single modality biometrics. In this paper, we present a novel multimodal recognition system that trains a deep learning network to automatically learn features after extracting multiple biometric modalities from a single data source, i.e., facial video clips. Utilizing different modalities, i.e., left ear, left profile face, frontal face, right profile face, and right ear, present in the facial video clips, we train supervised denoising auto-encoders to automatically extract robust and non-redundant features. The automatically learned features are then used to train modality specific sparse classifiers to perform the multimodal recognition. Moreover, the proposed technique has proven robust when some of the above modalities were missing during the testing. The proposed system has three main components that are responsible for detection, which consists of modality specific detectors to automatically detect images of different modalities present in facial video clips; feature selection, which uses supervised denoising sparse auto-encoders network to capture discriminative representations that are robust to the illumination and pose variations; and classification, which consists of a set of modality specific sparse representation classifiers for unimodal recognition, followed by score level fusion of the recognition results of the available modalities. Experiments conducted on the constrained facial video dataset (WVU) and the unconstrained facial video dataset (HONDA/UCSD), resulted in a 99.17% and 97.14% Rank-1 recognition rates, respectively. The multimodal recognition accuracy demonstrates the superiority and robustness of the proposed approach irrespective of the illumination, non-planar movement, and pose variations present in the video clips even in the situation of missing modalities.

스포츠의류 마찰음 정보 제공에 따른 인터넷 구매자의 감성평가 (Sensibility Evaluation of Internet Shoppers with the Sportswear Rustling Sounds)

  • 백경랑;조길수
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 춘계학술대회
    • /
    • pp.177-180
    • /
    • 2009
  • This study investigates the perception of different fabrics by consumers when provided with a video clip with rustling sounds of the fabric. We utilized sportswear products that are currently on the market and evaluated the emotional response of internet shoppers by measuring the physiological and psychological responses. Three kinds of vapor-permeable water-repellent fabric were selected to generate video clips each containing the fabric rustling sound and images of exercise activities wearing the sportswear made of the respective fabric. The new experimental website contained the video clips and was compared with the original website which served as a control. 30 subjects, who had experience to buy clothing online, took part in the physiological and psychological response to the video clip. Electroen-cephalography (EEG) was used to measure the physiological response while the psychological response consisted of evaluating accurate perception of the fabric, satisfaction, and consumer interest. When we offered video clips with fabric's rustling sound on the website, subjects answered they could get more accurate and rapid information to decide to purchase the products than otherwise they do the shopping without such information. However, such rustling sounds somewhat annoy customers, as proved psychological and physiological response. Our study is a critical step in evaluating the consumer's emotional response to sportswear fabric which will promote selling frequency, reduce the return rate and aid development of new sportswear fabric further evolution of the industry.

  • PDF

시청자의 후각정보 수용 특성에 따른 영상분류와 실감증대를 위한 제안 (Video Classification Based on Viewer Acceptability of Olfactory Information and Suggestion for Reality Improvement)

  • 이국희;최지훈;안충현;이형철;김신우
    • 감성과학
    • /
    • 제16권2호
    • /
    • pp.207-220
    • /
    • 2013
  • 영상실감증대를 위한 시각, 청각, 촉각정보의 제시방식에 대해서는 많은 진보가 이루어 졌다. 반면 후각은 정의하기 어렵고 다루기 까다롭기 때문에 관련연구를 찾아보기 어렵다. 본 연구에서는 후각정보를 통한 영상실감증대 연구의 첫걸음으로 후각정보에 대한 사용자 수용도를 조사한 후 이에 근거하여 다양한 영상을 분류하였다. 이를 위해 먼저 영상에 냄새가 존재하는지 (냄새존재여부), 그 냄새가 실감을 증대시키는지 (실감증대효과), 영상과 함께 해당 냄새를 경험하고 싶은지 (냄새제시선호)라는 세가지 질문을 선정하였다. 각 질문들에 높은 혹은 낮은 점수를 받을 만한 다양한 장르의 영상 (51)개를 수집한 후, 참가자들에게 하나씩 영상을 시청하게 한 후 위의 세가지 질문에 대해 7점 척도로 평정하게 하였다. 영상분류를 위해 두 질문씩 쌍으로 묶어 각 질문의 척도를 2차원 평면의 X, Y축으로 설정한 후 평정값을 이용하여 영상분류를 위한 산포도를 구성하였다. 2차원 평면의 서로 다른 사분면에 위치한 영상군집들은 영상실감증대를 위한 후각정보 제시에 중요한 시사점을 줄 것으로 기대한다.

  • PDF