• 제목/요약/키워드: Video clip

검색결과 106건 처리시간 0.032초

유튜브 동영상을 활용한 화학 I 수업에 대한 학생들의 인식 (Students' Perceptions on Chemistry I Class Using YouTube Video Clips)

  • 전화영;홍훈기
    • 대한화학회지
    • /
    • 제54권4호
    • /
    • pp.465-470
    • /
    • 2010
  • 시각적 표상을 선호하는 현대의 학생들에게 수업 내용과 일치도가 높은 흥미로운 동영상을 이용하는 것은 과학 수업에의 선호도를 높일 수 있는 좋은 방법 중의 하나이다. 최근 인터넷을 통해 쉽게 접근할 수 있는 동영상 사이트로 여러 가지가 있는데, 그 중 가장 대규모의 사이트가 유튜브이다. 본 연구에서는 고등학교 2학년의 화학1 수업에서 학생들로 하여금 매 수업마다 수업 내용 관련 동영상을 조사하여 한 개씩 발표하도록 하는 수행 평가를 실시한 다음 학기 말에 학생 설문 조사를 통해 유튜브 동영상 활용 수업에 대한 반응을 조사하였다. 연구 결과, 학생들은 교과서 위주의 수업에 비해 유튜브 사용 수업에 대한 선호도와 흥미도가 높았고, 교과 내용과의 연결도가 높으면서 신기한 실험 동영상에 대한 선호도가 높았다. 또한, 동영상의 흥미 요소로 실험을, 학습 도움 요소로 실제 현상을 보는 것을 들었으며, 어려운 점으로는 동영상의 영어 해석을 들었다.

LTE 무선통신을 활용한 TV 생방송 중계화면 안정화 비트레이트 조정 연구 (Optimizing Bit Rate Control for Realtime TV Broadcasting Transmission using LTE Network)

  • 권만우;임현찬
    • 한국멀티미디어학회논문지
    • /
    • 제21권3호
    • /
    • pp.415-422
    • /
    • 2018
  • Advances of telecommunication technology bring various changes in journalism field. Reporters started to gather, edit, and transmit content to main server in media company using hand-held smart media and notebook computer. This paper tried to testify valid bit-rate of visual news content using LTE network and mobile phone. Field news like natural disasters need real-time transmission of video content. But broadcasting company normally use heavy ENG system and transmission satellite trucks. We prepared and experimented different types of visual content that has different bit-rates. Transmission tool was LU-60HD mobile system of LiveU Corporation. Transmission result shows that bit-rate of 2Mbps news content is not suitable for broadcasting and VBR (Variable Bit Rate) transmission has better definition quality than CBR (Constant Bit Rate) method. Three different bit-rate of VBR transmission result shows that 5Mbps clip has better quality than 1Mbps and 3Mbps. The higher bit-rate, the better video quality. But if the content has much movements, that cause delay and abnormal quality of video. So optimizing the balance between stability of signal and quality of bit-rate is crucial factor of real-time broadcasting news gathering business.

영상에 의해 유발된 부정적 감정 상태에 따른 전두엽 감마대역 신경동기화 (Frontal Gamma-band Hypersynchronization in Response to Negative Emotion Elicited by Films)

  • 김현;최종두;최정우;여동훈;서부경;허성진;김경환
    • 대한의용생체공학회:의공학회지
    • /
    • 제39권3호
    • /
    • pp.124-133
    • /
    • 2018
  • We tried to investigate the changes in cortical activities according to emotional valence states during watching video clips. We examined the neural basis of two emotional states (positive and negative) using spectral power analysis and brain functional connectivity analysis of cortical current density time-series reconstructed from high-density electroencephalograms (EEGs). Fifteen healthy participants viewed a series of thirty-two 2 min emotional video clips. Sixty-four channel EEGs were recorded. Distributed cortical sources were reconstructed using weighted minimum norm estimation. The temporal and spatial characteristics of spectral source powers showing significant differences between positive and negative emotion were examined. Also, correlations between gamma-band activities and affective valence ratings were determined. We observed the changes of cortical current density time-series according to emotional states modulated by video clip. Gamma-band activities showed significant difference between emotional states for thirty seconds at the middle and the latter half of the video clip, mainly in prefrontal area. It was also significantly anti-correlated with the self-ratings of emotional valence. In addition, the gamma-band activities in frontal and temporal areas were strongly phase-synchronized, more strongly for negative emotional states. Cortical activities in frontal and temporal areas showed high spectral power and inter-regional phase synchronization in gamma-band during negative emotional states. It is inferred that the higher amygdala activation induced by negative stimuli resulted in strong emotional effects and caused strong local and global synchronization of neural activities in gamma-band in frontal and temporal areas.

비디오 정합을 위한 오디널 특징의 유일성 및 강건성 분석 (Analysis of Uniqueness and Robustness Properties of Ordinal Signature for Video Matching)

  • 정광민;김정엽;현기호;하영호
    • 한국멀티미디어학회논문지
    • /
    • 제9권5호
    • /
    • pp.576-584
    • /
    • 2006
  • 내용기반 비디오 정합은 원본의 클립에서 특징(signature)을 구한 후 복사본의 특징과 비교하여 유사도를 측정한다. 특히 정확한 위치의 프레임을 정합하는 것은 매우 중요하며 원본과 복사본의 프레임율, 잡음, 해상도, 압축형식에 따라 정합 율이 달라질 수 있다. 비디오 특징 중 오디널(ordinal) 특징은 일반적으로 우수한 정합특징을 나타내고 있으나 비디오 특징의 구별 능력을 나타내는 유일성 실험(uniqueness test)과 잡음에 대한 내성을 나타내는 강건성 실험(robustness test)이 중요한 요소로 고려되지 않았다. Hua등은 유일성 실험에서 해상도, 압축형식 등을 고려하였지만 강건성 실험에서 영상에 잡음을 첨가하는 대신 압축 형식이 변환된 영상을 사용하였다. 본 논문에서는 오디널 특정의 유일성 분석과 함께 실질적인 잡음 모텔을 도입하여 오디널 특징의 강건성 실험 방법을 제안하고 성능을 분석하였다.

  • PDF

재구성이 가능한 멀티스토리 3D 애니메이션 (Reusable Multi-story 3D Animation)

  • 김성래;김호성;탁지영;박지은;임선혁;김수산나;이규선;이지현
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2007년도 추계 종합학술대회 논문집
    • /
    • pp.238-242
    • /
    • 2007
  • 기존 UCC웹사이트에서는 사용자가 완성한 콘텐츠를 게시할 뿐 UCC의 소스나 이를 재구성할 수 있는 플랫폼을 제공하지 못하여 일반 사용자들이 새로운 콘텐츠를 제작하기 어렵다. 본 연구에서는 기존의 영상을 장면단위로 제공하고 User가 재구성함으로써 또 다른 내용의 콘텐츠를 제작할 수 있는 플랫폼을 개발하고 이에 적합한 다중 이야기 구조의 3D애니메이션을 제작해보았다. 제공된 영상을 User가 쉽게 재구성하기 위해서는 영상의 검색이 필수적이다. 영상의 용이한 검색을 위해 영상에 대한 내용설명과 영상 정보를 분류하였다. 동영상은 그 특성에 따라 하나의 단어로 표현하기가 모호하다. 그렇기 때문에 사용자가 원하는 요소를 최대한 반영하여 해당장면이 포함하고 있는 모든 요소를 검색할 수 있도록 제시된 카테고리를 중복 선택하여 검색할 수 있다. 검색된 장면 중 원하는 특정구간을 선택할 수 있으며, 선택된 장면들을 원하는 순서대로 나열하여 하나의 이야기를 만들어내고, 자막 및 BGM 등을 삽입할 수도 있다. 완성된 동영상은 카테고리, 신규, 인기별로 분류된다. 이러한 기획의도에 부합하는 3D 애니메이션으로 헝겊인형을 캐릭터로 인형세계에서 벌어지는 사건들을 모은 멀티스토리를 기획하고 제작해보았다. 이러한 시도는 뮤직비디오나 드라마, 영화, 광고 등 영상 미디어 분야의 새로운 마케팅 수단으로서의 활용될 수 있을 것이다.

  • PDF

음원 데이터를 활용한 3D 애니메이션 카메라 아웃포커싱 표현 연구 (A Study on Sound Synchronized Out-Focusing Techniques for 3D Animation)

  • 이준상;이임건
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권2호
    • /
    • pp.57-65
    • /
    • 2014
  • 3D 애니메이션에서 사운드 효과는 몰입감을 증대시키는 주요한 요인이다. 특히 사운드와 영상 사이의 상호작용은 의미의 전달을 극명하게 만드는 하나의 표현방식으로 영상제작에서 여러 가지 방식으로 응용된다. 사운드와 영상의 상호 작용 중에 아웃포커싱 기법은 실사 영상과 3D 애니메이션에서 많이 사용하는 기법으로 정지된 물체에 역동성을 가미할 수 있는 표현 방법이다. 그러나 실사촬영과는 달리 3D 애니메이션의 경우 뮤직비디오나 폭파 장면등에 아웃포커싱을 구현하는 것은 까다로운 작업이다. 더욱이 음원의 리듬에 동기화된 영상효과를 표현하기 위해서는 키프레임 조작을 수동으로 해야 하므로 매우 번거롭다. 본 연구는 음원데이터를 활용하여 영상과 이상적인 결합을 살펴보고 카메라의 피사계 심도를 음원에 동기화시켜 장면을 아웃포커싱하는 새로운 제작 기법을 제안한다.

런치패드를 활용한 융복합 영상시스템 연구 - 스텝시켄서(Step Squencer)를 중심으로 (A study on convergence interactive video system utilizing Launch Pad - Focusing on Step Sequencer)

  • 오승환
    • 디지털융복합연구
    • /
    • 제15권10호
    • /
    • pp.445-454
    • /
    • 2017
  • 최근 일반인을 위해 악기를 다루지 못하더라도 앱이나 웹에서 마치 놀이를 하듯이 연주하는 방법이 각광받고 있다. 그 이유는 자연스러운 우연성(randomness)의 연주 형태를 지니고 있기 때문이라고 판단된다. 따라서 관조적 관람객을 유인시키고 능동적으로 변화시키는 '우연 작동법'을 런치패드를 활용하여 이론적 배경과 사례분석을 통해 영상시스템을 개발, 제시하였다. 스텝시켄서 개발은 외부 프로그램으로 연결시켜 영상시스템을 스텝시켄서로 구현하는 방법과 모션 클립(Clip)들로 만들어 런치패드의 키(Key)마다 배치하여 실행시키는 키보드 런치형으로 구분하여 2가지 타입으로 개발하였으며, 최종 영상시스템을 통해 파생된 최적화 문제점과 해결책을 제시하였다.

패션필름의 형식과 내용표현의 유형 (The Type of Format and Content Expression of Fashion Film)

  • 장예완;서승희
    • 패션비즈니스
    • /
    • 제21권2호
    • /
    • pp.45-60
    • /
    • 2017
  • This study analyzed the type of format and content expression of fashion films, from the perspective of promotion and advertisement. For the analysis, a reference research and case study were employed. Our results showed that the format type of fashion films are categorized as movie type; films that convey a story through lines and provide an interesting element as well as artistic value;, video clip films which consist of intriguing sections in a short-length film;, animation type; films that deliver a message through the virtualized world and a created character;, and music video fashion films that use the musical technique to convey how the story of fashion film is structured. The type of content expression of fashion films are divided into direct expression, which exposes the collection of clothes and accessories directly in fashion films;, metaphorical type; which visually delivers the brand image and product;, and the documentary type; that delivers the brand story and historical facts related to the brand. The study on the analysis of fashion films through type of format and content expression shows how fashion brands effectively and strongly promote their products, enhance their brand values, and increase an interest among the customers.

비디오 영상에서 2차원 자세 추정과 LSTM 기반의 행동 패턴 예측 알고리즘 (Behavior Pattern Prediction Algorithm Based on 2D Pose Estimation and LSTM from Videos)

  • 최지호;황규태;이상준
    • 대한임베디드공학회논문지
    • /
    • 제17권4호
    • /
    • pp.191-197
    • /
    • 2022
  • This study proposes an image-based Pose Intention Network (PIN) algorithm for rehabilitation via patients' intentions. The purpose of the PIN algorithm is for enabling an active rehabilitation exercise, which is implemented by estimating the patient's motion and classifying the intention. Existing rehabilitation involves the inconvenience of attaching a sensor directly to the patient's skin. In addition, the rehabilitation device moves the patient, which is a passive rehabilitation method. Our algorithm consists of two steps. First, we estimate the user's joint position through the OpenPose algorithm, which is efficient in estimating 2D human pose in an image. Second, an intention classifier is constructed for classifying the motions into three categories, and a sequence of images including joint information is used as input. The intention network also learns correlations between joints and changes in joints over a short period of time, which can be easily used to determine the intention of the motion. To implement the proposed algorithm and conduct real-world experiments, we collected our own dataset, which is composed of videos of three classes. The network is trained using short segment clips of the video. Experimental results demonstrate that the proposed algorithm is effective for classifying intentions based on a short video clip.

인물 개체 분할을 위한 맥락-의존적 비디오 데이터 보강 (Context-Dependent Video Data Augmentation for Human Instance Segmentation)

  • 전현진;이종훈;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권5호
    • /
    • pp.217-228
    • /
    • 2023
  • 비디오 개체 분할은 비디오를 구성하는 영상 프레임 각각에 대해 관심 개체 분할을 수행해야 할 뿐만 아니라, 해당 비디오를 구성하는 프레임 시퀀스 전체에 걸쳐 개체들에 대한 정확한 트래킹을 요구하기 때문에 난이도가 높은 기술이다. 특히 드라마 비디오에서 인물 개체 분할은 다양한 장소와 시간대에서 상호 작용하는 복수의 주요 등장인물들에 대한 정확한 트래킹을 요구하는 특징을 가지고 있다. 또한, 드라마 비디오 인물 개체분할은 주연 인물들과 조연 혹은 보조 출연 인물들 간의 등장 빈도에 상당한 차이가 있어 일종의 클래스 불균형 문제도 있다. 본 논문에서는 미생 드라마 비디오들을 토대로 구축한 인물 개체 분할 데이터 집합인 MHIS를 소개하고, 등장인물 클래스 간의 심각한 데이터 불균형 문제를 효과적으로 해결하기 위한 새로운 비디오 데이터 보강 기법인 CDVA를 제안한다. 기존의 비디오 데이터 보강 기법들과는 달리, 새로운 CDVA 보강 기법은 비디오들의 시-공간적 맥락을 충분히 고려해서 목표 인물이 삽입되어야 할 배경 클립 내의 위치를 결정함으로써, 보다 더 현실적인 보강 비디오들을 생성한다. 따라서 본 논문에서 제안하는 새로운 비디오 데이터 보강 기법인 CDVA는 비디오 개체 분할을 위한 심층 신경망 모델의 성능을 효과적으로 향상시킬 수 있다. 본 논문에서는 MHIS 데이터 집합을 이용한 다양한 정량 및 정성 실험들을 통해, 제안 비디오 데이터 보강 기법의 유용성과 효과를 입증한다.