• 제목/요약/키워드: TED Talk

검색결과 2건 처리시간 0.016초

TED 활용 영어학습에 대한 대학생의 인식 분석: PLS-SEM 적용 (Analyzing College Students' Perception on English Classes Using TED : using PLS-SEM)

  • 주미란
    • 한국콘텐츠학회논문지
    • /
    • 제22권1호
    • /
    • pp.359-367
    • /
    • 2022
  • 이 연구의 목적은 TED talk을 활용한 영어수업에 대한 대학생들의 인식을 알아보고 TED talk이 수업 재료로의 활용이 적절한지를 살펴보는 것이다. 교양영어 과목으로 50-60분간 한 학기 온라인으로 수업을 진행하고 학습자의 영어학습동기, TED talk 활용학습에 대한 학습 흥미도, 학습 태도, 학습 만족도, 학습효과에 대한 설문조사를 시행하여 수집된 자료를 PLS-SEM 모델을 적용하여 SMART PLS 3을 이용하여 분석하였다. 분석결과는 다음과 같다. 첫째, 영어학습동기는 수업 태도에 통계적으로 유의미한 영향을 미쳤다. 그러나 학습만족도에는 영향을 미치지 않았다. 둘째, TED talk 활용 수업에 대한 흥미도는 학습태도와 만족도에 긍정적인 영향을 미쳤다. 셋째, 학습태도는 학습효과 인식에 긍정적인 영향을 미쳤다. 넷째, TED talk 활용 수업에 대한 만족도는 학습효과 인식에 긍정적인 영향을 미쳤다. 결론적으로, 대학 영어수업에서 TED talk은 학습자에게 흥미와 만족도를 높이고 적극적인 수업참여를 유도할 수 있으므로 긍정적인 학습효과가 있으며 영어교육에서 활용할만한 가치와 가능성이 있음을 시사한다.

A Comparative Study of Local Features in Face-based Video Retrieval

  • Zhou, Juan;Huang, Lan
    • Journal of Computing Science and Engineering
    • /
    • 제11권1호
    • /
    • pp.24-31
    • /
    • 2017
  • Face-based video retrieval has become an active and important branch of intelligent video analysis. Face profiling and matching is a fundamental step and is crucial to the effectiveness of video retrieval. Although many algorithms have been developed for processing static face images, their effectiveness in face-based video retrieval is still unknown, simply because videos have different resolutions, faces vary in scale, and different lighting conditions and angles are used. In this paper, we combined content-based and semantic-based image analysis techniques, and systematically evaluated four mainstream local features to represent face images in the video retrieval task: Harris operators, SIFT and SURF descriptors, and eigenfaces. Results of ten independent runs of 10-fold cross-validation on datasets consisting of TED (Technology Entertainment Design) talk videos showed the effectiveness of our approach, where the SIFT descriptors achieved an average F-score of 0.725 in video retrieval and thus were the most effective, while the SURF descriptors were computed in 0.3 seconds per image on average and were the most efficient in most cases.