• 제목/요약/키워드: Video expression method

검색결과 55건 처리시간 0.022초

A Suggestion on Using Animated Movie as Learning Materials for University Liberal Arts English Classes

  • Kim, HyeJeong
    • International Journal of Advanced Culture Technology
    • /
    • 제10권2호
    • /
    • pp.98-105
    • /
    • 2022
  • This study's purpose is to suggest a pedagogical method based on using animated movie in liberal arts English classes and to examine the direction that using animated movie as learning material should take. To this end, in this study, the content understanding and expression concentration stages using animated movie are presented. After students learned in class through animated movie, two tests were conducted to investigate the change in learners' acquisition of English expressions. As a result, subjects' learning of English expressions showed a significant improvement over time. An open-ended questionnaire was also conducted to ascertain learners' satisfaction level and their perceptions of classes using animated movie, with learners' satisfaction found to be high overall (77.1%). Students identified the reasons for their high satisfaction rate as the following: "fun and a touching story", "beneficial composition of textbooks", "efficient teaching methods", "sympathetic topics", and "appropriate difficulty". When using video media in class, instructors should maximize and leverage the advantages of video media, which are rich both in context and in their linguistic aspects.

Facial Expression Recognition using 1D Transform Features and Hidden Markov Model

  • Jalal, Ahmad;Kamal, Shaharyar;Kim, Daijin
    • Journal of Electrical Engineering and Technology
    • /
    • 제12권4호
    • /
    • pp.1657-1662
    • /
    • 2017
  • Facial expression recognition systems using video devices have emerged as an important component of natural human-machine interfaces which contribute to various practical applications such as security systems, behavioral science and clinical practices. In this work, we present a new method to analyze, represent and recognize human facial expressions using a sequence of facial images. Under our proposed facial expression recognition framework, the overall procedure includes: accurate face detection to remove background and noise effects from the raw image sequences and align each image using vertex mask generation. Furthermore, these features are reduced by principal component analysis. Finally, these augmented features are trained and tested using Hidden Markov Model (HMM). The experimental evaluation demonstrated the proposed approach over two public datasets such as Cohn-Kanade and AT&T datasets of facial expression videos that achieved expression recognition results as 96.75% and 96.92%. Besides, the recognition results show the superiority of the proposed approach over the state of the art methods.

내용분석을 통해 본 드론 방송영상의 카메라 움직임 특성 연구 (Characteristics of Drone Broadcasting Camera Moving through Content Analysis Method)

  • 임현찬
    • 한국멀티미디어학회논문지
    • /
    • 제24권8호
    • /
    • pp.1178-1183
    • /
    • 2021
  • Based on the camera movement on image expression and grammar, this study intended to analyze the characteristics of image expression filmed and broadcasted by drones. This study analyzed drone images using the movement characteristics of existing video cameras as a coding nomenclature. These were intended to examine the differences from existing video grammar and their implications. This study conducted a content analysis using the entire population of drone news footage broadcast for four years in 2015, 2016, 2017 and 2018 by TV Chosun. The size of the screen, camera work, duration of the shot, camera angle, etc. were selected and analyzed. As a result, the drone camera work showed that it uses the most dolly shots in the case of camera movement, followed by the drone camera movement in the order of pan and tilt shots. For zoom, the frequency of use was the smallest. In addition, this study analyzed the size of the screen, duration of the shot, and camera angle of drone. Analysis shows that drones use certain camera movements most frequently, and unlike grandiose modifiers such as "extension of human gaze," drone remains as a supplementary means to enhance the traditional media expression.

표정 강도에 강건한 얼굴 표정 인식 (Robust Facial Expression-Recognition Against Various Expression Intensity)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.395-402
    • /
    • 2009
  • 본 연구는 표정 인식률을 개선하기 위한, 강도가 다른 표정을 인식하는 새로운 표정 인식 방법을 제안한다. 사람마다 다르게 나타나는 표정과 표정마다 다른 강도는 표정 인식률 저하에 지대한 영향을 미친다. 하지만 얼굴 표정의 다양한 강도를 처리하는 방법은 많이 제시되지 않고 있다. 본 연구에서는 표정 템플릿과 표정 강도 분포모델을 이용하여 다양한 얼굴 표정 강도를 인식하는 방법을 제시한다. 표정 템플릿과 표정강도 분포모델은 얼굴의 특징 부위에 표시한 관심 점과 얼굴 특징 부위간의 움직임이 다른 표정과 강도에 따라 어떻게 달라지는지 설명하여 표정 인식률 개선에 기여한다. 제안 방법은 정지 이미지뿐만 아니라 비디오시퀀스에서도 빠른 측정 과정을 통해 다양한 강도의 표정을 인식할 수 있는 장점이 있다. 실험 결과, 제안 연구가 특히 약한 강도의 표정에 대해 타 방법보다 높은 인식 결과를 보여 제안 방법이 다양한 강도의 표정 인식에 강건함을 알 수 있다.

Antiblurry Dejitter Image Stabilization Method of Fuzzy Video for Driving Recorders

  • Xiong, Jing-Ying;Dai, Ming;Zhao, Chun-Lei;Wang, Ruo-Qiu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권6호
    • /
    • pp.3086-3103
    • /
    • 2017
  • Video images captured by vehicle cameras often contain blurry or dithering frames due to inadvertent motion from bumps in the road or by insufficient illumination during the morning or evening, which greatly reduces the perception of objects expression and recognition from the records. Therefore, a real-time electronic stabilization method to correct fuzzy video from driving recorders has been proposed. In the first stage of feature detection, a coarse-to-fine inspection policy and a scale nonlinear diffusion filter are proposed to provide more accurate keypoints. Second, a new antiblurry binary descriptor and a feature point selection strategy for unintentional estimation are proposed, which brought more discriminative power. In addition, a new evaluation criterion for affine region detectors is presented based on the percentage interval of repeatability. The experiments show that the proposed method exhibits improvement in detecting blurry corner points. Moreover, it improves the performance of the algorithm and guarantees high processing speed at the same time.

듀얼 스캐닝을 이용한 고해상 LED 전광판 영상제어장치설계 (Using a high-resolution LED display Dual Scanning Image Control System Design)

  • 하영재;김인재;김선형
    • 한국정보통신학회논문지
    • /
    • 제15권7호
    • /
    • pp.1415-1422
    • /
    • 2011
  • 본 논문에서는 풀 칼라 전광판에서 고효율의 해상도 표출을 위해서 듀얼 스캐닝 제어방식을 제안하고, 이를 이용해서 LED전광판의 고정된 픽셀을 영상신호에 따라 픽셀 도트 형태를 변화하게 하였다. 그리고 DICT(Dynamic Image Correction Technology) 메인 컨트롤러를 이용해서 동영상 정보를 히스토그램 균등화에 의거 영상 계조도의 값을 균일하게 분포하도록 하고, 동적 영역을 변환하여 화질을 개선하며, 입력 영상을 듀얼 오토 스캔 스위칭 컨트롤러로 전광판 내 LED Module의 픽셀을 물리적으로 제어함으로서 기존 전광판 LED 픽셀 도트의 표출 대비 4배의 고해상도 표출이 가능하도록 하는 기술을 제안하고 이를 시험제작을 통해서 그 성능을 입증하였다.

콘텐트 중심 네트워크에서 정규표현식을 활용한 캐시친화적인 적응형 스트리밍 프레임워크 (Cache-Friendly Adaptive Video Streaming Framework Exploiting Regular Expression in Content Centric Networks)

  • 손동현;최대진;최낙중;송정환;권태경
    • 한국통신학회논문지
    • /
    • 제40권9호
    • /
    • pp.1776-1785
    • /
    • 2015
  • 인터넷을 이용하는 사용자의 관점이 호스트 중심에서 콘텐트 중심으로 변화하면서 콘텐트 중심 네트워크 (Content Centric Network, 이하 CCN)라는 새로운 패러다임이 소개되었다. 한편, 최근 비디오 스트리밍에 대한 수요가 급증하고 있으며 더 높은 사용자의 만족도를 위한 적응형 스트리밍이 소개되면서 많은 연구가 진행 중에 있다. 따라서 CCN에서도 사용자의 수요에 따라 적응형 스트리밍을 고려할 필요성이 있다. 하지만 CCN에서 기존의 네트워크 구조에서와 동일한 방식으로 적응형 비디오 스트리밍 서비스를 할 경우 CCN 라우터 내 캐시를 (CS) 충분히 활용하지 못한다는 한계점이 있으며 또한 단말의 달라지는 요구 사항을 캐시 활용에 반영할 수 없는 문제점도 있다. 따라서 본 논문에서는 정규표현식을 활용한 콘텐트 네이밍 방식을 적용하여 기존 적응형 스트리밍 비트레이트 선택 알고리즘의 캐시활용도를 높이면서도 CCN의 기본 프로토콜에 적합한 프레임워크를 제시하고, 단말의 상태에 따라 동적인 표현식 기술 전략 및 선택 알고리즘을 통하여 비디오 스트리밍 품질을 개선하고자 한다.

현대건축 표피의 표현경향에 관한 연구 (The study of on the design tendency expression of contemporary architectural matter)

  • 이정열
    • 한국실내디자인학회논문집
    • /
    • 제40호
    • /
    • pp.10-17
    • /
    • 2003
  • The purpose of this study is to the design tendency expression of contemporary architectural matter, I can find out how the architecture is represented using the surface of building in its autonomy. I study backgrounds of contemporary architectural matter, method and their natures. In this case, i can notice that 'framework-dressing' method formed a objectified tectonic system, while it supplied arts with room that they hold priority to architecture. So it makes me find that contemporary architectural matter resided in relationship complicated between things and events. Also, this study on analyzing spatial effect by the figurative language derived by researching the dadaisme, pop art, kinetic art, video art hit In conclusion, analyzing the recent experiments in the expressive qualities of exterior skin, in their use of materials, methods of construction and visual effects, it can be argued that the new skin is inclusive of times, and has autonomic, constant and tactile features. Base on their immaterial vocabularies - limits, material, mouvement, media - these could be characterized as vibrant plates.

효과적인 AR 영상통화 구현 방법을 위한 가설 방안과 연구 (The Study and Hypothesis of Realize AR Video Calling Method)

  • 곽대위;정진헌
    • 디지털융복합연구
    • /
    • 제16권9호
    • /
    • pp.413-419
    • /
    • 2018
  • 스마트폰은 현대사회에서 꼭 필요한 통신수단이 되었고 이미 인류의 일상생활에 융합되었다. 만약에 미니 헤드 마운트 표시 장치(HMD)를 활용하여 증강현실 기술로 통신 중인 양쪽 상대방의 용모, 표정, 동작 등의 요소가 통화 환경에 들어오면 사용하는 사람에게 직관적이고 특별한 느낌을 준다. 그리고 이 방식으로 시각의 한계성을 넘어설 수 있으므로 미래 시각예술 영역의 크게 발전을 촉진할 수 있어서 이런 기술적인 문제에 관한 연구의 의미가 있다. 본 논문은 효과적인 AR 영상통화 구현 방법에 대한 현재 사용되는 기술 중 몇 가지를 융복합하여 실현 가능한 두 가지 가설방안을 세우고 분석과 비교하여 두 가지 가설방안의 문제점을 발견한다. 그리고 문제점에 대한 해결 가능한 디자인 방안을 꺼낸다. 또 사례연구의 방식으로 실제 사례를 제출하여 두 가지 가설 방안은 미래에 실현 가능하다는 결론을 검증한다. 이러한 기술들은 우리의 일상에 더욱 재미요소와 편리함을 제공할 것이라 예상된다. AR 영상통화를 순조롭게 구현하는 것은 예견할 수 있고 나중에 무한한 발전 가능성이 있다.

Improving Indentification Performance by Integrating Evidence From Evidence

  • Park, Kwang-Chae;Kim, Young-Geil;Cheong, Ha-Young
    • 한국정보전자통신기술학회논문지
    • /
    • 제9권6호
    • /
    • pp.546-552
    • /
    • 2016
  • We present a quantitative evaluation of an algorithm for model-based face recognition. The algorithm actively learns how individual faces vary through video sequences, providing on-line suppression of confounding factors such as expression, lighting and pose. By actively decoupling sources of image variation, the algorithm provides a framework in which identity evidence can be integrated over a sequence. We demonstrate that face recognition can be considerably improved by the analysis of video sequences. The method presented is widely applicable in many multi-class interpretation problems.