• 제목/요약/키워드: emotional modal

검색결과 17건 처리시간 0.027초

다중 센서 융합 알고리즘을 이용한 감정인식 및 표현기법 (Emotion Recognition and Expression Method using Bi-Modal Sensor Fusion Algorithm)

  • 주종태;장인훈;양현창;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제13권8호
    • /
    • pp.754-759
    • /
    • 2007
  • In this paper, we proposed the Bi-Modal Sensor Fusion Algorithm which is the emotional recognition method that be able to classify 4 emotions (Happy, Sad, Angry, Surprise) by using facial image and speech signal together. We extract the feature vectors from speech signal using acoustic feature without language feature and classify emotional pattern using Neural-Network. We also make the feature selection of mouth, eyes and eyebrows from facial image. and extracted feature vectors that apply to Principal Component Analysis(PCA) remakes low dimension feature vector. So we proposed method to fused into result value of emotion recognition by using facial image and speech.

김소희 『춘향가』의 전조에 따른 연행효과 분석 (Analysis on Modal Changes and Its Performance Effect in Kim, So-hui's 「Chunhyangga」)

  • 김숙자
    • 한국콘텐츠학회논문지
    • /
    • 제14권11호
    • /
    • pp.611-619
    • /
    • 2014
  • 본 연구는 만정 김소희 판소리"춘향가"의 중모리 대목 중 전조 기법과 연관된 연행효과를 밝히는 것이다. 만정제 "춘향가"는 특히 판소리의 전조를 통해 극적인 장면이나 배역의 변화, 감정선의 이동 등을 효과적으로 표현하였다. 중모리 중 <춘향이가 여짜오되>와 <스물치고> 두 곡을 고찰한 결과 다음과 같은 사실을 확인할 수 있었다. 전조가 일어나는 데에는 반드시 이면에 따라 역할과 극적전환, 상황변화, 그리고 감정의 변화가 반영되는 것을 알 수 있었다. 또한 두 곡의 전조는 모두 서로 근친조와 으뜸음조의 관계를 가지고 있었다. <춘향이가 여짜오되>는 전조 기법이 곡의 후반부에 집중적으로 쓰였으며, <스물치고>는 중간 지점부터 쓰이고 있다. 이 모두가 배역이 바뀌거나 해설하는 부분을 차별화하기 위하여 음악적으로 표현된 연행효과이다.

A Research of User Experience on Multi-Modal Interactive Digital Art

  • Qianqian Jiang;Jeanhun Chung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.80-85
    • /
    • 2024
  • The concept of single-modal digital art originated in the 20th century and has evolved through three key stages. Over time, digital art has transformed into multi-modal interaction, representing a new era in art forms. Based on multi-modal theory, this paper aims to explore the characteristics of interactive digital art in innovative art forms and its impact on user experience. Through an analysis of practical application of multi-modal interactive digital art, this study summarises the impact of creative models of digital art on the physical and mental aspects of user experience. In creating audio-visual-based art, multi-modal digital art should seamlessly incorporate sensory elements and leverage computer image processing technology. Focusing on user perception, emotional expression, and cultural communication, it strives to establish an immersive environment with user experience at its core. Future research, particularly with emerging technologies like Artificial Intelligence(AR) and Virtual Reality(VR), should not merely prioritize technology but aim for meaningful interaction. Through multi-modal interaction, digital art is poised to continually innovate, offering new possibilities and expanding the realm of interactive digital art.

멀티모달 기반의 감성 조명 시스템 (Sensitivity Lighting System Based on multimodal)

  • 권순민;정인범
    • 한국정보통신학회논문지
    • /
    • 제16권4호
    • /
    • pp.721-729
    • /
    • 2012
  • 본 논문에서는 인간의 감성을 멀티모달 환경에 기반하여 인식하여 감성지수에 따라 조명의 색을 조절하는 감성조명 시스템을 구현하였다. 감성조명을 위하여 사용된 LED 조명은 친 환경적이며 고효율 및 긴 수명을 가지고 있다. 특히 LED 조명은 단일 조명구로도 다양한 색 표현이 가능한 장점을 가지고 있다. 인간의 감성을 보다 정확하게 판별하기 위하여 사용자의 얼굴 영상 정보와 및 각성 상태 정보를 동시에 사용하여 멀티모달에 기반된 감성지수를 산출하였다. 실험을 통하여 LED 조명 색감이 사용자의 감성지수에 따라 변화 되므로 기존의 조명들에 비하여 인간 친화적인 조명시스템을 구축함을 보인다.

Audio and Video Bimodal Emotion Recognition in Social Networks Based on Improved AlexNet Network and Attention Mechanism

  • Liu, Min;Tang, Jun
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.754-771
    • /
    • 2021
  • In the task of continuous dimension emotion recognition, the parts that highlight the emotional expression are not the same in each mode, and the influences of different modes on the emotional state is also different. Therefore, this paper studies the fusion of the two most important modes in emotional recognition (voice and visual expression), and proposes a two-mode dual-modal emotion recognition method combined with the attention mechanism of the improved AlexNet network. After a simple preprocessing of the audio signal and the video signal, respectively, the first step is to use the prior knowledge to realize the extraction of audio characteristics. Then, facial expression features are extracted by the improved AlexNet network. Finally, the multimodal attention mechanism is used to fuse facial expression features and audio features, and the improved loss function is used to optimize the modal missing problem, so as to improve the robustness of the model and the performance of emotion recognition. The experimental results show that the concordance coefficient of the proposed model in the two dimensions of arousal and valence (concordance correlation coefficient) were 0.729 and 0.718, respectively, which are superior to several comparative algorithms.

영어의 서법 조동사 Will/Shall에 관한 연구 (A study on the English modal auxiliary Will/Shall)

  • 강문구
    • 영어어문교육
    • /
    • 제12권3호
    • /
    • pp.99-122
    • /
    • 2006
  • The purpose of this paper is to explain the meanings and uses of the English auxiliaries SHALL/WILL. The complexity of modern usage of SHALL/WILL has been one of the most disputable themes of traditional English grammar. The paper purported to address the study and analysis of diachronic and synchronic approach to the two auxiliaries. A general view of the figures of Fries'(1925) survey was added for further investigation. The results of the study showed that these auxiliaries express some of various modal meanings associated with the volitional or emotional attitude of the speaker without implying futurity. The findings also suggested that the use of SHALL in present-day English is restricted to non-volitional future with the first person but the practice of this use is also diminished by the expansion of the use of WILL, and the original meaning of WILL, 'to desire or wish', has generally been replaced by other verbs or modal forms. But sentences which seem to indicate futurity are often tinged with modal senses. Therefore, WILL/SHALL should be considered to act either as tense auxiliary or as modal auxiliary depending on situational contexts in which it occurs.

  • PDF

Intelligent Emotional Interface for Personal Robot and Its Application to a Humanoid Robot, AMIET

  • Seo, Yong-Ho;Jeong, Il-Woong;Jung, Hye-Won;Yang, Hyun-S.
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1764-1768
    • /
    • 2004
  • In the near future, robots will be used for the personal use. To provide useful services to humans, it will be necessary for robots to understand human intentions. Consequently, the development of emotional interfaces for robots is an important expansion of human-robot interactions. We designed and developed an intelligent emotional interface for the robot, and applied the interfaces to our humanoid robot, AMIET. Subsequent human-robot interaction demonstrated that our intelligent emotional interface is very intuitive and friendly

  • PDF

고감성 의류용 PTT/울/모달 에어 볼텍스 복합사의 물성 (Physical Property of PTT/Wool/Modal Air Vortex Yarns for High Emotional Garment)

  • 김현아
    • 한국의류학회지
    • /
    • 제39권6호
    • /
    • pp.877-884
    • /
    • 2015
  • Polytrimethylene Terephthalate (PTT) is an eco-fiber with good elastic properties; however, it requires more detailed studies related to spinnability according to blending of various kinds of fibers. The evolution of spinning technology was focused on improved productivity with good quality; in addition, air vortex spinning was recently invented and applied on the spinning factory as the facility with good productivity and quality. More detail spinning technology according to the blending of various kinds of fibers on the air vortex spinning system is required to obtain good quality yarns for high emotional fabrics. In this paper, the physical properties of air vortex, compact and ring staple yarns using PTT/wool/modal blend fibers were investigated with yarn structure to promote high functional PTT that includes fabrics for high emotional garments. Unevenness of air vortex yarns was higher than those of compact and ring yarns; in addition, imperfections were greater than those of compact and ring yarns, which was attributed to a fascinated vortex yarn structure. Tenacity and breaking strain of air vortex yarns were lower than those of compact and ring yarns, caused by higher unevenness and more imperfections of air vortex yarns compared to compact and ring yarns. Vortex yarns showed the highest initial modulus and ring yarns showed the lowest ones which results in a stiff tactile feeling of air vortex yarns in regards to the initial modulus of yarns. Dry and wet thermal shrinkages of air vortex yarns were lower than ring yarns. Good shape retention of vortex yarns was estimated due to low thermal shrinkage.

가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석 (Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.9-19
    • /
    • 2012
  • 디지털 콘텐츠에서 HCI로 활용되는 가상 인간은 얼굴 표정과 신체자세와 같은 모달을 이용하여 다양한 감정을 표현하지만 비언어적 다중모달의 조합에 대한 연구는 많지 않다. 감정을 표현하는 가상 인간을 제작하려면 계산 엔진 모델은 얼굴 표정과 신체자세와 같은 비언어적 모달의 조합이 사용자에 의해 어떻게 인식되는지를 고려해야 하기 때문에 본 연구는 가상 인간의 감정 표현 디자인에 필요한 비언어적 다중모달의 영향을 분석하여 제시한다. 먼저 가상 인간에 대한 다중모달 별 감정 인식을 평가하여 다른 모달간의 상대적 영향성을 분석하였다. 그리고 일치하는 얼굴과 자세 모달을 통해 기본 감정 및 정서가와 활성화 인식에 대한 영향을 평가하며 감정이 불일치하는 다중모달을 통해 일상생활에서 빈번하게 드러나는 중첩된 감정의 인식 정도를 관측하였다. 실험 결과, 가상 인간의 얼굴과 신체자세의 표정이 일치하면 감정 인식이 용이하며, 얼굴 표정으로 감정 카테고리를 판별하지만 감정의 활성화 차원 판단에는 자세 모달리티가 선호됨을 확인하였다. 본 연구 결과는 감정을 드러내는 가상 인간의 행동 동기화 및 애니메이션 엔진 시스템 구현에 활용할 수 있다.

대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스 (Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation)

  • 백지영;김세라;이석필
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.71-77
    • /
    • 2022
  • 본 연구에서는 음성 합성 모델을 감정에 따라 음성을 합성하는 모델로 확장하고 감정에 따른 얼굴 표정을 생성하기 위한 데이터 베이스를 수집한다. 데이터베이스는 남성과 여성의 데이터가 구분되며 감정이 담긴 발화와 얼굴 표정으로 구성되어 있다. 성별이 다른 2명의 전문 연기자가 한국어로 문장을 발음한다. 각 문장은 anger, happiness, neutrality, sadness의 4가지 감정으로 구분된다. 각 연기자들은 한 가지의 감정 당 약 3300개의 문장을 연기한다. 이를 촬영하여 수집한 전체 26468개의 문장은 중복되지 않으며 해당하는 감정과 유사한 내용을 담고 있다. 양질의 데이터베이스를 구축하는 것이 향후 연구의 성능에 중요한 역할을 하므로 데이터베이스를 감정의 범주, 강도, 진정성의 3가지 항목에 대해 평가한다. 데이터의 종류에 따른 정확도를 알아보기 위해 구축된 데이터베이스를 음성-영상 데이터, 음성 데이터, 영상 데이터로 나누어 평가를 진행하고 비교한다.