• 제목/요약/키워드: Emotional voice

검색결과 112건 처리시간 0.021초

육자결(六字訣)로 본 소리치료(治療)에 대한 고찰 (A Study on the Sound Therapy by Six Syllables)

  • 전학수
    • 대한한의정보학회지
    • /
    • 제14권2호
    • /
    • pp.1-9
    • /
    • 2008
  • With the booming complementary medicine as a social trend of well-being, treatment by the sound waves of six kinds of syllables is believed to restore that healthy balance to the body. Sound therapy refers to a range of therapies in which sound is used to treat physical and mental conditions. Healing is done by transmitting beneficial sound to the affected area related to five viscera and six bowels. The healing sound may be produced by a voice. sound wave vibrations are to treat physical and mental conditions. In general, this therapy is based on the theory that all of life vibrates, including people's bodies. When a person's healthy resonant frequency is out of balance, physical and emotional health is affected. When a person's healthy resonant frequency is out of balance, physical and emotional health is affected. This paper focuses on the sound therapy by six syllables of 'hyu', 'huo', 'ho', 'sa', 'chi' and 'hui'.

  • PDF

감정 인식을 위한 음성 특징 도출 (Extraction of Speech Features for Emotion Recognition)

  • 권철홍;송승규;김종열;김근호;장준수
    • 말소리와 음성과학
    • /
    • 제4권2호
    • /
    • pp.73-78
    • /
    • 2012
  • Emotion recognition is an important technology in the filed of human-machine interface. To apply speech technology to emotion recognition, this study aims to establish a relationship between emotional groups and their corresponding voice characteristics by investigating various speech features. The speech features related to speech source and vocal tract filter are included. Experimental results show that statistically significant speech parameters for classifying the emotional groups are mainly related to speech sources such as jitter, shimmer, F0 (F0_min, F0_max, F0_mean, F0_std), harmonic parameters (H1, H2, HNR05, HNR15, HNR25, HNR35), and SPI.

Emotion Recognition using Short-Term Multi-Physiological Signals

  • Kang, Tae-Koo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권3호
    • /
    • pp.1076-1094
    • /
    • 2022
  • Technology for emotion recognition is an essential part of human personality analysis. To define human personality characteristics, the existing method used the survey method. However, there are many cases where communication cannot make without considering emotions. Hence, emotional recognition technology is an essential element for communication but has also been adopted in many other fields. A person's emotions are revealed in various ways, typically including facial, speech, and biometric responses. Therefore, various methods can recognize emotions, e.g., images, voice signals, and physiological signals. Physiological signals are measured with biological sensors and analyzed to identify emotions. This study employed two sensor types. First, the existing method, the binary arousal-valence method, was subdivided into four levels to classify emotions in more detail. Then, based on the current techniques classified as High/Low, the model was further subdivided into multi-levels. Finally, signal characteristics were extracted using a 1-D Convolution Neural Network (CNN) and classified sixteen feelings. Although CNN was used to learn images in 2D, sensor data in 1D was used as the input in this paper. Finally, the proposed emotional recognition system was evaluated by measuring actual sensors.

Audio and Video Bimodal Emotion Recognition in Social Networks Based on Improved AlexNet Network and Attention Mechanism

  • Liu, Min;Tang, Jun
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.754-771
    • /
    • 2021
  • In the task of continuous dimension emotion recognition, the parts that highlight the emotional expression are not the same in each mode, and the influences of different modes on the emotional state is also different. Therefore, this paper studies the fusion of the two most important modes in emotional recognition (voice and visual expression), and proposes a two-mode dual-modal emotion recognition method combined with the attention mechanism of the improved AlexNet network. After a simple preprocessing of the audio signal and the video signal, respectively, the first step is to use the prior knowledge to realize the extraction of audio characteristics. Then, facial expression features are extracted by the improved AlexNet network. Finally, the multimodal attention mechanism is used to fuse facial expression features and audio features, and the improved loss function is used to optimize the modal missing problem, so as to improve the robustness of the model and the performance of emotion recognition. The experimental results show that the concordance coefficient of the proposed model in the two dimensions of arousal and valence (concordance correlation coefficient) were 0.729 and 0.718, respectively, which are superior to several comparative algorithms.

센서를 활용한 건설현장 감성안전의 효용성에 관한 연구 (The Effectiveness of Emotional Safety Using PIR Sensors in Building Construction Site)

  • 신한우;김광희;김태형;김태희;최응규
    • 한국건축시공학회지
    • /
    • 제10권4호
    • /
    • pp.59-65
    • /
    • 2010
  • 건설현장에서 안전사고 발생을 최소화하기 위해서 많은 건설회사들은 최선을 다하고 있다. 또한 안전은 건설프로젝트의 성공을 결정짓는 중요한 요소 중의 하나다. 최근 많은 안전도구들이 건설현장에서 적용되고 있고, 또한 감성안전문화는 건설현장에서 안전의식을 증진시키는 중요한 요인이다. 그러므로 본 연구의 목적은 건설 현장에서 안전의식을 향상시키기 위한 감성안전센서의 효과를 고찰하는 것이다. 본 연구에서 많은 건설현장 작업자들은 센서를 사용한 감성안전에 대하여 만족하고 있는 것으로 나타났고, 또한 음성안내 시스템은 작업자들에게 긍정적인 자극을 줄 수 있을 것이다. 따라서 본 음성안내센서를 건설현장에 적용하면 건설회사들은 안전과 작업생산성의 향상을 가져올 수 있을 것이다.

한국어판 소아음성장애지수(pVHI-K : Pediatric Voice Handicap Index-Korean) : 표준화를 위한 예비연구 (Pediatric Voice Handicap Index-Korean(pVHI-K) : A Pilot Study for Standardization)

  • 박성신;최성희;홍영혜;정년기;성명훈;김광현;권택균
    • 대한후두음성언어의학회지
    • /
    • 제22권2호
    • /
    • pp.137-142
    • /
    • 2011
  • Background and Objectives : The aim of this study is to introduce Korea version of pediatric VHI and to compare pVHI-K scores between children with dysphonia and children without voice problems before pVHI-K is developed as a preliminary study. Additionally, the relationship between pVHI and acoustic measures were investigated. Materials and Methods : pVHI-K scores in normal group were obtained from 15 parents who have children with no present or past history of a voice disorder, hearing loss, or related disability that can affect the their voice or speech. Dysphonia group consisted of 15 parents who have children with bilateral vocal fold nodule's at Department of Otolaryngology, the Seoul National University Hospital (SNUH). pVHI-K and acoustic parameters were measured in two group. Results : The mean pVHI scores (total, functional, physical, emotional) in normal group were 2.33 (T), 0.80 (F) 1.33 (P) and 0.27 (E), respectively whereas those of pVHI in children group with dysphonia were 23.13 (T), 11.07 (F), 5.73 (P) and 6.13 (E), respectively and significant differences were revealed in total pVHI score as well as in all of the sub-pVHI scores. Moreover, significant correlation between pVHI-K parameters (T, F, P) and acoustic measures [Shimmer(%)] were shown in children in dysphonia group. Conclusion : Reported by parents can be useful as a supplementary clinical tool for diagnosing and measuring treatment effectiveness in young children with dysphonia.

  • PDF

비국악인의 판소리 감상과정에서의 경험적 요소 (Experience of non-Korean Traditional Musicians in the Process of Pansori Music Listening)

  • 이수연
    • 인간행동과 음악연구
    • /
    • 제9권2호
    • /
    • pp.19-34
    • /
    • 2012
  • 본 연구는 판소리의 치료적 요소에 대해 연구하기 위해 비국악인이 판소리를 감상하는 과정에서 경험하게 되는 요소들을 알아보는데 목적이 있다. 본 연구에서는 5명의 국악을 전공하지 않은 연구 참여자가 판소리를 듣는 동안에 경험하는 것을 심층 면접을 통해 자료로 수집하였고 이를 변형된(modified) 근거 이론 방법으로 분석하였다. 연구결과, 판소리를 감상하는 과정에서 판소리 창자의 창법과 목소리의 음색, 판소리 사설, 고수의 북소리, 고수의 역할 요소는 감상자로 하여금 다양한 차원의 정서, 신체 반응을 경험하고 자신이 경험한 정서와 연관된 사고를 유발하였다. 이는 개인의 내적 문제와 연관되어 자신이 평소에 알지 못했던 내면의 문제를 인식하게 하고, 내 안의 감정과 만나도록 중재되었다. 그리고 감상자가 경험한 개인의 정서와 인식은 또 다른 차원 반응을 유발하여 감상자는 판소리의 요소들을 통해 자신의 부정적 감정을 해결하는 근원을 찾고 내 안의 감정을 정리하는 과정을 경험하였다.

인공지능 디바이스의 조명효과에 대한 사용자의 감정 평가 분석 (Analysis of Users' Emotions on Lighting Effect of Artificial Intelligence Devices)

  • 현윤아;반영환;유훈식
    • 감성과학
    • /
    • 제22권3호
    • /
    • pp.35-46
    • /
    • 2019
  • 인공지능기술은 사용자의 언어, 목소리 톤, 표정을 인지하고 학습하여 다양한 맥락에서 사용자의 감정에 대응할 수 있도록 발전하고 있다. 여러 인공지능 기반 서비스 중에서 특히 사용자와의 커뮤니케이션이 중요한 서비스 다수는 감정을 표현하는 인터랙션을 제공한다. 그러나 인공지능 시스템의 감정을 표현하는 수단으로서의 비언어적 인터랙션에 관한 연구는 아직 미비하다. 이에 조명효과 중 특히 색상과 깜빡임 운동을 중심으로 인공지능 디바이스의 감성 인터랙션을 연구하였다. 본 연구에서 구현한 인공지능 디바이스 프로토타입은 red, yellow, green, blue, purple, white 6가지의 조명 색상과 느림, 중간, 빠른 세 단계 속도의 깜빡임 효과로 감정을 표현한다. 프로토타입을 활용하여 20대부터 30대 남녀 50명을 대상으로 인공지능 디바이스의 색상별, 속도별 조명 효과가 표현하고 있는 감정에 응답하는 실험을 진행하였다. 실험 결과 각 조명 색상은 기존 색채감성연구에서 드러난 감성적 이미지와 대체로 유사한 감정을 나타내는 것으로 평가되었다. 조명의 깜빡임 속도는 감정의 각성과 밸런스의 변화에 영향을 주었으며, 이때 각성의 변화 양상은 모든 색상에서 유사한 기조를 보였다. 밸런스 변화 양상은 기존 색채감성연구의 감성적 이미지와 어느 정도 관련이 있지만 색상 별 차이가 있는 것으로 관찰되었다. 인공지능 시스템을 탑재한 사물의 종류와 인공지능 디바이스가 점점 다양해지는 현 시점에서, 본 연구결과는 조명을 통한 인공지능의 감성 인터랙션을 설계할 때 기여할 수 있을 것으로 기대된다.

생체신호를 이용한 감정인지시스템의 설계 및 구현 (Design and Implementation of an Emotion Recognition System using Physiological Signal)

  • 오지수;강정진;임명재;이기영
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.57-62
    • /
    • 2010
  • 최근에 모바일 시장에서는 시각과 청각, 촉각에 의존하여 상대방에게 의사를 전달하는 기술이 발전되고 있지만, 인간이 의사소통을 하는데 있어서 시각 촉각 청각 후각 미각인 오감의 요소를 필요로 한다. 그러므로 본 논문에서는 음성과 체온, 맥박 같은 생체신호를 통하여 감정을 인지하고 향기가 나는 모바일 기기를 사용하여 상대방에게 의사를 전달 할 때 오감의 요소 중 후각적인 요소를 접목하였다. 또한 사용자 감정의 변화에 따라 적절한 향기를 발산하도록 하여 사용자의 감정을 컨트롤 할 수 있는 시스템을 설계하고 구현하였다.

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점 (Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface)

  • 김기현;권성근
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.166-175
    • /
    • 2022
  • Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.