• Title/Summary/Keyword: 소리 분류

Search Result 172, Processing Time 0.025 seconds

A Deep Learning System for Emotional Cat Sound Classification and Generation (감정별 고양이 소리 분류 및 생성 딥러닝 시스템)

  • Joo Yong Shim;SungKi Lim;Jong-Kook Kim
    • The Transactions of the Korea Information Processing Society
    • /
    • v.13 no.10
    • /
    • pp.492-496
    • /
    • 2024
  • Cats are known to express their emotions through a variety of vocalizations during interactions. These sounds reflect their emotional states, making the understanding and interpretation of these sounds crucial for more effective communication. Recent advancements in artificial intelligence has introduced research related to emotion recognition, particularly focusing on the analysis of voice data using deep learning models. Building on this background, the study aims to develop a deep learning system that classifies and generates cat sounds based on their emotional content. The classification model is trained to accurately categorize cat vocalizations by emotion. The sound generation model, which uses deep learning based models such as SampleRNN, is designed to produce cat sounds that reflect specific emotional states. The study finally proposes an integrated system that takes recorded cat vocalizations, classify them by emotion, and generate cat sounds based on user requirements.

A study on data augmentation methods for sound data classification (소리 데이터 분류에 대한 데이터 증대 방법 연구)

  • Chang, Il-Sik;Park, Goo-man
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1308-1310
    • /
    • 2022
  • 소리 데이터 분류는 단순 소리를 통한 분류, 감정 인식등 다양한 연구가 진행중이다. 심층 신경망에서 데이터의 부족과 과적합 문제를 개선하는 방법으로 데이터 증강은 중요하다. 본 논문에서는 3가지의 소리데이터(UrbanSound8K, RAVDESS, IRMAS)를 사용하였으며, 소리데이터는 멜 스펙트로그램을 통한 변환과정을 거쳐 네트워크 망에 입력된다. 입력된 신호는 다양한 네크워크 신경망(Bidirection LSTM, Bidirection LSTM Attention, Multi-Head Attention, CNN)을 통해 학습되어지며, 각각의 네트워크 신경망에서 데이터 증강 전후의 분류 정확도를 확인 하였다. 다양한 데이터셋과 다양한 네트워크 망에서의 데이터 증강 방법의 결과 비교를 통한 통찰을 얻을수 있을 것이다.

  • PDF

Classification of General Sound with Non-negativity Constraints (비음수 제약을 통한 일반 소리 분류)

  • 조용춘;최승진;방승양
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.10
    • /
    • pp.1412-1417
    • /
    • 2004
  • Sparse coding or independent component analysis (ICA) which is a holistic representation, was successfully applied to elucidate early auditor${\gamma}$ processing and to the task of sound classification. In contrast, parts-based representation is an alternative way o) understanding object recognition in brain. In this thesis we employ the non-negative matrix factorization (NMF) which learns parts-based representation in the task of sound classification. Methods of feature extraction from the spectro-temporal sounds using the NMF in the absence or presence of noise, are explained. Experimental results show that NMF-based features improve the performance of sound classification over ICA-based features.

A Real-time Audio Surveillance System Detecting and Localizing Dangerous Sounds for PTZ Camera Surveillance (PTZ 카메라 감시를 위한 실시간 위험 소리 검출 및 음원 방향 추정 소리 감시 시스템)

  • Nguyen, Viet Quoc;Kang, HoSeok;Chung, Sun-Tae;Cho, Seongwon
    • Journal of Korea Multimedia Society
    • /
    • v.16 no.11
    • /
    • pp.1272-1280
    • /
    • 2013
  • In this paper, we propose an audio surveillance system which can detect and localize dangerous sounds in real-time. The location information about dangerous sounds can render a PTZ camera to be directed so as to catch a snapshot image about the dangerous sound source area and send it to clients instantly. The proposed audio surveillance system firstly detects foreground sounds based on adaptive Gaussian mixture background sound model, and classifies it into one of pre-trained classes of foreground dangerous sounds. For detected dangerous sounds, a sound source localization algorithm based on Dual delay-line algorithm is applied to localize the sound sources. Finally, the proposed system renders a PTZ camera to be oriented towards the dangerous sound source region, and take a snapshot against over the sound source region. Experiment results show that the proposed system can detect foreground dangerous sounds stably and classifies the detected foreground dangerous sounds into correct classes with a precision of 79% while the sound source localization can estimate orientation of the sound source with acceptably small error.

Wild Bird Sound Classification Scheme using Focal Loss and Ensemble Learning (Focal Loss와 앙상블 학습을 이용한 야생조류 소리 분류 기법)

  • Jaeseung Lee;Jehyeok Rew
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.29 no.2
    • /
    • pp.15-25
    • /
    • 2024
  • For effective analysis of animal ecosystems, technology that can automatically identify the current status of animal habitats is crucial. Specifically, animal sound classification, which identifies species based on their sounds, is gaining great attention where video-based discrimination is impractical. Traditional studies have relied on a single deep learning model to classify animal sounds. However, sounds collected in outdoor settings often include substantial background noise, complicating the task for a single model. In addition, data imbalance among species may lead to biased model training. To address these challenges, in this paper, we propose an animal sound classification scheme that combines predictions from multiple models using Focal Loss, which adjusts penalties based on class data volume. Experiments on public datasets have demonstrated that our scheme can improve recall by up to 22.6% compared to an average of single models.

Explainable Animal Sound Classification Scheme using Transfer Learning and SHAP Analysis (전이 학습과 SHAP 분석을 이용한 설명가능한 동물 울음소리 분류 기법)

  • Jaeseung Lee;Jaeuk Moon;Sungwoo Park;Eenjun Hwang
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.768-771
    • /
    • 2024
  • 인간의 산업 활동으로 인하여 동물들의 생존이 위협받으면서, 동물의 서식 분포를 효과적으로 파악할 수 있는 자동 야생동물 모니터링 기술의 필요성이 점점 더 커지고 있다. 그중에서도 동물 소리 분류 기술은 시각적으로 식별이 어려운 동물에게도 효과적으로 적용할 수 있는 장점으로 인하여 널리 사용되고 있다. 최근 심층학습 기반의 분류 모델들이 좋은 판별 성능을 보여주고 있어 동물 소리 분류에 많이 사용되고 있지만, 희귀종과 같이 개체 수가 적어 데이터가 부족한 경우에는 학습이 제대로 이루어지지 않을 수 있다. 또한, 이러한 모델들은 모델 내부에서 일어나는 추론 과정을 알 수 없어 결과를 완전히 신뢰하고 사용하는 데 제약이 따른다. 이에 본 논문에서는 전이 학습을 통해 데이터 부족 문제를 고려하고, SHAP을 이용하여 분류 모델의 추론 과정을 해석하는 설명가능한 동물 소리 분류 기법을 제안한다. 실험 결과, 제안하는 기법은 지도 학습을 한 경우보다 분류 성능이 향상됨을 확인하였으며, SHAP 분석을 통해 모델의 분류 근거를 이해할 수 있었다.

Cat Emotion Classification System using Cat Meowing (반려묘 울음소리를 이용한 감정 분류 시스템)

  • Chae, Heechan;Lee, Jonguk;Choi, Yoona;Park, Daihee;Chung, Yongwha
    • Annual Conference of KIPS
    • /
    • 2018.10a
    • /
    • pp.666-668
    • /
    • 2018
  • 최근 반려동물을 키우는 가구 수의 증가와 함께, 반려묘에 대한 관심도 상당히 증가하고 있다. 특히 반려인은 반려묘와의 원활한 의사소통과 교감을 바라지만 반려묘의 세세한 감정 상태를 24시간 내내 파악하는 것은 어려운 일이다. 본 논문에서는 반려묘의 울음소리에 많은 감정 및 상태 정보가 담겨있는 것에 착안하여, 반려묘의 울음소리를 기반으로 감정을 분류하는 시스템을 제안한다. 제안된 시스템은 먼저, 이미 수집된 소리 데이터를 데이터 증폭 방법론을 이용하여 데이터를 확장 한 후, 해당 소리들의 멜 스펙트로그램 정보를 추출한다. 이를 시계열 정보 처리에 효과적인 LSTM에 적용하여 반려묘의 감정 상황을 식별할 수 있도록 학습을 수행한다. 실험 결과, 반려묘의 감정 상태 분류의 가능성을 확인하였다.

Development of Open Platform for collecting and classifying animal sounds (동물 소리 수집 및 분류를 위한 오픈 플랫폼 개발)

  • Jung, Seungwon;Kim, Chung-Il;Moon, Jihoon;Hwang, Eenjun
    • Annual Conference of KIPS
    • /
    • 2018.10a
    • /
    • pp.839-841
    • /
    • 2018
  • 인공지능 기술을 활용하여 동물 소리를 분석하고 그 종을 구별하는 기술은 지역의 야생동물 현황 파악이나 생태계 조사 등에 효과적으로 사용될 수 있다. 인공지능 기술을 활용하기 위해서는 많은 동물 소리 샘플이 필요하지만, 현재 그러한 데이터는 녹음 환경이 고도화되어 있는 상용 DB나 전문가 DB 형태로 존재한다. 이러한 데이터만을 학습한 인공지능의 경우 실제 환경에서 녹음된 동물 소리를 식별하는 데 많은 어려움이 예상된다. 따라서 본 논문에서는 다양한 동물 소리를 수집하기 위해 동물 관련 전문가나 일반 사용자 모두 자유롭게 사용할 수 있는 동물 울음소리 수집과 분류를 위한 오픈 플랫폼을 제안한다. 플랫폼에 업로드된 소리 파일은 인공지능의 학습 데이터로 사용하며, 이 인공지능은 사용자에게 소리 파일을 분석한 결과로 해당 동물종과 그에 대한 다양한 생태정보를 제공하고 부가적으로 지역별 동물 통계 및 소리 파일에서의 소리 구간 추출, 소리 파일 공유 등 다양한 기능을 제공한다.

Characteristics of Edgetones by Jet-Cylinder Interaction (분류와 원통에 의해 발생하는 쐐기소리의 특성)

  • 한희갑;김승덕;안진우;권영필
    • Proceedings of the Korean Society for Noise and Vibration Engineering Conference
    • /
    • 1996.04a
    • /
    • pp.235-239
    • /
    • 1996
  • 분류가 모서리에 충돌할 때 발생하는 순음성 소리인 쐐기소리(edgetone)는 공력음향의 대표적인 현상으로서 지금까지 수많은 연구가 있어 왔으며 그 대부분의 특성이 규명되었다고 할 수 있다. 쐐기소리의 발생기구인 되먹임(feedback) 이론을 처음으로 제안한 이는 Powell로서 그는 되먹임사이클의 위상조건에 의하여 주파수특성에 관한 모델을 제안하였으며, 최근 그 모델의 위상인자에 관하여 Kwon은 새로운 값을 제안한 바 있다. 그런데, 쐐기소리의 이론은 주로 분류가 쐐기나 벽에 충돌할 경우에 집중되어 왔으며 분류가 원통에 충돌하여 발생하는 경우에 관한 연구는 Krothapalli의 초음속분류에 관한 연구와 Mochizuki등의 아음속분류에서 원통지름의 영향에 관한 연구를 들 수 있을 뿐이다. Mochizuki등은 원통의 지름이 노즐의 높이보다 작은 경우에 쐐기 소리의 주파수가 원통의 와류이탈(vortex shedding) 주파수와 같은 것을 관찰하였다. 그러나 분류와 원통이 작용하여 발생하는 쐐기소리의 주파수 특성에 관한 이론적 해석을 시도한 연구는 없으며 또한 방사음장의 특성에 관하여도 Han과 Kwon에 의한 모델이 발표된 바 있으나 실험적으로 입증되지 못하였다. 따라서, 본 연구의 목적은 2 fig.1과 같이 2차원 분류가 원통에 충돌할 때 발생하는 쐐기소리의 주파수특성의 정량적인 모델을 세우고 방사음장의 지향특성의 이론 모델을 확립하는 것이다. 먼저 주파수특성을 실험하고 되먹임이론을 적용하여 분석하므로써 유효음원의 위치를 구하고 또한, 수직벽에 작용하여 발생하는 충돌음(impinging tone)의 경우를 실험하여 주파수특성을 비교 고찰하므로써 유효음원의 위치에 관한 이론을 입증한다. 아울러 원통과 평면벽의 각 경우에 방사음장의 지향특성을 측정하고 고찰한다.2,5,6]을 단계별로 고찰하여, 점점 까다로워져 가는 선박 진동규제[3,4]에 대처하고 승무원의 안락성에 대한 욕구, 구조물의 안전성, 장비의 성능보존이 만족되는 저진동 선박의 건조를 위해 향후 해결해야할 과제들을 도출하여 선박진동분야이 연구개발 방향을 제시하고자 한다. 하는 것은 진단의 정밀도에 문제가 있을 것으로 생각된다. 따라서 언어적진리치가 도입되어 [상당히 확실], [확실], [약간 확실] 등의 언어적인 표현을 이용하여 애매성을 표현하게 되었다. 본 논문에서는 간이진단 결과로부터 추출된 애매한 진단결과중에서 가장 가능성이 높은 이상원인을 복수로 선정하고, 여러 종류의 수치화할 수 없는 언어적(linguistic)인 정보ㄷㄹ을 if-then 형식의 퍼지추론으로 종합하는 회전기계의 이상진단을 위한 정밀진단 알고리즘을 제안하고 그 유용성을 검토한다. 존재하여도 모우드 변수들을 항상 정확하게 구할 수 있으며, 또한 알고리즘의 안정성이 보장된 것이다.. 여기서는 실험실 수준의 평 판모델을 제작하고 실제 현장에서 이루어질 수 있는 진동제어 구조물에 대 한 동적실험 및 FRS를 수행하는 과정과 동일하게 따름으로써 실제 발생할 수 있는 오차나 error를 실험실내의 차원에서 파악하여 진동원을 있는 구조 물에 대한 진동제어기술을 보유하고자 한다. 이용한 해마의 부피측정은 해마경화증 환자의 진단에 있어 육안적인 MR 진단이 어려운 제한된 경우에만 실제적 도움을 줄 수 있는 보조적인 방법으로 생각된다.ofile whereas relaxivity at high field is not affected by τS. On the other hand, the change in τV does not affect low field profile but strongly in fluences on both

  • PDF

Recognition of Overlapped Sound and Influence Analysis Based on Wideband Spectrogram and Deep Neural Networks (광역 스펙트로그램과 심층신경망에 기반한 중첩된 소리의 인식과 영향 분석)

  • Kim, Young Eon;Park, Gooman
    • Journal of Broadcast Engineering
    • /
    • v.23 no.3
    • /
    • pp.421-430
    • /
    • 2018
  • Many voice recognition systems use methods such as MFCC, HMM to acknowledge human voice. This recognition method is designed to analyze only a targeted sound which normally appears between a human and a device one. However, the recognition capability is limited when there is a group sound formed with diversity in wider frequency range such as dog barking and indoor sounds. The frequency of overlapped sound resides in a wide range, up to 20KHz, which is higher than a voice. This paper proposes the new recognition method which provides wider frequency range by conjugating the Wideband Sound Spectrogram and the Keras Sequential Model based on DNN. The wideband sound spectrogram is adopted to analyze and verify diverse sounds from wide frequency range as it is designed to extract features and also classify as explained. The KSM is employed for the pattern recognition using extracted features from the WSS to improve sound recognition quality. The experiment verified that the proposed WSS and KSM excellently classified the targeted sound among noisy environment; overlapped sounds such as dog barking and indoor sounds. Furthermore, the paper shows a stage by stage analyzation and comparison of the factors' influences on the recognition and its characteristics according to various levels of noise.