• 제목/요약/키워드: cepstral coefficients

검색결과 114건 처리시간 0.024초

Harnessing the Power of Voice: A Deep Neural Network Model for Alzheimer's Disease Detection

  • Chan-Young Park;Minsoo Kim;YongSoo Shim;Nayoung Ryoo;Hyunjoo Choi;Ho Tae Jeong;Gihyun Yun;Hunboc Lee;Hyungryul Kim;SangYun Kim;Young Chul Youn
    • 대한치매학회지
    • /
    • 제23권1호
    • /
    • pp.1-10
    • /
    • 2024
  • Background and Purpose: Voice, reflecting cerebral functions, holds potential for analyzing and understanding brain function, especially in the context of cognitive impairment (CI) and Alzheimer's disease (AD). This study used voice data to distinguish between normal cognition and CI or Alzheimer's disease dementia (ADD). Methods: This study enrolled 3 groups of subjects: 1) 52 subjects with subjective cognitive decline; 2) 110 subjects with mild CI; and 3) 59 subjects with ADD. Voice features were extracted using Mel-frequency cepstral coefficients and Chroma. Results: A deep neural network (DNN) model showed promising performance, with an accuracy of roughly 81% in 10 trials in predicting ADD, which increased to an average value of about 82.0%±1.6% when evaluated against unseen test dataset. Conclusions: Although results did not demonstrate the level of accuracy necessary for a definitive clinical tool, they provided a compelling proof-of-concept for the potential use of voice data in cognitive status assessment. DNN algorithms using voice offer a promising approach to early detection of AD. They could improve the accuracy and accessibility of diagnosis, ultimately leading to better outcomes for patients.

진동 데이터 기반 설비고장예지를 위한 신호처리기법 (A Signal Processing Technique for Predictive Fault Detection based on Vibration Data)

  • 송예원;이홍성;박훈석;김영진;정재윤
    • 한국전자거래학회지
    • /
    • 제23권2호
    • /
    • pp.111-121
    • /
    • 2018
  • 항공기 엔진, 풍력발전기, 모터 등 회전기기에서 발생하는 많은 문제들은 진동이나 소음과 같은 신호 데이터를 측정하여 이상감지를 할 수 있으며, 주파수 분석 등 여러 가지 신호처리가 데이터 전처리 단계에서 필요하다. 본 논문에서는 진동 데이터를 분석하여 설비 이상상태를 감지하는 기법을 소개한다. 정상상태 데이터를 기반으로 마할라노비스 거리를 측정하여 이상상태 유무를 모니터링 하는 방식을 사용한다. 특히 신호 데이터의 전처리 기법들을 도입하여 이상상태 감지의 성능을 개선할 수 있음을 보여준다. 전처리 단계에서 신호 데이터 수집 과정에서 발생한 누설오차(leakage)를 없애기 위해 해밍 윈도우(Hamming window)를 적용하고, 신호 데이터의 원신호인 포먼트(formant)를 분리하기 위하여 켑스트럼(cepstrum) 분석을 실시한다. IMS 베어링 진동 공개데이터를 대상으로 시간 구간별로 6가지 통계지표를 추출한 후 마할라노비스 거리 분류기를 적용하여 성능을 검증하였다. 제시된 신호처리 전처리 기법을 적용함으로써 성능이 획기적으로 향상되는 것을 실험에서 보여주었다.

인공 신경망을 이용한 보청기용 실시간 환경분류 알고리즘 (Real Time Environmental Classification Algorithm Using Neural Network for Hearing Aids)

  • 서상완;육순현;남경원;한종희;권세윤;홍성화;김동욱;이상민;장동표;김인영
    • 대한의용생체공학회:의공학회지
    • /
    • 제34권1호
    • /
    • pp.8-13
    • /
    • 2013
  • Persons with sensorineural hearing impairment have troubles in hearing at noisy environments because of their deteriorated hearing levels and low-spectral resolution of the auditory system and therefore, they use hearing aids to compensate weakened hearing abilities. Various algorithms for hearing loss compensation and environmental noise reduction have been implemented in the hearing aid; however, the performance of these algorithms vary in accordance with external sound situations and therefore, it is important to tune the operation of the hearing aid appropriately in accordance with a wide variety of sound situations. In this study, a sound classification algorithm that can be applied to the hearing aid was suggested. The proposed algorithm can classify the different types of speech situations into four categories: 1) speech-only, 2) noise-only, 3) speech-in-noise, and 4) music-only. The proposed classification algorithm consists of two sub-parts: a feature extractor and a speech situation classifier. The former extracts seven characteristic features - short time energy and zero crossing rate in the time domain; spectral centroid, spectral flux and spectral roll-off in the frequency domain; mel frequency cepstral coefficients and power values of mel bands - from the recent input signals of two microphones, and the latter classifies the current speech situation. The experimental results showed that the proposed algorithm could classify the kinds of speech situations with an accuracy of over 94.4%. Based on these results, we believe that the proposed algorithm can be applied to the hearing aid to improve speech intelligibility in noisy environments.

딥러닝 모형을 사용한 한국어 음성인식 (Korean speech recognition using deep learning)

  • 이수지;한석진;박세원;이경원;이재용
    • 응용통계연구
    • /
    • 제32권2호
    • /
    • pp.213-227
    • /
    • 2019
  • 본 논문에서는 베이즈 신경망을 결합한 종단 간 딥러닝 모형을 한국어 음성인식에 적용하였다. 논문에서는 종단 간 학습 모형으로 연결성 시계열 분류기(connectionist temporal classification), 주의 기제, 그리고 주의 기제에 연결성 시계열 분류기를 결합한 모형을 사용하였으며. 각 모형은 순환신경망(recurrent neural network) 혹은 합성곱신경망(convolutional neural network)을 기반으로 하였다. 추가적으로 디코딩 과정에서 빔 탐색과 유한 상태 오토마타를 활용하여 자모음 순서를 조정한 최적의 문자열을 도출하였다. 또한 베이즈 신경망을 각 종단 간 모형에 적용하여 일반적인 점 추정치와 몬테카를로 추정치를 구하였으며 이를 기존 종단 간 모형의 결괏값과 비교하였다. 최종적으로 본 논문에 제안된 모형 중에 가장 성능이 우수한 모형을 선택하여 현재 상용되고 있는 Application Programming Interface (API)들과 성능을 비교하였다. 우리말샘 온라인 사전 훈련 데이터에 한하여 비교한 결과, 제안된 모형의 word error rate (WER)와 label error rate (LER)는 각각 26.4%와 4.58%로서 76%의 WER와 29.88%의 LER 값을 보인 Google API보다 월등히 개선된 성능을 보였다.