• 제목/요약/키워드: 음성다중

검색결과 351건 처리시간 0.024초

시변 잡음에 대처하기 위한 다중 모델을 이용한 PCMM 기반 특징 보상 기법 (PCMM-Based Feature Compensation Method Using Multiple Model to Cope with Time-Varying Noise)

  • 김우일;고한석
    • 한국음향학회지
    • /
    • 제23권6호
    • /
    • pp.473-480
    • /
    • 2004
  • 본 논문에서는 잡음 환경에서 강인한 음성 인식을 위하여 음성 모델을 기반으로 하는 효과적인 특징 보상 기법을 제안한다. 제안하는 특징 보상 기법은 병렬 결합된 혼합 모델 (PCMM)을 기반으로 한다. 기존의 PCMM 기반의 기법은 시간에 따라 변하는 잡음 환경을 반영하기 위하여 매 음성 입력마다 복잡한 과정의 혼합 모델 결합이 필요하다. 제안하는 기법에서는 다중의 혼합 모델을 보간하는 방법을 채용함으로써 시간에 따라 변하는 배경 잡음에 대응할 수 있다. 보다 신뢰성 있는 혼합 모델 생성을 위하여 데이터 유도 기반의 방법을 도입하고, 실시간 처리를 위하여 프레임에 동기화된 환경 사후 확률 예측 과정을 제안한다. 다중 모델로 인한 연산량 증가를 막기 위하여 혼합 모델을 공유하는 기법을 제안한다. 가우시안 혼합 모델 사이에 통계학적으로 유사한 요소들을 선택하여 공유에 필요한 공통 모델을 생성한다. Aurora 2.0 데이터베이스와 실제 자동차 주행 환경에서 수집된 음성 데이터베이스에 대한 성능 평가를 실시한다. 실험 결과로부터 제안한 기법이 모의 환경과 실제 잡음 환경에서 강인한 음성 인식 성능을 가져오고 연산량 감소에 효과적임을 확인한다.

음성 데이터의 내재된 감정인식을 위한 다중 감정 회귀 모델 (Multi-Emotion Regression Model for Recognizing Inherent Emotions in Speech Data)

  • 이명호;임명진;신주현
    • 스마트미디어저널
    • /
    • 제12권9호
    • /
    • pp.81-88
    • /
    • 2023
  • 최근 코로나19로 인한 비대면 서비스의 확산으로 온라인을 통한 소통이 증가하고 있다. 비대면 상황에서는 텍스트나 음성, 이미지 등의 모달리티를 통해 상대방의 의견이나 감정을 인식하고 있다. 현재 다양한 모달리티를 결합한 멀티모달 감정인식에 관한 연구가 활발하게 진행되고 있다. 그중 음성 데이터를 활용한 감정인식은 음향 및 언어정보를 통해 감정을 이해하는 수단으로 주목하고 있으나 대부분 단일한 음성 특징값으로 감정을 인식하고 있다. 하지만 대화문에는 다양한 감정이 복합적으로 존재하기 때문에 다중 감정을 인식하는 방법이 필요하다. 따라서 본 논문에서는 복합적으로 존재하는 내재된 감정인식을 위해 음성 데이터를 전처리한 후 특징 벡터를 추출하고 시간의 흐름을 고려한 다중 감정 회귀 모델을 제안한다.

SIP 기반 음성 통신 환경에서의 실시간 모니터링 플랫폼 개발 (The Real-time Monitoring for SIP-based VoIP Network)

  • 우호진;이원석
    • 한국IT서비스학회:학술대회논문집
    • /
    • 한국IT서비스학회 2009년도 춘계학술대회
    • /
    • pp.365-368
    • /
    • 2009
  • 고속 인터넷 망 구축과 멀티미디어 통신 수요의 증가에 따라 VoIP는 기존의 PSTN 망의 대체 혹은 확장 기술로서 지속적으로 검증되어 왔다. 음성 데이터 처리 규약들 중 SIP는 다른 규약에 비해 신호 처리 단계가 간단하기 때문에 이를 기반으로 RTP를 활용하여 음성 통신 시스템을 구축하는 사례가 늘어나고 있다. 그러나 RTP의 특성상 패킷을 처리할 때마다 복원 과정이 필요하며, 다중 세션으로 통신이 발생할 경우 전체 패킷들의 관리가 복잡해지므로 이들 간에 혼선 없이 데이터를 처리 및 유지할 수 있는 방법론이 요구된다. 본 논문에서는 SIP 기반의 IP 전화를 통해서 고객과 상담원 간의 통화 이벤트가 발생하는 일반 콜센터 환경에서 RTP 음성 데이터를 처리하는 다중 세션 어플리케이션의 구축 사례를 제시한다. 구현한 시스템은 IP 전화에서 발생하는 통화 내역을 통합 스위치 서버에서 포트 미러링하여 녹취 및 녹음 서버로 전송하며, 전송된 패킷 정보들의 세션이 유지되고 있는 동안 음성 데이터를 실시간으로 모니터링한다.

  • PDF

업계소식

  • 한국전자산업진흥회
    • 전자진흥
    • /
    • 제5권6호
    • /
    • pp.98-100
    • /
    • 1985
  • PDF

업계소식

  • 한국전자산업진흥회
    • 전자진흥
    • /
    • 제5권7호
    • /
    • pp.94-97
    • /
    • 1985
  • PDF

동적 다중 그룹 혼합 가중치를 이용한 한국어 음성 인식의 성능향상 (Improvement in Korean Speech Recognition using Dynamic Multi-Group Mixture Weight)

  • 황기찬;김종광;김진수;이정현
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 가을 학술발표논문집 Vol.29 No.2 (2)
    • /
    • pp.544-546
    • /
    • 2002
  • 본 논문은 CDHMM(Continuous Density Hidden Markov Model)의 훈련하는 방법을 동적 다중 그룹 혼합 가중치(Dynamic Mutli-Group mixture weight)을 이용하여 재구성하는 방법을 제안한다. 음성은 Hidden 상태열에 의하여 특성화되고, 각 상태는 가중된 혼합 가우시안 밑도 함수에 의해 표현된다. 음성신호를 더욱더 정확하게 계산하려면 각 상태를 위한 가우시안 함수를 더욱더 많이 사용해야 하며 이것은 많은 계산량이 요구된다. 이러한 문제는 가우시안 분포 확률의 통계적인 평균을 이용하면 계산량을 줄일 수 있다. 그러나 이러한 기존의 방법들은 다양한 화자의 발화속도와 가중치의 적용이 적합하지 못하여 인식률을 저하시키는 단점을 가지고 있다. 이 문제를 다양한 화자의 발화속도에 적합하도록 화자의 화자의 발화속도에 따라 동적으로 5개의 그룹으로 구성하고 동적 다중 그룹 혼합 가중치를 적용하여 CDHMM 파라미터를 재구성함으로써 8.5%의 인식율이 증가되었다.

  • PDF

CHMM을 이용한 발매기 명령어의 음성인식에 관한 연구 (A Study on the Speech Recognition for Commands of Ticketing Machine using CHMM)

  • 김범승;김순협
    • 한국철도학회논문집
    • /
    • 제12권2호
    • /
    • pp.285-290
    • /
    • 2009
  • 논문에서는 연속HMM(Continuos Hidden Markov Model)을 이용하여 실시간으로 발매기 명령어(314개 역명)를 인식 할 수 있도록 음성인식 시스템을 구현하였다. 특징 벡터로 39 MFCC를 사용하였으며, 인식률 향상을 위하여 895개의 tied-state 트라이폰 음소 모델을 구성하였다. 시스템 성능 평가 결과 다중 화자 종속 인식률은 99.24%, 다중화자 독립 인식률은 98.02%의 인식률을 나타내었으며, 실제 노이즈가 있는 환경에서 다중 화자 독립 실험의 경우 93.91%의 인식률을 나타내었다.

음성인식을 위한 주파수 부대역별 효과적인 특징추출 (Effective Feature Extraction in the Individual frequency Sub-bands for Speech Recognition)

  • 지상문
    • 한국정보통신학회논문지
    • /
    • 제7권4호
    • /
    • pp.598-603
    • /
    • 2003
  • 본 논문에서는 주파수 부대역마다 최적의 특징추출을 위해서, 음성인식률을 기준으로 최적의 방법을 선택한다. 다중대역 음성인식 접근을 사용하여 각기 다른 주파수 영역에서 특징벡터를 독립적으로 추출함으로써 부대역별로 다른 특징추출 방법을 적용할 수 있었다. 저주파 대역의 음성은 비교적 스펙트럼의 구조가 명확하므로 전극모델을 사용하는 것이 효과적이었고, 고주파 대역에서는 비모수적인 변환방법인 이산 코사인 변환을 사용한 켑스트럼이 효과적이었다. 부대역별로 효과적인 특징추출 방법을 사용함으로써, 각 주파수 부대역에 포함된 음성인식을 위한 언어정보를 보다 효과적으로 추출할 수 있었다. 음성인식 실험결과, 제안한 방법은 전대역 특징추출보다 우수한 성능을 나타내었다.

중첩 U-Net 기반 음성 향상을 위한 다중 레벨 Skip Connection (Multi-level Skip Connection for Nested U-Net-based Speech Enhancement)

  • 황서림;변준;허준영;차재빈;박영철
    • 방송공학회논문지
    • /
    • 제27권6호
    • /
    • pp.840-847
    • /
    • 2022
  • 심층 신경망(Deep Neural Network) 기반 음성 향상에서 입력 음성의 글로벌 정보와 로컬 정보를 활용하는 것은 모델의 성능과 밀접한 연관성을 갖는다. 최근에는 다중 스케일을 사용하여 입력 데이터의 글로벌 정보와 로컬 정보를 활용하는 중첩 U-Net 구조가 제안되었으며, 이러한 중첩 U-Net은 음성 향상 분야에도 적용되어 매우 우수한 성능을 보였다. 그러나 중첩 U-Net에서 사용되는 단일 skip connection은 중첩된 구조에 알맞게 변형되어야 할 필요성이 있다. 본 논문은 중첩 U-Net 기반 음성 향상 알고리즘의 성능을 최적화하기 위하여 다중 레벨 skip connection(multi-level skip connection, MLS)을 제안하였다. 실험 결과, 제안된 MLS는 기존의 skip connection과 비교하여 다양한 객관적 평가 지표에서 큰 성능 향상을 보이며 이를 통해 MLS가 중첩 U-Net 기반 음성 향상 알고리즘의 성능을 최적화시킬 수 있음을 확인하였다. 또한, 최종 제안 모델은 다른 심층 신경망 기반 음성 향상 모델과 비교하여서도 매우 우수한 성능을 보인다.

TeakLite DSP를 이용한 적응형 다중 비트율 광대역 (AMR-WB) 음성부호화기의 실시간 구현 (Real-time Implementation of AMR-WB Speech Codec Using TeakLite DSP)

  • 정희범;김경수;한민수;변경진
    • 한국음향학회지
    • /
    • 제23권3호
    • /
    • pp.262-267
    • /
    • 2004
  • 적응형 다중 비트율 광대역 (AMR-WB) 음성부호화기는 50∼7000 Hz의 오디오 신호를 압축/복원하는 3GPP의 가장 최근의 음성 부호화 표준으로써 23.85 kbit/s에서 6.60 kbit/s까지 9가지의 다중 비트율을 가지고 있다. 본 논문에서는 16비트 고정 소수점형 TeakLite DSP를 이용하여 AMR WB 음성부호화기를 실시간 구현한 결과에 대해 기술하였다. 구현된 AMR-WB 보코더는 가장 높은 비트율인 23.85 kbit/s모드에서 52.2 MIPS의 복잡도를 가지고 있으며, 사용된 프로그램 메모리는 약 17.9 kwords 이고, 데이터 RAM 메모리는 11.8 kwords, 데이터 ROM 메모리는 약 10.1 kwords 이다. 구현된 AMR-WB 프로그램은 3GPP의 표준시험 벡터 23개를 9개 모드에 대해 비트 단위로 일치시켜 검증을 완료하고, 실시간 보드 시험에서도 오디오 신호의 입출력이 왜곡되지 않고 실시간 지연없이 안정적으로 동작하는 것을 확인하였다.