• 제목/요약/키워드: Vocoder

검색결과 151건 처리시간 0.02초

유무선망에서 사용되는 디지털 음성 부호화 기술 동향 (Digital Speech Coding Technologies for Wire and Wireless Communication)

  • 윤병식;최송인;강상원
    • 방송공학회논문지
    • /
    • 제10권3호
    • /
    • pp.261-269
    • /
    • 2005
  • 디지털 음성 부호화기는 디지털 통신 시스템의 음성 압축 수단으로 이용되어 왔으며 심한 채널에러와 한정된 주파수 자원과 같은 디지털 무선 통신 시스템 환경에 적합하게 더욱 발전해왔다. 또한 디지털 통신 기술의 비약적인 발전에 따라 사용자는 더욱 높은 수준에 해당하는 음성 서비스를 요구하게 되고 그로 인하여 단순히 의사 전달에 해당하는 음성 서비스에서 높은 수준의 멀티미디어 콘텐츠들을 수용할 수 있는 음성 및 오디오 부호화기의 기술개발로 급격히 전환 되고 있다. 본 논문에서는 유선 및 무선 디지털망에서 사용되어지는 음성 / 오디오 부호화기의 기술에 대하여 살펴보고 이와 관련된 표준화 활동 및 기술동향에 대하여 알아본다. 또한 향후 유무선 디지털망의 발전에 따른 디지털 음성 / 오디오 부호화기술의 발전 방향에 대하여 언급한다.

d-vector를 이용한 한국어 다화자 TTS 시스템 (A Korean Multi-speaker Text-to-Speech System Using d-vector)

  • 김광현;권철홍
    • 문화기술의 융합
    • /
    • 제8권3호
    • /
    • pp.469-475
    • /
    • 2022
  • 딥러닝 기반 1인 화자 TTS 시스템의 모델을 학습하기 위해서 수십 시간 분량의 음성 DB와 많은 학습 시간이 요구된다. 이것은 다화자 또는 개인화 TTS 모델을 학습시키기 위해서는 시간과 비용 측면에서 비효율적 방법이다. 음색 복제 방법은 새로운 화자의 TTS 모델을 생성하기 위하여 화자 인코더 모델을 이용하는 방식이다. 학습된 화자 인코더 모델을 통해 학습에 사용되지 않은 새로운 화자의 적은 음성 파일로부터 이 화자의 음색을 대표하는 화자 임베딩 벡터를 만든다. 본 논문에서는 음색 복제 방식을 적용한 다화자 TTS 시스템을 제안한다. 제안한 TTS 시스템은 화자 인코더, synthesizer와 보코더로 구성되어 있는데, 화자 인코더는 화자인식 분야에서 사용하는 d-vector 기법을 적용한다. 학습된 화자 인코더에서 도출한 d-vector를 synthesizer에 입력으로 추가하여 새로운 화자의 음색을 표현한다. MOS와 음색 유사도 청취 방법으로 도출한 실험 결과로부터 제안한 TTS 시스템의 성능이 우수함을 알 수 있다.

Research on Developing a Conversational AI Callbot Solution for Medical Counselling

  • Won Ro LEE;Jeong Hyon CHOI;Min Soo KANG
    • 한국인공지능학회지
    • /
    • 제11권4호
    • /
    • pp.9-13
    • /
    • 2023
  • In this study, we explored the potential of integrating interactive AI callbot technology into the medical consultation domain as part of a broader service development initiative. Aimed at enhancing patient satisfaction, the AI callbot was designed to efficiently address queries from hospitals' primary users, especially the elderly and those using phone services. By incorporating an AI-driven callbot into the hospital's customer service center, routine tasks such as appointment modifications and cancellations were efficiently managed by the AI Callbot Agent. On the other hand, tasks requiring more detailed attention or specialization were addressed by Human Agents, ensuring a balanced and collaborative approach. The deep learning model for voice recognition for this study was based on the Transformer model and fine-tuned to fit the medical field using a pre-trained model. Existing recording files were converted into learning data to perform SSL(self-supervised learning) Model was implemented. The ANN (Artificial neural network) neural network model was used to analyze voice signals and interpret them as text, and after actual application, the intent was enriched through reinforcement learning to continuously improve accuracy. In the case of TTS(Text To Speech), the Transformer model was applied to Text Analysis, Acoustic model, and Vocoder, and Google's Natural Language API was applied to recognize intent. As the research progresses, there are challenges to solve, such as interconnection issues between various EMR providers, problems with doctor's time slots, problems with two or more hospital appointments, and problems with patient use. However, there are specialized problems that are easy to make reservations. Implementation of the callbot service in hospitals appears to be applicable immediately.

연속음성신호에서 IMBE 모델을 이용한 SNR 추정 연구 (IMBE Model Based SNR Estimation of Continuous Speech Signals)

  • 박형우;배명진
    • 한국음향학회지
    • /
    • 제29권2호
    • /
    • pp.148-153
    • /
    • 2010
  • 음성 신호처리 환경에서 잡음이 섞인 신호를 개선할 목적으로 음성향상 기법이 많이 이용되고 있다. 잡음추정 알고리즘은 변화하는 환경에 빠르게 적응할 수 있어야 하며 음성신호의 영향을 줄이기 위해 음성신호가 존재하지 않는 구간에서만 잡음의 파워를 갱신한다. 이러한 방법은 음성구간검출이 선행되어야 한다. 그러나 잡음에 열화된 음성신호에 묵음구간이 존재하지 않을 경우, 위와 같이 음성검출을 통한 묵음구간에서의 잡음 추정 방법 및 SNR 추정 방법이 적용될 수 없다. 본 논문에서는 묵읍구간이 존재하지 않는 연속음성신호에서 SNR을 추정하는 기법을 제안한다. 음성신호는 MBE(Multi-Band Excitation) 발성 모델에 따라 유 무성음으로 구분할 수 있다. 그리고 에너지가 유성음에 대부분 분포하기 때문에, 부가성 잡음환경에서 유성음의 에너지를 음성신호의 에너지로 근사화하여 SNR을 추정할 수 있다. 제안하는 방식은 연속음성신호를 IMBE (Improved Multi-Band Exciation) 보코더를 이용해 유 무성음 대역으로 구분하고, 각각 대역의 에너지 정보를 아용하여 단구간 음성신호의 SNR을 계산한다. 전체 음성구간의 SNR은 단구간 SNR의 평균값을 통해 추정한다.

연속적인 프레임 손실 상황에서의 G.729 PLC 성능개선 (The Performance Improvement of G.729 PLC in Situation of Consecutive Frame Loss)

  • 홍성훈;김진우;배명진
    • 한국음향학회지
    • /
    • 제29권1호
    • /
    • pp.34-40
    • /
    • 2010
  • 인터넷이 널리 보급이 되면서 인터넷을 이용한 다양한 서비스가 제공되고 있다. 이 중 인터넷 망을 이용한 음성통신서비스는 저렴한 가격에 그 사용비율이 점차 증가하고 있다. 그러나 기존 전화기의 회선교환방식과는 달리 패킷교환방식을 사용하기 때문에 패킷의 지연, 손실 및 지터 등으로 인해 음질 저하가 발생한다. 인터넷망에서 사용하는 음성부호화기는 자체적으로 PLC (Packet Loss Concealment) 알고리즘을 사용하고 있지만 연속적인 패킷 손실에 대해서는 취약하다. 본 논문에서는 개선된 G.729 PLC알고리즘과 G.711 Appendix I에서 사용한 PLC 알고리즘을 이용하여 연속적인 패킷 손실 하에서 음질 저하를 개선하기 위해 LP (Linear Prediction) 파라미터 보간, 여기신호 복원, 여기신호이득 복원 방법을 제안한다. 성능 평가 결과 기존 대비 약 11% 정도 성능이 향상 되었다.

3G+ CDMA망에서의 기술 진화: 응용 서비스 QoS 성능 연구 (3G+ CDMA Wireless Network Technology Evolution: Application service QoS Performance Study)

  • 김재현
    • 대한전자공학회논문지TC
    • /
    • 제41권10호
    • /
    • pp.1-9
    • /
    • 2004
  • CDMA 2000 서비스의 주요 성공여부는 사용자 측면에서 응용서비스의 성능에 좌우한다고 할 수 있다. 본 논문에서는 CDMA 네트워크에서의 단대단 성능을 평가하기 위하여 단대단 시뮬레이션 모델을 개발하고 이를 사용하여 음성과 데이터 서비스의 사용자 측면에서 응용서비스의 성능을 분석하였다. 시뮬레이션 성능분석 모델들은 응용서비스 트래픽 특성 모델, 네트워크 구조 (architecture) 모델, 네트워크 구성요소 모델, 각 계층별 프로토콜 모델들을 포함한다. 다양한 전송계층의 구조에 따른 사용자 측면의 응용계층 성능을 평가하기 위하여 액세스망(RAN: Radio Access Network)과 코어망(CN: Core Network)에서 ATM 과 IP 전송방식을 고려하였다. 음성 서비스 분석 결과로 보코터 바이패스를 사용하는 경우 다른 방식에 비하여 30%의 성능 개선을 보이는 것을 알 수 있었다. 데이터 서비스 성능(웹 서비스)의 경우, 연속적 TCP연결 (persistent TCP connection)과 파이프라이닝 효과에 기인하여 HTTP v.1.1이 HTTP v.1.0에 비하여 성능이 우수하였다. 또한, RAN 구조에서 웹 브라우징 서비스의 경우 IP 전송기술이 ATM 에 비하여 데이터 패킷에 대한 패킷 오버헤드가 상대적으로 적어 우수함을 보였으며, 패킷크기가 작은 음성 서비스의 경우 반대의 효과를 볼 수 있었다. 비록 시뮬레이션 결과를 통하여 3G-lX EV 시스템이 3G-lX RTT에 비하여 우수한 패킷지연 성능을 보여주었지만, 기술적 진화의 모든 단계에서 단대단 사용자 단계의 성능에 영향을 주는 다양한 네트워크의 구성요소 및 계층에 대하여 고려하여야 할 것이다.

인터넷 환경에서 FEC 기능이 추가된 AMR음성 부호화기를 이용한 오디오 스트림 전송 (Audio Stream Delivery Using AMR(Adaptive Multi-Rate) Coder with Forward Error Correction in the Internet)

  • 김은중;이인성
    • 한국통신학회논문지
    • /
    • 제26권12A호
    • /
    • pp.2027-2035
    • /
    • 2001
  • 본 논문에서는 ETSI와 3GPP에서 차세대 이동통신 IMT-2000 서비스의 음성부호화기의 표준으로 채택한 AMR을 인터넷을 통한 멀티미디어 서비스에서 사용하기 위해 부가 정보를 이용한 손실 패킷 복구 방법이 첨가된 전송방법을 제시한다. 인터넷과 같은 패킷 교환 망에서의 음성 통신에서 과도한 패킷 손실은 급격한 음질 저하를 유발한다. 본 논문에서는 음성 패킷 데이터를 순방향 오류정정(FEC)의 부가 정보로 사용하고 연속 패킷 손실이 발생하였을 경우 오류 은닉방법을 사용하여 패킷 손실에 의한 음질 저하를 개선하는 방법을 제안한다. 순방향 오류정정방법 중 부가 음성 정보를 원래의 음성정보와 함께 보냄으로써 손실된 음성은 부가 음성 정보를 이용해 복구할 수 있다. 본 연구에서 사용한 AMR 음성 부호화기는 CELP기반의 음성 부호화기 이므로 음성 부호화기의 특징을 이용해 2개 이상의 군집오류가 발생했을 경우 패킷 손실이 일어나기 전후의 데이터를 이용해서 손실된 패킷으로 인한 영향을 최소로 하는 오류은닉 방법을 사용하였다. 제안된 방법의 성능을 평가하기 위해 AMR 부호화기의 고음질 압축 방법인 12.2 kbit/s 모드로 전송하는 방법과 ITU-T 표준안인 CS-ACELP로 전송하는 방법을 SNR과 MOS 측정을 통해 비교하였다. 제안된 방법이 10%의 평균 패킷 손실률에서 부호화기 자체의 오류은닉 기술을 적용한 AMR - 12.2 kbit/s 모드보다 MOS값에서는 1.1, SNR값은 5.61 dB 높았으며, 제안된 방법은 20%의 손실률에서도 통신 가능한 음질을 유지하였다.

  • PDF

전이구간 부호화를 이용한 2.4 kbit/s 다중모드 음성 부호화 방법 (Method of a Multi-mode Low Rate Speech Coder Using a Transient Coding at the Rate of 2.4 kbit/s)

  • 안영욱;김종학;이인성;권오주;배문관
    • 대한전자공학회논문지SP
    • /
    • 제42권2호
    • /
    • pp.131-142
    • /
    • 2005
  • 현재 개발된 4 kbit/s이하의 저 전송율 음성부호화 시스템은 STC(Sinusoidal Transform Coding)나 MBE (Multi-band Excitation Coding)에 바탕을 두고 있다. 이러한 저 전송율 부호화기들은 대표적인 전이구간 신호인 유성음의 시작점과 끝점에서의 혼합신호(onset signal, offset signal), 비주기적인 신호(non-period signal) 등은 정확히 표현하지 못하기 때문에 자연스런 음질을 만들어 내지 못한다. 본 논문에서는 유성음에는 하모닉 모델, 무성음에서는 스토케스틱 모델, 전이구간에는 하모닉 기반의 비주기적인 펄스의 위치를 추적하는 방식을 사용하여 효과적으로 전이구간을 모델링 하는 방법과 2.4 kbit/s 다중모드 부호화방법을 제안한다. 제안한 방법은 원본신호에서 선형예측 부호화 방법으로 추출된 잔여신호를 신호의 성격에 따라 모델을 달리하는 방법이며, 자각의 신호의 성격에 따라 좋은 성능을 나타내는 모델을 사용하였다. 또한 효율적인 전이구간 모델링 방법의 도입으로 저 전송율에서 CELP(Code Excitation Linear Predictive) 부호화 방식에 의해 시간축에서 합성되는 여기신호와 선형위상을 이용한 하모닉 부호화 방식에 의해 주파수축에서 합성되는 여기신호를 효율적으로 결합이 가능하다는 것이 제안된 2.4 kbit/s 다중모드 부호화기의 장점이다. 제안된 방법의 2.4kbit/s 다중모드 부호화기는 미국 연방 표준부호화기인 2.4 kbit/s MELP(Mixed Excitation Linear Prediction) 부호화기보다 더 좋은 성능을 나타낸다.

시간적 근접성 향상을 통한 효율적인 SVM 기반 음성/음악 분류기의 구현 방법 (Efficient Implementation of SVM-Based Speech/Music Classifier by Utilizing Temporal Locality)

  • 임정수;장준혁
    • 대한전자공학회논문지SP
    • /
    • 제49권2호
    • /
    • pp.149-156
    • /
    • 2012
  • 서포트벡터머신 (support vector machine)을 이용한 음성/음악 분류기는 높은 분류 정확도로 주목받고 있으나 많은 계산 량과 저장 공간을 요구하므로 특히 임베디드 시스템과 같이 자원이 제한 적인 경우에는 효율적인 구현이 필수적이다. 특히, 서포트벡터 (support vector)의 차원과 개수에 의해 결정되는 서포트벡터의 저장 공간의 크기는 일반적으로 임베디드 프로세서의 캐시 (cache)의 크기보다 훨씬 크므로 캐시에 존재하지 않는 서포트벡터를 메인 메모리로부터 읽어야 하는 경우가 많다. 메모리에서 데이터를 가져오는 데는 캐시나 레지스터와 비교했을 때 상대적으로 긴 시간과 많은 에너지가 소비되어 분류기의 실행시간과 에너지 소비를 증가시키는 요인이 된다. 본 논문에서는 분류기의 데이터 접근 양식을 보다 시간적 근접성을 가지게 변환하여 일단 프로세서 칩으로 불려진 데이터를 최대한 활용함으로써 메모리의 접근 횟수를 줄여 전체적인 서포트벡터의 실행시간의 단축시키는 기법을 제안한다. 실험을 통해 메모리로의 접근 회수의 감소와 이에 따른 실행시간 그리고 에너지 소비의 감소를 확인하였다.

x-vector를 이용한 다화자 음성합성 시스템 (A Multi-speaker Speech Synthesis System Using X-vector)

  • 조민수;권철홍
    • 문화기술의 융합
    • /
    • 제7권4호
    • /
    • pp.675-681
    • /
    • 2021
  • 최근 인공지능 스피커 시장이 성장하면서 사용자와 자연스러운 대화가 가능한 음성합성 기술에 대한 수요가 증가하고 있다. 따라서 다양한 음색의 목소리를 생성할 수 있는 다화자 음성합성 시스템이 필요하다. 자연스러운 음성을 합성하기 위해서는 대용량의 고품질 음성 DB로 학습하는 것이 요구된다. 그러나 많은 화자가 발화한 고품질의 대용량 음성 DB를 수집하는 것은 녹음 시간과 비용 측면에서 매우 어려운 일이다. 따라서 각 화자별로는 소량의 학습 데이터이지만 매우 많은 화자의 음성 DB를 사용하여 음성합성 시스템을 학습하고, 이로부터 다화자의 음색과 운율 등을 자연스럽게 표현하는 기술이 필요하다. 본 논문에서는 화자인식 기술에서 사용하는 딥러닝 기반 x-vector 기법을 적용하여 화자 인코더를 구성하고, 화자 인코더를 통해 소량의 데이터로 새로운 화자의 음색을 합성하는 기술을 제안한다. 다화자 음성합성 시스템에서 텍스트 입력에서 멜-스펙트로그램을 합성하는 모듈은 Tacotron2로, 합성음을 생성하는 보코더는 로지스틱 혼합 분포가 적용된 WaveNet으로 구성되어 있다. 학습된 화자 임베딩 신경망에서 추출한 x-vector를 Tacotron2에 입력으로 추가하여 원하는 화자의 음색을 표현한다.