• 제목/요약/키워드: Encoder Model

검색결과 355건 처리시간 0.02초

변분 오토인코더와 비교사 데이터 증강을 이용한 음성인식기 준지도 학습 (Semi-supervised learning of speech recognizers based on variational autoencoder and unsupervised data augmentation)

  • 조현호;강병옥;권오욱
    • 한국음향학회지
    • /
    • 제40권6호
    • /
    • pp.578-586
    • /
    • 2021
  • 종단간 음성인식기의 성능향상을 위한 변분 오토인코더(Variational AutoEncoder, VAE) 및 비교사 데이터 증강(Unsupervised Data Augmentation, UDA) 기반의 준지도 학습 방법을 제안한다. 제안된 방법에서는 먼저 원래의 음성데이터를 이용하여 VAE 기반 증강모델과 베이스라인 종단간 음성인식기를 학습한다. 그 다음, 학습된 증강모델로부터 증강된 데이터를 이용하여 베이스라인 종단간 음성인식기를 다시 학습한다. 마지막으로, 학습된 증강모델 및 종단간 음성인식기를 비교사 데이터 증강 기반의 준지도 학습 방법으로 다시 학습한다. 컴퓨터 모의실험 결과, 증강모델은 기존의 종단간 음성인식기의 단어오류율(Word Error Rate, WER)을 개선하였으며, 비교사 데이터 증강학습방법과 결합함으로써 성능을 더욱 개선하였다.

Zero-anaphora resolution in Korean based on deep language representation model: BERT

  • Kim, Youngtae;Ra, Dongyul;Lim, Soojong
    • ETRI Journal
    • /
    • 제43권2호
    • /
    • pp.299-312
    • /
    • 2021
  • It is necessary to achieve high performance in the task of zero anaphora resolution (ZAR) for completely understanding the texts in Korean, Japanese, Chinese, and various other languages. Deep-learning-based models are being employed for building ZAR systems, owing to the success of deep learning in the recent years. However, the objective of building a high-quality ZAR system is far from being achieved even using these models. To enhance the current ZAR techniques, we fine-tuned a pretrained bidirectional encoder representations from transformers (BERT). Notably, BERT is a general language representation model that enables systems to utilize deep bidirectional contextual information in a natural language text. It extensively exploits the attention mechanism based upon the sequence-transduction model Transformer. In our model, classification is simultaneously performed for all the words in the input word sequence to decide whether each word can be an antecedent. We seek end-to-end learning by disallowing any use of hand-crafted or dependency-parsing features. Experimental results show that compared with other models, our approach can significantly improve the performance of ZAR.

Bird's Eye View Semantic Segmentation based on Improved Transformer for Automatic Annotation

  • Tianjiao Liang;Weiguo Pan;Hong Bao;Xinyue Fan;Han Li
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권8호
    • /
    • pp.1996-2015
    • /
    • 2023
  • High-definition (HD) maps can provide precise road information that enables an autonomous driving system to effectively navigate a vehicle. Recent research has focused on leveraging semantic segmentation to achieve automatic annotation of HD maps. However, the existing methods suffer from low recognition accuracy in automatic driving scenarios, leading to inefficient annotation processes. In this paper, we propose a novel semantic segmentation method for automatic HD map annotation. Our approach introduces a new encoder, known as the convolutional transformer hybrid encoder, to enhance the model's feature extraction capabilities. Additionally, we propose a multi-level fusion module that enables the model to aggregate different levels of detail and semantic information. Furthermore, we present a novel decoupled boundary joint decoder to improve the model's ability to handle the boundary between categories. To evaluate our method, we conducted experiments using the Bird's Eye View point cloud images dataset and Cityscapes dataset. Comparative analysis against stateof-the-art methods demonstrates that our model achieves the highest performance. Specifically, our model achieves an mIoU of 56.26%, surpassing the results of SegFormer with an mIoU of 1.47%. This innovative promises to significantly enhance the efficiency of HD map automatic annotation.

딥러닝 기반의 Semantic Segmentation을 위한 Residual U-Net에 관한 연구 (A Study on Residual U-Net for Semantic Segmentation based on Deep Learning)

  • 신석용;이상훈;한현호
    • 디지털융복합연구
    • /
    • 제19권6호
    • /
    • pp.251-258
    • /
    • 2021
  • 본 논문에서는 U-Net 기반의 semantic segmentation 방법에서 정확도를 향상시키기 위해 residual learning을 활용한 인코더-디코더 구조의 모델을 제안하였다. U-Net은 딥러닝 기반의 semantic segmentation 방법이며 자율주행 자동차, 의료 영상 분석과 같은 응용 분야에서 주로 사용된다. 기존 U-Net은 인코더의 얕은 구조로 인해 특징 압축 과정에서 손실이 발생한다. 특징 손실은 객체의 클래스 분류에 필요한 context 정보 부족을 초래하고 segmentation 정확도를 감소시키는 문제가 있다. 이를 개선하기 위해 제안하는 방법은 기존 U-Net에 특징 손실과 기울기 소실 문제를 방지하는데 효과적인 residual learning을 활용한 인코더를 통해 context 정보를 효율적으로 추출하였다. 또한, 인코더에서 down-sampling 연산을 줄여 특징맵에 포함된 공간 정보의 손실을 개선하였다. 제안하는 방법은 Cityscapes 데이터셋 실험에서 기존 U-Net 방법에 비해 segmentation 결과가 약 12% 향상되었다.

A BERT-Based Automatic Scoring Model of Korean Language Learners' Essay

  • Lee, Jung Hee;Park, Ji Su;Shon, Jin Gon
    • Journal of Information Processing Systems
    • /
    • 제18권2호
    • /
    • pp.282-291
    • /
    • 2022
  • This research applies a pre-trained bidirectional encoder representations from transformers (BERT) handwriting recognition model to predict foreign Korean-language learners' writing scores. A corpus of 586 answers to midterm and final exams written by foreign learners at the Intermediate 1 level was acquired and used for pre-training, resulting in consistent performance, even with small datasets. The test data were pre-processed and fine-tuned, and the results were calculated in the form of a score prediction. The difference between the prediction and actual score was then calculated. An accuracy of 95.8% was demonstrated, indicating that the prediction results were strong overall; hence, the tool is suitable for the automatic scoring of Korean written test answers, including grammatical errors, written by foreigners. These results are particularly meaningful in that the data included written language text produced by foreign learners, not native speakers.

MPEG-2 AAC Encoder의 심리음향 모델 최적화 (An Optimization on the Psychoacoustic Model for MPEG-2 AAC Encoder)

  • 박종태;문규성;이강현
    • 전자공학회논문지CI
    • /
    • 제38권2호
    • /
    • pp.33-41
    • /
    • 2001
  • 최근 멀티미디어 분야 중에서 가장 중요한 기술 중의 하나가 압축이다. 오디오 파일들은 인터넷을 중심으로 급속히 전파되어가고 있으며, 그 중에서 가장 유명한 것이 MP-3(MPEC-1 Layer3)인데, MP-3는 128Kbps에서 CD음질을 얻을 수 있지만 64Kbps 이하에서는 음질이 급속히 떨어진다. 반면에 MPEG-2 AAC(Advanced Audio Coding)는 MPEG-1과 호환성을 무시하지만 MP 3보다 1.4배의 높은 압축 율을 갖으며, 최대 7.1채널과 96KHz의 샘플 율을 갖는다. 본 논문에서는 MPEG-2 AAC 인코더 부분에서 막대한 연산 량을 갖는 심리음향 모델을 최적화하여 AAC 인코딩 연산 량을 감소시키며 처리속도를 증가하는 알고리즘을 제안한다. 심리음향 모델 최적화 응용 프로그램은 C++언어를 이용하여 구현하였으며, 실험결과 심리음향 모델은 SMR(Signal to Masking Ratio)을 위하여 44.1KHz의 샘플 율을 갖고 2048포인트의 FFT(Fast Fourier Transform)연산을 수행하며, 인코더 블록의 제어를 위하여 서브밴드 필터에 각각의 엔트로피 값들이 입력된다. 제안된 심리음향 모델은 비 예측성 값의 최적화로 인하여 빠른 속도로 수행되었다. 또한 비 예측성 값을 순음지수로 변화 시, 고 주파수 영역의 순음지수 값의 최적화로 연산처리 속도가 증가하였다.

  • PDF

우회 빈의 병렬처리가 가능한 HEVC CABAC 부호화기의 설계 (Design of HEVC CABAC Encoder With Parallel Processing of Bypass Bins)

  • 김두환;문전학;이성수
    • 전기전자학회논문지
    • /
    • 제19권4호
    • /
    • pp.583-589
    • /
    • 2015
  • HEVC CABAC에서는 하나의 빈을 부호화한 후 확률 모델을 업데이트하고, 업데이트된 확률 모델로 다음 빈을 부호화한다. 기존 CABAC 부호화기는 매 사이클마다 1개의 빈밖에는 부호화하지 못하여 처리율을 향상시킬 수 없었다. 본 논문에서는 확률 모델의 업데이트가 필요없는 우회 빈을 병렬처리 함으로서 처리율을 높인 HEVC CABAC 부호화기를 제안한다. 설계된 CABAC 부호화기는 매 사이클마다 1개의 정규 빈을 처리하거나 최대 4개의 우회 빈을 처리할 수 있으며, 평균적으로 매 사이클당 1.15~1.92개의 빈을 처리한다. 0.18 um 공정에서 합성한 결과, 게이트 수는 메모리를 포함하여 78,698 게이트, 최대 동작 속도는 136 MHz, 최대 처리율은 261 Mbin/s이다.

T-DMB/AT-DMB 서비스를 위한 부호화 모드 제한을 갖는 공간 확장성 부호기의 성능 비교 (A Performance Comparison of Spatial Scalable Encoders with the Constrained Coding Modes for T-DMB/AT-DMB Services)

  • 김진수;박종갑;김규석;최성진;서광덕;김재곤
    • 방송공학회논문지
    • /
    • 제13권4호
    • /
    • pp.501-515
    • /
    • 2008
  • 최근에 고품질 이동 멀티미디어 서비스에 대한 사용자의 요구가 증대되고, 계층 변조 전송 기법을 통하여 추가적인 전송 대역폭을 확보할 수 있게 됨에 따라 스케일러블 비디오 부호화(Scalable Video Coding)를 이용하여 기존의 T-DMB(Terrestrial DMB)의 화질을 개선한 고품질 지상파 DMB(Advanced Terrestrial DMB) 서비스를 제공하기 위한 연구가 활발히 진행되고 있다. 그러나 T-DMB와 AT-DMB의 호환적인 서비스를 지원하는 SVC 계층 부호기는 매우 복잡한 구조를 갖게 되므로, 조기 서비스 도입을 위하여 부호기의 복잡도 감소에 대한 연구가 요구된다. 본 논문에서는 기존의 T-DMB와 호환성을 갖는 공간 확장성 SVC 부호기에서 매크로블록 계층의 부호화 모드 제한을 통한 고속 부호화 모드 결정 기법을 제안한다. 제안된 기법은 매크로블록 계층의 부호화 모드 결정 함수의 구조 분석을 통한 기저 계층과 향상 계층, 그리고 계층 간에 사용되는 부호화 모드의 통계적 특성에 기초한다. 모의실험을 통하여, 제안된 기법이 우수한 성능을 유지하면서, 수행시간을 크게 단축시킬 수 있는 호환적인 부호기를 얻을 수 있음을 보인다.

Comparative Study of Dimension Reduction Methods for Highly Imbalanced Overlapping Churn Data

  • Lee, Sujee;Koo, Bonhyo;Jung, Kyu-Hwan
    • Industrial Engineering and Management Systems
    • /
    • 제13권4호
    • /
    • pp.454-462
    • /
    • 2014
  • Retention of possible churning customer is one of the most important issues in customer relationship management, so companies try to predict churn customers using their large-scale high-dimensional data. This study focuses on dealing with large data sets by reducing the dimensionality. By using six different dimension reduction methods-Principal Component Analysis (PCA), factor analysis (FA), locally linear embedding (LLE), local tangent space alignment (LTSA), locally preserving projections (LPP), and deep auto-encoder-our experiments apply each dimension reduction method to the training data, build a classification model using the mapped data and then measure the performance using hit rate to compare the dimension reduction methods. In the result, PCA shows good performance despite its simplicity, and the deep auto-encoder gives the best overall performance. These results can be explained by the characteristics of the churn prediction data that is highly correlated and overlapped over the classes. We also proposed a simple out-of-sample extension method for the nonlinear dimension reduction methods, LLE and LTSA, utilizing the characteristic of the data.

Hyperparameter experiments on end-to-end automatic speech recognition

  • Yang, Hyungwon;Nam, Hosung
    • 말소리와 음성과학
    • /
    • 제13권1호
    • /
    • pp.45-51
    • /
    • 2021
  • End-to-end (E2E) automatic speech recognition (ASR) has achieved promising performance gains with the introduced self-attention network, Transformer. However, due to training time and the number of hyperparameters, finding the optimal hyperparameter set is computationally expensive. This paper investigates the impact of hyperparameters in the Transformer network to answer two questions: which hyperparameter plays a critical role in the task performance and training speed. The Transformer network for training has two encoder and decoder networks combined with Connectionist Temporal Classification (CTC). We have trained the model with Wall Street Journal (WSJ) SI-284 and tested on devl93 and eval92. Seventeen hyperparameters were selected from the ESPnet training configuration, and varying ranges of values were used for experiments. The result shows that "num blocks" and "linear units" hyperparameters in the encoder and decoder networks reduce Word Error Rate (WER) significantly. However, performance gain is more prominent when they are altered in the encoder network. Training duration also linearly increased as "num blocks" and "linear units" hyperparameters' values grow. Based on the experimental results, we collected the optimal values from each hyperparameter and reduced the WER up to 2.9/1.9 from dev93 and eval93 respectively.