• Title/Summary/Keyword: 학습모델

Search Result 5,999, Processing Time 0.038 seconds

A Study on Speaker Adaptation of HMM in a Continous Speech Recognition System (HMM을 이용한 연속음성인식 시스템의 화자적응화에 관한 연구)

  • 김상범
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.100-104
    • /
    • 1995
  • 일반적으로 화자적응화는 이미 학습되어 있는 불특정 화자 모델을 표준모델로 하고 소량의 적응화용 발화로 추가적인 학습을 실시하여 특정화자 모델의 성능에 가깝게 하는 기술로서 연속음성 인식에 있어서 매우 중요하다. ML 추정법을 이용한 화자적응화는 카테고리마다 모델의 학습패턴들을 다수개 준비한 후 학습시에 일괄적으로 적용시켜 모델 파라메터를 추정 갱신하므로 추가되는 화자데이터에 대해 데이터를 모두 공급하여야 한다. 본 연구에서는 문발화 데이터의 음절단위를 자동추출한 후 추가되는 화자데이터가 주어질 때 마다 적응화할 수 있는 화자적응화 방법을 검토하였다. 이 방법은 문발화 데이터를 잘라내지 않고 음절 단위를 자동추출시켜 추가 데이터마다 최대 사후확률 추정법을 이용하여 적응화 시키는 것으로 수소의 데이터로서도 적응화를 가능하게 하는 것이다. 본 연구에서 사용되는 음성데이터는 신문사설에서 발췌한 연속음성 10문장을 사용하고, 이 음성 데이터중 6명분은 HMM 학습용으로 하고 나머지 3명분은 적응화용 및 평가용 데이터로 사용하였다. 6명의 화자를 DDCHMM으로 학습하고 나머지 3명분을 MAP법으로 적응화시켰다. 그 결과 적응전과 비교해 볼 때 약 32%의 인식율 향상을 얻을 수 있었다.

  • PDF

Analysis of Credit Approval Data using Machine Learning Model (기계학습 모델을 이용한 신용 승인 데이터 분석)

  • Kim, Dong-Hyun;Kim, Se-Jun;Lee, Byung-Jun;Kim, Kyung-Tae;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.41-42
    • /
    • 2019
  • 본 논문에서는 다양한 기계학습 모델을 이용한 신용 데이터 분석 기법에 대해 서술한다. 기계학습 모델은 크게 Canonical models, Committee machines, 그리고 Deep learning models로 분류된다. 이러한 다양한 기계학습 모델 중 일부 학습 모델을 기반으로 Benchmark dataset인 Credit Approval 데이터를 분석하고 성능을 평가한다. 성능 평가에는 k-fold evaluation method를 사용하며, k-fold evaluation 결과에 대한 평균 성능을 측정하기 위해 Accuracy, Precision, Recall, 그리고 F1-score가 사용되었다.

  • PDF

Design of Teaching·Learning Model for Programming Language Education (프로그래밍 언어 교육을 위한 교수·학습 모델 설계)

  • Kang, Hwan Soo
    • Journal of Digital Contents Society
    • /
    • v.13 no.4
    • /
    • pp.517-524
    • /
    • 2012
  • This paper deals with the design of teaching learning model for programming language education. Various courses related to programming language education have opened at the university having many academic majors. In the meantime, a variety of programming languages have been developed, many integrated development environments of programming language have also been developed for users to make a program easily. But it is difficult for many novice learners to learn programming language still, likewise it is difficult for many teachers to teach the introduction course of programming language. In this paper, we have designed a teaching learning model based on scholastic achievements and blended learning for programming language education. The teaching learning model designed in this study was applied to a course opened in the second semester of 2011. According to the course evaluation result, the teaching learning model for programming language has shown to be an effective for novice learner.

Design of M-learning Tutoring System Using AFFIRIP model (AEFIRIP 모델을 이용한 M-learning 튜터링 시스템 설계)

  • Lee, Nam-Ju;Jun, Woo-Chun
    • 한국정보교육학회:학술대회논문집
    • /
    • 2006.08a
    • /
    • pp.307-312
    • /
    • 2006
  • M-learning (Mobile learning)을 기반으로 한 코스웨어나 모듈 설계 시 학습자의 적극적 참여와 의미 있는 상호작용의 기회 제공과 실제적 환경에서의 교육활동을 지원하는 것에 초점을 맞추어야 한다. 본 연구에서는 M-learning을 기반으로 실제적 상황에서의 학습을 위한 지능적 튜터링 모델인 AEFIRIP (Activation, Externalization, Focusing, Interpretations, Reflection, Information Processing)모델을 활용하여 독서교육 튜터링 시스템을 설계하였다. AEFIRIP 모델은 모바일 학습에 초점을 맞추어 실제적 상황에서 다양한 모바일 장비를 활용할 수 있도록 설계되었으며 CSCL(Computer Supported Collaborative Learning)학습의 일환으로 활용 가능하다. AEFIRIP 모델은 6단계의 구조화된 모바일 튜터링을 통하여 학습 활동을 위한 반자동화된 튜터링을 제공하며, 개별화 학습을 가능케 한다. 본 시스템은 M-learning에서 학습자의 독서 단계에 따라 개별화된 튜터링을 제공하는 것을 목적으로 한다. 이를 위해 자극 에이전트, 도움 에이전트, 요청 튜터링 에이전트, 튜터링 대화 에이전트, 개인 튜터링 에이전트, 튜터링 포인터 에이전트의 6단계의 튜터링 에이전트를 구안하였다. 본 시스템의 활용을 통하여 학습자는 실제적 환경에서 모바일 장비를 통하여 독서 활동과 관련한 튜터링을 제공받으며, 학습자와 교사 간 다양한 상호작용이 가능하다.

  • PDF

The Verification of the Transfer Learning-based Automatic Post Editing Model (전이학습 기반 기계번역 사후교정 모델 검증)

  • Moon, Hyeonseok;Park, Chanjun;Eo, Sugyeong;Seo, Jaehyung;Lim, Heuiseok
    • Journal of the Korea Convergence Society
    • /
    • v.12 no.10
    • /
    • pp.27-35
    • /
    • 2021
  • Automatic post editing is a research field that aims to automatically correct errors in machine translation results. This research is mainly being focus on high resource language pairs, such as English-German. Recent APE studies are mainly adopting transfer learning based research, where pre-training language models, or translation models generated through self-supervised learning methodologies are utilized. While translation based APE model shows superior performance in recent researches, as such researches are conducted on the high resource languages, the same perspective cannot be directly applied to the low resource languages. In this work, we apply two transfer learning strategies to Korean-English APE studies and show that transfer learning with translation model can significantly improves APE performance.

A Survey on Deep Learning-based Pre-Trained Language Models (딥러닝 기반 사전학습 언어모델에 대한 이해와 현황)

  • Sangun Park
    • The Journal of Bigdata
    • /
    • v.7 no.2
    • /
    • pp.11-29
    • /
    • 2022
  • Pre-trained language models are the most important and widely used tools in natural language processing tasks. Since those have been pre-trained for a large amount of corpus, high performance can be expected even with fine-tuning learning using a small number of data. Since the elements necessary for implementation, such as a pre-trained tokenizer and a deep learning model including pre-trained weights, are distributed together, the cost and period of natural language processing has been greatly reduced. Transformer variants are the most representative pre-trained language models that provide these advantages. Those are being actively used in other fields such as computer vision and audio applications. In order to make it easier for researchers to understand the pre-trained language model and apply it to natural language processing tasks, this paper describes the definition of the language model and the pre-learning language model, and discusses the development process of the pre-trained language model and especially representative Transformer variants.

Denoising Response Generation for Learning Korean Conversational Model (한국어 대화 모델 학습을 위한 디노이징 응답 생성)

  • Kim, Tae-Hyeong;Noh, Yunseok;Park, Seong-Bae;Park, Se-Yeong
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.29-34
    • /
    • 2017
  • 챗봇 혹은 대화 시스템은 특정 질문이나 발화에 대해 적절한 응답을 해주는 시스템으로 자연어처리 분야에서 활발히 연구되고 있는 주제 중 하나이다. 최근에는 대화 모델 학습에 딥러닝 방식의 시퀀스-투-시퀀스 프레임워크가 많이 이용되고 있다. 하지만 해당 방식을 적용한 모델의 경우 학습 데이터에 나타나지 않은 다양한 형태의 질의문에 대해 응답을 잘 못해주는 문제가 있다. 이 논문에서는 이러한 문제점을 해결하기 위하여 디노이징 응답 생성 모델을 제안한다. 제안하는 방법은 다양한 형태의 노이즈가 임의로 가미된 질의문을 모델 학습 시에 경험시킴으로써 강건한 응답 생성이 가능한 모델을 얻을 수 있게 한다. 제안하는 방법의 우수성을 보이기 위해 9만 건의 질의-응답 쌍으로 구성된 한국어 대화 데이터에 대해 실험을 수행하였다. 실험 결과 제안하는 방법이 비교 모델에 비해 정량 평가인 ROUGE 점수와 사람이 직접 평가한 정성 평가 모두에서 더 우수한 결과를 보이는 것을 확인할 수 있었다.

  • PDF

Denoising Response Generation for Learning Korean Conversational Model (한국어 대화 모델 학습을 위한 디노이징 응답 생성)

  • Kim, Tae-Hyeong;Noh, Yunseok;Park, Seong-Bae;Park, Se-Yeong
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.29-34
    • /
    • 2017
  • 챗봇 혹은 대화 시스템은 특정 질문이나 발화에 대해 적절한 응답을 해주는 시스템으로 자연어처리 분야에서 활발히 연구되고 있는 주제 중 하나이다. 최근에는 대화 모델 학습에 딥러닝 방식의 시퀀스-투-시퀀스 프레임워크가 많이 이용되고 있다. 하지만 해당 방식을 적용한 모델의 경우 학습 데이터에 나타나지 않은 다양한 형태의 질의문에 대해 응답을 잘 못해주는 문제가 있다. 이 논문에서는 이러한 문제점을 해결하기 위하여 디노이징 응답 생성 모델을 제안한다. 제안하는 방법은 다양한 형태의 노이즈가 임의로 가미된 질의문을 모델 학습 시에 경험시킴으로써 강건한 응답 생성이 가능한 모델을 얻을 수 있게 한다. 제안하는 방법의 우수성을 보이기 위해 9만 건의 질의-응답 쌍으로 구성된 한국어 대화 데이터에 대해 실험을 수행하였다. 실험 결과 제안하는 방법이 비교 모델에 비해 정량 평가인 ROUGE 점수와 사람이 직접 평가한 정성 평가 모두에서 더 우수한 결과를 보이는 것을 확인할 수 있었다.

  • PDF

Effect of Learning Scientific Model's Algorithm on Student's Understanding of Scientific concept : Focus on the Acid-Base Concept (과학 모델의 알고리즘의 학습이 학생들의 과학 개념 이해에 미치는 영향: 산-염기 개념을 중심으로)

  • Paik, Seoung-Hey;Park, Chul-Yong;Choi, Hee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.07a
    • /
    • pp.384-385
    • /
    • 2017
  • 과학 모델은 복잡한 자연현상을 단순화하고 패턴화한 것이다. 따라서 과학 모델은 특정한 알고리즘을 가지며, 과학 모델에 대한 이해는 모델이 갖는 특정한 알고리즘에 대한 이해와 직접적으로 관련되어있다. 본 연구에서는 많은 학생들이 대안 개념을 가지고 있는 산-염기를 주제로 하여, 이 모델이 가지는 알고리즘을 학습하기 위한 프로그램을 설계하고, 알고리즘을 학습 하였을 때 과학 학습에 미치는 효과를 확인하였다. 고등학생 3학년을 대상으로 4차시로 수업을 진행하였으며, 수업의 사전과 사후 검사를 실시하여, 학생들의 모델에 대한 이해를 분석하였다. 수업 결과, 학생들은 모델의 정의와 화학반응 및 화학평형의 정성적인 부분에서는 이해의 향상을 보였으나, 정량적인 부분에는 효과를 보이지 못하였다. 이는 화학이 많은 수의 입자를 고려해야 하는 독특한 과목의 특성에 기인하며, 이를 보완하기 위하여 추후 컴퓨터프로그램을 교육 도구로 사용하는 수업을 통해 후속연구를 진행하고자 한다.

  • PDF

Optimial Identification of Fuzzy-Neural Networks Structure (퍼지-뉴럴 네트워크 구조의 최적 동정)

  • 윤기찬;박춘성;안태천;오성권
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1998.03a
    • /
    • pp.99-102
    • /
    • 1998
  • 본 논문에서는 복잡하고 비선형적인 시스템의 최적 모델링을 우해서 지능형 퍼지-뉴럴네트워크의 최적 모델 구축을 위한 방법을 제안한다. 기본 모델은 퍼지 추론 시스템의 언어적인 규칙생성의 장점과 뉴럴 네트워크의 학습기능을 결합한 FNNs 모델을 사용한다. FNNs 모델의 퍼지 추론부는 간략추론이 사용되고, 학습은 요류 역전파 알고리즘을 사용하여 다른 모델들에 비해 학습속도가 빠르고 수렴능력이 우수하다. 그러나 기본 모델은 주어진 시스템에 대하여 퍼지 공간을 균등하게 분할하여 퍼지 소속을 정의한다. 이것은 비선형 시스템의 모델링에 있어어서 성능을 저하시켜 최적의 모델을 얻기가 어렵다. 논문에서는 주어진 데이터의 특성을 부여한 공간을 설정하기 위하여 클러스터링 알고리즘을 사용한다. 클러스터링 알고리즘은 주어진 시스템에 대하여 상호 연관성이 있는 데이터들끼리 특성을 나누어 몇 개의 클래스를 이룬다. 클러스터링 알고리즘을 사용하여 초기 FNNs 모델의 퍼지 공간을 나누고 소속함수를 정의한다. 또한, 최적화 기법중의 하나로 자연선택과 자연계의 유전자 메카니즘에 바탕을 둔 탐색 알고리즘인 유전자 알고리즘을 사용하여 주\ulcorner 진 모델에 대하여 최적화를 수행한다. 또한 본 연구에서는 학습 및 테스트 데이터의 성능 결과의 상호 균형을 얻기 위한 하중값을 가긴 성능지수가 제시된다.

  • PDF