• 제목/요약/키워드: Language Training

검색결과 685건 처리시간 0.027초

증강현실 시스템을 위한 시나리오 마크업 언어 설계 (Design of a Markup Language for Augmented Reality Systems)

  • 최종명;이영호;김선경;문지현
    • 사물인터넷융복합논문지
    • /
    • 제7권1호
    • /
    • pp.21-25
    • /
    • 2021
  • 증강현실 시스템이 엔터테인먼트, 쇼핑, 교육 및 훈련 등의 영역에서 널리 사용되고 있으며, 증강현실 기술의 점차 중요성이 커지고 있다. 증강현실 기술을 교육이나 훈련에 사용할 때 동일한 마커에 대해서도 작업 단계에 따라 다른 가상 객체를 표현할 수 있어야 한다. 또한 훈련 내용은 상황에 따라 달라지기 때문에 훈련 시나리오를 이용해서 기술할 필요가 있다. 이러한 문제를 해결하기 위해서 훈련 내용을 시나리오를 기반으로 작성할 수 있으며, 이를 증강현실 시스템과 연계할 수 있는 증강현실 시스템을 위한 시나리오 마크업 언어를 제안한다. 증강현실을 위한 시나리오 마크업 언어는 장면, 마커와 가상 객체를 연결하는 방법, 장비의 상태 혹은 센서 값을 파악하기 위한 방법, 조건에 따른 장면 이동 방법 등의 기능을 제공한다. 증강현실 시나리오 마크업 언어는 유연하게 증강현실 시스템의 사용 방법과 콘텐츠 사용의 유용성과 확장성을 높일 수 있다.

외국어 발음오류 검출 음성인식기를 위한 MCE 학습 알고리즘 (MCE Training Algorithm for a Speech Recognizer Detecting Mispronunciation of a Foreign Language)

  • 배민영;정용주;권철홍
    • 음성과학
    • /
    • 제11권4호
    • /
    • pp.43-52
    • /
    • 2004
  • Model parameters in HMM based speech recognition systems are normally estimated using Maximum Likelihood Estimation(MLE). The MLE method is based mainly on the principle of statistical data fitting in terms of increasing the HMM likelihood. The optimality of this training criterion is conditioned on the availability of infinite amount of training data and the correct choice of model. However, in practice, neither of these conditions is satisfied. In this paper, we propose a training algorithm, MCE(Minimum Classification Error), to improve the performance of a speech recognizer detecting mispronunciation of a foreign language. During the conventional MLE(Maximum Likelihood Estimation) training, the model parameters are adjusted to increase the likelihood of the word strings corresponding to the training utterances without taking account of the probability of other possible word strings. In contrast to MLE, the MCE training scheme takes account of possible competing word hypotheses and tries to reduce the probability of incorrect hypotheses. The discriminant training method using MCE shows better recognition results than the MLE method does.

  • PDF

Deep Neural Network 언어모델을 위한 Continuous Word Vector 기반의 입력 차원 감소 (Input Dimension Reduction based on Continuous Word Vector for Deep Neural Network Language Model)

  • 김광호;이동현;임민규;김지환
    • 말소리와 음성과학
    • /
    • 제7권4호
    • /
    • pp.3-8
    • /
    • 2015
  • In this paper, we investigate an input dimension reduction method using continuous word vector in deep neural network language model. In the proposed method, continuous word vectors were generated by using Google's Word2Vec from a large training corpus to satisfy distributional hypothesis. 1-of-${\left|V\right|}$ coding discrete word vectors were replaced with their corresponding continuous word vectors. In our implementation, the input dimension was successfully reduced from 20,000 to 600 when a tri-gram language model is used with a vocabulary of 20,000 words. The total amount of time in training was reduced from 30 days to 14 days for Wall Street Journal training corpus (corpus length: 37M words).

A Computational Model of Language Learning Driven by Training Inputs

  • 이은석;이지훈;장병탁
    • 한국인지과학회:학술대회논문집
    • /
    • 한국인지과학회 2010년도 춘계학술대회
    • /
    • pp.60-65
    • /
    • 2010
  • Language learning involves linguistic environments around the learner. So the variation in training input to which the learner is exposed has been linked to their language learning. We explore how linguistic experiences can cause differences in learning linguistic structural features, as investigate in a probabilistic graphical model. We manipulate the amounts of training input, composed of natural linguistic data from animation videos for children, from holistic (one-word expression) to compositional (two- to six-word one) gradually. The recognition and generation of sentences are a "probabilistic" constraint satisfaction process which is based on massively parallel DNA chemistry. Random sentence generation tasks succeed when networks begin with limited sentential lengths and vocabulary sizes and gradually expand with larger ones, like children's cognitive development in learning. This model supports the suggestion that variations in early linguistic environments with developmental steps may be useful for facilitating language acquisition.

  • PDF

서면 피드백에 대한 현장 한국어 교사의 신념과 실제에 관한 연구 (A study on Korean language teachers' beliefs and practices on written feedback)

  • 심윤진;안재린
    • 한국어교육
    • /
    • 제28권1호
    • /
    • pp.141-171
    • /
    • 2017
  • This study investigates Korean language teachers' perception/beliefs and practices in written feedback. Two types of data were collected: (1) teachers' feedback on three compositions by elementary-level learners, and (2) a survey questionnaire. The result showed that teachers perceived written feedback to be important even though they had not enough opportunities to receive appropriate training. Lack of training brought about limited feedback in terms of both quantity and quality, and inconsistency between their beliefs and practice. This study closes with the needs for teacher training and further studies on teachers' feedback practices.

지적장애 학생을 위한 기능성 언어게임의 개발 및 적용 가능성 탐색 (Developing and Exploring the Possibility of Serious Language Training Game for Students with Intellectual Disabilities)

  • 이태수;김연표
    • 한국콘텐츠학회논문지
    • /
    • 제17권1호
    • /
    • pp.287-298
    • /
    • 2017
  • 이 연구는 지적장애 학생을 위한 기능성 언어게임을 개발하고, 지적장애 학생의 교수학습 활동에서 기능성 언어 게임의 적용 가능성을 탐색하는데 주요한 목적이 있었다. 이에 게임에서 사용할 어휘를 장애학생을 위한 국민공통 기본교육과정 국어과를 분석하여 추출하였고, 특수교사와 특수교육과 교수, 특수교육 전문가들의 중요도와 난이도에 대한 평가에 기초하여 기능성 언어훈련 게임을 구성하였다. 개발된 게임의 적용 가능성을 탐색하기 위하여 특수학교와 일반학교 특수학급에 재직하고 있는 특수교사 45명과 지적장애 학생 31명을 대상으로 사용자 평가를 실시하였다. 그 결과 특수교사는 5점 만점에 4.25점을 나타내었고, 지적장애 학생은 4.33점을 나타내었다. 전반적으로 특수교사와 지적장애 학생 모두 이번에 개발된 기능성 언어 게임이 교수학습 활동에 사용 가능하다고 인식하고 있었다. 학교급 및 교육적 배치에 따른 사용자 평가 결과에 대한 집단 비교를 실시한 결과, 특수교사와 지적장애 학생 모두 통계적으로 유의한 차이는 없었다. 그러므로 특수학교와 특수학급에서 근무하는 특수교사와 재학하고 있는 지적장애 학생 모두 기능성 언어 게임에 대한 사용자 평가가 고르게 나타난 것임을 확인할 수 있었다.

ETRI 소용량 대화체 음성합성시스템 (ETRI small-sized dialog style TTS system)

  • 김종진;김정세;김상훈;박준;이윤근;한민수
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2007년도 한국음성과학회 공동학술대회 발표논문집
    • /
    • pp.217-220
    • /
    • 2007
  • This study outlines a small-sized dialog style ETRI Korean TTS system which applies a HMM based speech synthesis techniques. In order to build the VoiceFont, dialog-style 500 sentences were used in training HMM. And the context information about phonemes, syllables, words, phrases and sentence were extracted fully automatically to build context-dependent HMM. In training the acoustic model, acoustic features such as Mel-cepstrums, logF0 and its delta, delta-delta were used. The size of the VoiceFont which was built through the training is 0.93Mb. The developed HMM-based TTS system were installed on the ARM720T processor which operates 60MHz clocks/second. To reduce computation time, the MLSA inverse filtering module is implemented with Assembly language. The speed of the fully implemented system is the 1.73 times faster than real time.

  • PDF

근전도와 관성센서가 내장된 암밴드를 이용한 실시간 수화 인식 (Real-time Sign Language Recognition Using an Armband with EMG and IMU Sensors)

  • 김성중;이한수;김종만;안순재;김영호
    • 재활복지공학회논문지
    • /
    • 제10권4호
    • /
    • pp.329-336
    • /
    • 2016
  • 수화를 사용하는 농아인은 의사소통의 제약에 의해 사회적인 불평등과 금전적 손실을 겪고 있다. 이러한 이유로 본 연구에서는 농아인의 원활한 의사소통을 위해 8개의 근전도와 1개의 관성센서로 구성된 암밴드 센서를 이용하여 실시간으로 미국 수화를 인식하는 알고리즘을 개발하였다. 개발된 알고리즘의 성능 검증은 11명의 피험자를 통해 진행하였으며, 패턴 분류기 학습은 훈련 데이터베이스 크기를 증가시키면서 진행하였다. 실험 결과, 개발된 패턴 인식 알고리즘은 동작 별 20개의 훈련 데이터베이스에서 97%이상의 정확도를 가졌으며, 30개의 훈련 데이터베이스에서 99%이상의 정확도를 보였다. 이를 통해 본 연구에서 제안하는 암밴드 센서를 이용한 수화 인식 알고리즘의 실용성과 우수성을 확인하였다.

A Protein-Protein Interaction Extraction Approach Based on Large Pre-trained Language Model and Adversarial Training

  • Tang, Zhan;Guo, Xuchao;Bai, Zhao;Diao, Lei;Lu, Shuhan;Li, Lin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권3호
    • /
    • pp.771-791
    • /
    • 2022
  • Protein-protein interaction (PPI) extraction from original text is important for revealing the molecular mechanism of biological processes. With the rapid growth of biomedical literature, manually extracting PPI has become more time-consuming and laborious. Therefore, the automatic PPI extraction from the raw literature through natural language processing technology has attracted the attention of the majority of researchers. We propose a PPI extraction model based on the large pre-trained language model and adversarial training. It enhances the learning of semantic and syntactic features using BioBERT pre-trained weights, which are built on large-scale domain corpora, and adversarial perturbations are applied to the embedding layer to improve the robustness of the model. Experimental results showed that the proposed model achieved the highest F1 scores (83.93% and 90.31%) on two corpora with large sample sizes, namely, AIMed and BioInfer, respectively, compared with the previous method. It also achieved comparable performance on three corpora with small sample sizes, namely, HPRD50, IEPA, and LLL.

한국형 전산화 인지재활프로그램이 초기 치매노인의 생성 이름대기 수행에 미치는 효과에 관한 예비연구 (The effect of computer based cognitive rehabilitation program on the improvement of generative naming in the elderly with mild dementia: preliminary study)

  • 변해원
    • 한국융합학회논문지
    • /
    • 제10권9호
    • /
    • pp.167-172
    • /
    • 2019
  • 본 연구는 초기 치매환자를 대상으로 전산화 인지재활프로그램이 전두엽 집행기능 중 생성 이름대기에 미치는 효과를 파악하고, 치매 환자의 조기 언어중재에 관한 기초자료를 제공하였다. 분석 대상은 경증치매환자 29명으로서 전산화 인지재활프로그램(CoTras)을 중재하는 실험군 21명과 지필과 테이블활동 등 전통적인 면대면 언어재활을 중재하는 대조군 8명으로 분류되었다. 실험집단과 대조집단은 모두 12주 동안 순차적 언어 회상 기억훈련, 연합회상 기억훈련, 언어 범주화 기억훈련, 언어통합 기억훈련을 진행하였다. 의미유창성과 음소유창성의 사전검사점수를 공변량으로 통제한 Welch's robust ANCOVA분석 결과, 실험집단과 대조집단은 의미유창성과 MMSE-K의 변화에서 유의미한 차이가 있었다(p<0.05). 반면에, 음소유창성은 실험군과 대조군 모두 기초선단계에 비해서 12주간의 치료 후 유의미하게 증가하였지만 통계적으로 치료방법에 따른 유의미한 차이는 없었다. 본 연구의 결과는 전산화 인지재활프로그램이 전통적인 인지재활에 비해서 의미유창성의 향상에 효과적일 가능성을 시사한다.