• Title/Summary/Keyword: 단어학습

Search Result 814, Processing Time 0.024 seconds

Word Sense Disambiguation Using Knowledge Embedding (지식 임베딩 심층학습을 이용한 단어 의미 중의성 해소)

  • Oh, Dongsuk;Yang, Kisu;Kim, Kuekyeng;Whang, Taesun;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.272-275
    • /
    • 2019
  • 단어 중의성 해소 방법은 지식 정보를 활용하여 문제를 해결하는 지식 기반 방법과 각종 기계학습 모델을 이용하여 문제를 해결하는 지도학습 방법이 있다. 지도학습 방법은 높은 성능을 보이지만 대량의 정제된 학습 데이터가 필요하다. 반대로 지식 기반 방법은 대량의 정제된 학습데이터는 필요없지만 높은 성능을 기대할수 없다. 최근에는 이러한 문제를 보완하기 위해 지식내에 있는 정보와 정제된 학습데이터를 기계학습 모델에 학습하여 단어 중의성 해소 방법을 해결하고 있다. 가장 많이 활용하고 있는 지식 정보는 상위어(Hypernym)와 하위어(Hyponym), 동의어(Synonym)가 가지는 의미설명(Gloss)정보이다. 이 정보의 표상을 기존의 문장의 표상과 같이 활용하여 중의성 단어가 가지는 의미를 파악한다. 하지만 정확한 문장의 표상을 얻기 위해서는 단어의 표상을 잘 만들어줘야 하는데 기존의 방법론들은 모두 문장내의 문맥정보만을 파악하여 표현하였기 때문에 정확한 의미를 반영하는데 한계가 있었다. 본 논문에서는 의미정보와 문맥정보를 담은 단어의 표상정보를 만들기 위해 구문정보, 의미관계 그래프정보를 GCN(Graph Convolutional Network)를 활용하여 임베딩을 표현하였고, 기존의 모델에 반영하여 문맥정보만을 활용한 단어 표상보다 높은 성능을 보였다.

  • PDF

Word Embedding using word position information (단어의 위치정보를 이용한 Word Embedding)

  • Hwang, Hyunsun;Lee, Changki;Jang, HyunKi;Kang, Dongho
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

Word Embedding using word position information (단어의 위치정보를 이용한 Word Embedding)

  • Hwang, Hyunsun;Lee, Changki;Jang, HyunKi;Kang, Dongho
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

Summary Generation of a Document with Out-of-vocabulary Words (어휘 사전에 없는 단어를 포함한 문서의 요약문 생성 방법)

  • Lee, Tae-seok;Kang, Seung-Shik
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.530-531
    • /
    • 2018
  • 문서 자동 요약은 주요 단어 또는 문장을 추출하거나 문장을 생성하는 방식으로 요약한다. 최근 연구에서는 대량의 문서를 딥러닝하여 요약문 자체를 생성하는 방식으로 발전하고 있다. 추출 요약이나 생성 요약 모두 핵심 단어를 인식하는 것이 매우 중요하다. 학습할 때 각 단어가 문장에서 출현한 패턴으로부터 의미를 인식하고 단어를 선별하여 요약한다. 결국 기계학습에서는 학습 문서에 출현한 어휘만으로 요약을 한다. 따라서 학습 문서에 출현하지 않았던 어휘가 포함된 새로운 문서의 요약에서 기존 모델이 잘 작동하기 어려운 문제가 있다. 본 논문에서는 학습단계에서 출현하지 않은 단어까지도 중요성을 인식하고 요약문을 생성할 수 있는 신경망 모델을 제안하였다.

  • PDF

Korean Text Generation using Markov Chain for Korean Language Learning (한국어 학습을 위한 마르코프 체인 기반 한국어 문장 생성)

  • Moon, Kyungdeuk;Kim, Jeongwon;Kim, Sohee;Kim, Byeong Man;Lee, Hyunah
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.623-626
    • /
    • 2018
  • 한국어 학습에 대한 관심이 전 세계적으로 높아짐에 따라 한국어 학습을 위한 다양한 프로그램들이 등장하고 있다. 한국어가 모국어가 아닌 외국인들의 한국어 학습을 위해서는 단어 학습이 기초가 되어야 하며, 단어 학습에서는 다양한 예문들이 필수적이다. 기존의 학습 시스템에서는 말뭉치에 있는 문장들을 예문으로 제시하는 기능을 제공하지만, 이 경우 한정적이고 반복된 문장만을 제공하는 문제를 가진다. 본 논문에서는 사용자가 학습하고자 하는 단어를 입력하면 해당 단어 단어를 포함하는 한국어 문장을 자동 생성하여 제공하는 시스템을 제안한다. 시스템에서는 언어 모델의 제어가 비교적 쉬운 마르코프체인을 활용한다.

  • PDF

A Single-Player Car Driving Game-based English Vocabulary Learning System (1인용 자동차 주행 게임 기반의 영어 단어 학습 시스템)

  • Kim, Sangchul;Park, Hyogeun
    • Journal of Korea Game Society
    • /
    • v.15 no.2
    • /
    • pp.95-104
    • /
    • 2015
  • Many games for English vocabulary learning, such as hangman, cross puzzle, matching, etc, have been developed which are of board-type or computer game-type. Most of these computer games are adapting strategy-style game plays so that there is a limit on giving the fun, a nature of games, to learners who do not like games of this style. In this paper, a system for memorizing new English words is proposed which is based on a single-player car racing game targeting youths and adults. In the game, the core of our system, a learner drives a car and obtains game points by colliding with English word texts like game items appearing on the track. The learner keeps on viewing English words being exposed on the track while driving, resulting in memorizing those words according to a learning principle stating viewing is memorization. To our experiment, the effect of memorizing English words by our car racing game is good, and the degree of satisfaction with our system as a English vocabulary learning tool is reasonably high. Also, previous word games are suitable for the memory enforcement of English words but our game can be used for the memorization of new words.

English Vocabulary Learning Application Development Applying Forgetting Curve and Match Result Based Rating System (망각곡선과 대결 기반 순위 결정 시스템을 적용한 영어 단어 학습 어플리케이션 개발)

  • Youm, Kiho;Oh, Kyoungsu;Chun, Youngjae
    • Journal of Korea Game Society
    • /
    • v.15 no.3
    • /
    • pp.151-160
    • /
    • 2015
  • This paper presents English vocabulary memorization system using forgetting curve to automatically adjust the vocabulary difficulty to match learner's level. Our system will decide the appropriate repetition cycle, depending on the number of memorizing words through the forgetting curve, then requires an iterative learning. No matter what learners know or do not know, words are reviewed. To save time by reviewing some words which have the highest probability that learners forget. And it provides vocabulary based on learner level, which makes learner maintain their interest and achievement. A general system provides vocabularies which difficulty matches with evaluated ones, or randomly provides some vocabularies without consideration of users' level. But we apply the "Glicko" system which is being used in the online chess game ranking system to adjust the vocabulary's difficulty. We utilize the system used in the one-by-one player system to our vocabulary-human system. As a result, learners's level and the vocabularies's difficulty is measured in the review process. Moreover it maximizes the performance of English vocabulary memorization by applying feedbacks from practice testing and distributed learning.

Word Spell: Associative-Phonological learning method for Second Language Learner (Word Spell: 외국어 학습자를 위한 단어 학습 방안, 연상 및 연음 효과를 중심으로)

  • Moon, Sungwon;Hong, Woneui;Gweon, Gahgene
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.988-991
    • /
    • 2014
  • 본 논문에서는 영어를 외국어로써 학습하는 한국인 학습자를 대상으로 한 새로운 영어 단어 학습 기법을 소개하고, 그 효용을 검증한다. 외국어 학습자에게는 외국어 단어를 외우는 절차가 중요한 이슈이기 때문에 영어단어 암기 효율을 높이기 위한 방법이 다수 제시되어 왔는데, 본 실험에서는 기존에 효과를 검증받은 방식과의 성능비교를 통한 검증을 시도한다. 실험 결과로부터 학습자가 새로 암기한 단어에 대하여 시간 지연에 따른 망각 정도가 기존 방식에서 제시하는 방법을 따랐을 때보다 적음을 보였다.

An Android App Development for JAMOHAN with Learning and Game Facilities (학습 및 게임 기능을 갖는 자소모아한글단어맞추기(자모한) 안드로이드 앱 개발)

  • Kim, Ga-Young;Lee, Hyo-Eun;Kim, Hae-Su;Yang, Chang-Gun;Kang, Hyun-Kyu
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.191-194
    • /
    • 2012
  • 본 논문은 뜻풀이를 통해 한글단어를 맞추는 앱 어플리케이션인 자모한(자소 모아 한글단어 맞추기)의 구현에 대하여 논한다. 학습 형태의 게임방식을 통하여 누구나 쉽게 사용하고 한글 단어를 학습할 수 있는 안드로이드 앱 어플리케이션이다. 자모한은 3가지 특징을 가진다. 첫 번째는 '한글'로, 평소 뜻을 제대로 알고 쓰지 못했던 단어나 잊혀져 가는 순수 우리말과 같은 한글단어의 뜻을 학습 할 수 있다. 두 번째는 '자소'로 한글에서 하나하나의 자소가 모여 단어가 됨을 보여주며 각 단어의 자소 구성을 명확히 인식할 수 있도록 도와준다. 세 번째는 '획수'이다. 게임에서 간접적으로 자소의 획수를 알려주고 있다. 이러한 특징들은 교육적 측면으로서 좋은 특징을 가지고 있다. 그 외에도 자모한은 데이터베이스 파일을 중심으로 작동하기 때문에 파일의 구조와 입력 정보를 변경하여 여러 버전(햇갈리기 쉬운 단어, 순수우리말, 사자성어 등)으로 응용이 가능하다는 산업 및 기술적 측면의 모습도 볼 수 있다.

  • PDF

The Unsupervised Learning-based Language Modeling of Word Comprehension in Korean

  • Kim, Euhee
    • Journal of the Korea Society of Computer and Information
    • /
    • v.24 no.11
    • /
    • pp.41-49
    • /
    • 2019
  • We are to build an unsupervised machine learning-based language model which can estimate the amount of information that are in need to process words consisting of subword-level morphemes and syllables. We are then to investigate whether the reading times of words reflecting their morphemic and syllabic structures are predicted by an information-theoretic measure such as surprisal. Specifically, the proposed Morfessor-based unsupervised machine learning model is first to be trained on the large dataset of sentences on Sejong Corpus and is then to be applied to estimate the information-theoretic measure on each word in the test data of Korean words. The reading times of the words in the test data are to be recruited from Korean Lexicon Project (KLP) Database. A comparison between the information-theoretic measures of the words in point and the corresponding reading times by using a linear mixed effect model reveals a reliable correlation between surprisal and reading time. We conclude that surprisal is positively related to the processing effort (i.e. reading time), confirming the surprisal hypothesis.