• Title/Summary/Keyword: 단어학습

Search Result 814, Processing Time 0.026 seconds

Zero-shot Lexical Semantics based on Perplexity of Pretrained Language Models (사전학습 언어모델의 Perplexity에 기반한 Zero-shot 어휘 의미 모델)

  • Choi, Heyong-Jun;Na, Seung-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.473-475
    • /
    • 2021
  • 유의어 추천을 구현하기 위해서는 각 단어 사이의 유사도를 계산하는 것이 필수적이다. 하지만, 기존의 단어간 유사도를 계산하는 여러 방법들은 데이터셋에 등장하지 않은 단어에 대해 유사도를 계산 할 수 없다. 이 논문에서는 이를 해결하기 위해 언어모델의 PPL을 활용하여 단어간 유사도를 계산하였고, 이를 통해 유의어를 추천했을 때 MRR 41.31%의 성능을 확인했다.

  • PDF

Grammatical morphemes' effect on Korean word vector generation (형식형태소가 한국어 단어 벡터 생성에 미치는 영향)

  • Youn, Junyoung;Kim, Dowon;Min, Tae Hong;Lee, Jae Sung
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.179-183
    • /
    • 2017
  • 단어 벡터는 단어 사이의 관계를 벡터 연산으로 가능하게 할 뿐 아니라, 상위의 신경망 프로그램의 사전학습 데이터로 많이 활용되고 있다. 한국어 어절은 생산적인 조사나 어미 때문에 효율적인 단어 벡터 생성이 어려워 대개 실질형태소만을 사용하여 한국어 단어 벡터를 생성한다. 본 논문에서는 실질형태소와 형식형태소를 모두 사용하되, 형식형태소를 적절하게 분류하여 단어 벡터의 성능을 높이는 방법을 제안한다. 자체 구축한 단어 관계 테스트 집합으로 추출 성능을 평가해 본 결과, 제안한 방법으로 형식형태소를 사용할 경우, 성능이 향상되었다.

  • PDF

Grammatical morphemes' effect on Korean word vector generation (형식형태소가 한국어 단어 벡터 생성에 미치는 영향)

  • Youn, Junyoung;Kim, Dowon;Min, Tae Hong;Lee, Jae Sung
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.179-183
    • /
    • 2017
  • 단어 벡터는 단어 사이의 관계를 벡터 연산으로 가능하게 할 뿐 아니라, 상위의 신경망 프로그램의 사전학습 데이터로 많이 활용되고 있다. 한국어 어절은 생산적인 조사나 어미 때문에 효율적인 단어 벡터 생성이 어려워 대개 실질형태소만을 사용하여 한국어 단어 벡터를 생성한다. 본 논문에서는 실질형태소와 형식형태소를 모두 사용하되, 형식형태소를 적절하게 분류하여 단어 벡터의 성능을 높이는 방법을 제안한다. 자체 구축한 단어 관계 테스트 집합으로 추출 성능을 평가해 본 결과, 제안한 방법으로 형식형태소를 사용할 경우, 성능이 향상되었다.

  • PDF

On Characteristics of Word Embeddings by the Word2vec Model (Word2vec 모델의 단어 임베딩 특성 연구)

  • Kang, Hyungsuc;Yang, Janghoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.263-266
    • /
    • 2019
  • 단어 임베딩 모델 중 현재 널리 사용되는 word2vec 모델은 언어의 의미론적 유사성을 잘 반영한다고 알려져 있다. 본 논문은 word2vec 모델로 학습된 단어 벡터가 실제로 의미론적 유사성을 얼마나 잘 반영하는지 확인하는 것을 목표로 한다. 즉, 유사한 범주의 단어들이 벡터 공간상에 가까이 임베딩되는지 그리고 서로 구별되는 범주의 단어들이 뚜렷이 구분되어 임베딩되는지를 확인하는 것이다. 간단한 군집화 알고리즘을 통한 검증의 결과, 상식적인 언어 지식과 달리 특정 범주의 단어들은 임베딩된 벡터 공간에서 뚜렷이 구분되지 않음을 확인했다. 결론적으로, 단어 벡터들의 유사도가 항상 해당 단어들의 의미론적 유사도를 의미하지는 않는다. Word2vec 모델의 결과를 응용하는 향후 연구에서는 이런 한계점에 고려가 요청된다.

Comparison of Word Level Stress Features between Korean, English and the Interlanguage of Korean Learners of English (영어 학습자의 중간 언어 단어 수준 강세 비교)

  • Lee, Yunhyun
    • The Journal of the Korea Contents Association
    • /
    • v.20 no.11
    • /
    • pp.378-390
    • /
    • 2020
  • English stress plays such a critical role in understanding spoken English words that its misplacement can lead to a breakdown of communication. Korean learners of English, whose native language is known to lack this feature, are expected to have some difficulty acquiring this English prosodic system. This study explored how Korean is different from English in manifesting prominence at the word level and how the interlanguage of Korean learners of English is dissimilar to both languages in that regard. Four polysyllabic English loanwords in Korean and their English source words were used as stimuli. Ten native English speakers read the English source words while ten Korean learners of English read the English loan words first and then the English source words. The analysis of 120 speech samples revealed that Korean words did not have any salient syllable realized by all stress features: duration, amplitude, and F0. On the contrary, English words had syllables with relative prominence, which was consistently manifested by all the features. Interestingly, in realizing English stress, the interlanguage of the Korean English learners bore more resemblance to that of English than that of their native language.

A Study on Gamification for Learning Effectiveness of Flipped Classroom (거꾸로 교실의 학습효과를 높이기 위한 게임화 적용 비교 연구)

  • Jun, Hee-Yeon;Lim, Heuiseok
    • Proceedings of The KACE
    • /
    • 2018.01a
    • /
    • pp.57-60
    • /
    • 2018
  • 거꾸로 교실의 성패에 중요한 역할을 하는 온라인 예습 활동은 학습의 성패를 좌우하지만 이 예습활동은 학습자에게 부담의 요소로 작용한다. 따라서 온라인 예습활동에 참여도와 흥미도를 높여 줄 수 있는 방안으로 온라인 강의 시스템에 게임화 요소를 추가하여 그 효과성을 비교 분석하고자 한다. 본 논문은 유튜브 링크를 이용한 전통적인 온라인 학습과 게임화 요소가 적용된 온라인 강의 시스템을 이용한 예습활동의 참여도와 학업성취도가 차이를 보이는지, 또 온라인 강의 시스템의 단어게임결과와 학업성취도의 결과가 연관성이 있는지, 온라인 강의 시스템의 단어게임의 랭킹 시스템은 학습자들의 흥미와 재미를 높여 주었는지 알아보고자 한다.

  • PDF

Developing a Text Categorization System Based on Unsupervised Learning Using an Information Retrieval Technique (정보검색 기술을 이용한 비교사 학습 기반 문서 분류 시스템 개발)

  • Noh, Dae-Wook;Lee, Soo-Yong;Ra, Dong-Yul
    • Annual Conference on Human and Language Technology
    • /
    • 2006.10e
    • /
    • pp.98-106
    • /
    • 2006
  • 문서분류기의 개발에 있어 교사학습기법을 이용할 경우 많은 양의 사람에 의한 범주 부착 말뭉치가 필요하다. 그러나 이의 구축은 많은 시간과 노력을 필요로 한다. 최근 이러한 범주 부착 말뭉치 대신 원시말뭉치와 범주마다 약간의 씨앗 정보를 이용하여 학습을 수행하여 문서분류기를 개발하는 방법론이 제시되었다. 본 논문에서는 이 방법론 하에서 다른 연구에서의 결과보다 좋은 성능을 나타내는 비교사 학습 기법을 소개한다. 본 논문에서 제시하는 기법의 특징은 씨앗 단어에서 출발하여 평균상호정보를 이용하여 다른 대표단어 및 그들의 가중치를 학습한 다음, 정보검색에서 많이 사용하는 기술을 이용하여 그 가중치를 갱신하는 것이다. 그리고 이 과정을 반복 수행하여 최종적으로 높은 성능의 시스템을 개발할 수 있음을 제시하였다.

  • PDF

A Design and Implementation of Korean Language Learning ChatBot Application (한국어 학습 챗봇 애플리케이션 설계 및 구현)

  • Won Joo Lee;Jae Min An;Min Gyu Kim;Sang Woo Park
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.93-94
    • /
    • 2023
  • 본 논문에서는 Azure 플랫폼 기반의 ChatBot을 활용한 한국어 학습 챗봇 애플리케이션을 설계하고 구현한다. C# ChatBot Server를 통해 챗봇 메뉴 버튼에 대한 네비게이션을 구현하며, Python 기반의 웹 프레임워크 Django를 활용하여 단어 퀴즈에 필요한 대화 처리를 구현한다. 단어 퀴즈를 통해 언어학습에 대한 흥미를 유발하고 학습 효율을 높일 수 있도록 구현한다.

  • PDF

Neural Theorem Prover with Word Embedding for Efficient Automatic Annotation (효율적인 자동 주석을 위한 단어 임베딩 인공 신경 정리 증명계 구축)

  • Yang, Wonsuk;Park, Hancheol;Park, Jong C.
    • 한국어정보학회:학술대회논문집
    • /
    • 2016.10a
    • /
    • pp.79-84
    • /
    • 2016
  • 본 연구는 전문기관에서 생산되는 검증된 문서를 웹상의 수많은 검증되지 않은 문서에 자동 주석하여 신뢰도 향상 및 심화 정보를 자동으로 추가하는 시스템을 설계하는 것을 목표로 한다. 이를 위해 활용 가능한 시스템인 인공 신경 정리 증명계(neural theorem prover)가 대규모 말뭉치에 적용되지 않는다는 근본적인 문제를 해결하기 위해 내부 순환 모듈을 단어 임베딩 모듈로 교체하여 재구축 하였다. 학습 시간의 획기적인 감소를 입증하기 위해 국가암정보센터의 암 예방 및 실천에 대한 검증된 문서들에서 추출한 28,844개 명제를 위키피디아 암 관련 문서에서 추출한 7,844개 명제에 주석하는 사례를 통하여 기존의 시스템과 재구축한 시스템을 병렬 비교하였다. 동일한 환경에서 기존 시스템의 학습 시간이 553.8일로 추정된 것에 비해 재구축한 시스템은 93.1분 내로 학습이 완료되었다. 본 연구의 장점은 인공 신경 정리 증명계가 모듈화 가능한 비선형 시스템이기에 다른 선형 논리 및 자연언어 처리 모듈들과 병렬적으로 결합될 수 있음에도 현실 사례에 이를 적용 불가능하게 했던 학습 시간에 대한 문제를 해소했다는 점이다.

  • PDF

Neural Theorem Prover with Word Embedding for Efficient Automatic Annotation (효율적인 자동 주석을 위한 단어 임베딩 인공 신경 정리 증명계 구축)

  • Yang, Wonsuk;Park, Hancheol;Park, Jong C.
    • Annual Conference on Human and Language Technology
    • /
    • 2016.10a
    • /
    • pp.79-84
    • /
    • 2016
  • 본 연구는 전문기관에서 생산되는 검증된 문서를 웹상의 수많은 검증되지 않은 문서에 자동 주석하여 신뢰도 향상 및 심화 정보를 자동으로 추가하는 시스템을 설계하는 것을 목표로 한다. 이를 위해 활용 가능한 시스템인 인공 신경 정리 증명계(neural theorem prover)가 대규모 말뭉치에 적용되지 않는다는 근본적인 문제를 해결하기 위해 내부 순환 모듈을 단어 임베딩 모듈로 교체하여 재구축 하였다. 학습 시간의 획기적인 감소를 입증하기 위해 국가암정보센터의 암 예방 및 실천에 대한 검증된 문서들에서 추출한 28,844개 명제를 위키피디아 암 관련 문서에서 추출한 7,844개 명제에 주석하는 사례를 통하여 기존의 시스템과 재구축한 시스템을 병렬 비교하였다. 동일한 환경에서 기존 시스템의 학습 시간이 553.8일로 추정된 것에 비해 재구축한 시스템은 93.1분 내로 학습이 완료되었다. 본 연구의 장점은 인공 신경 정리 증명계가 모듈화 가능한 비선형 시스템이기에 다른 선형 논리 및 자연언어 처리 모듈들과 병렬적으로 결합될 수 있음에도 현실 사례에 이를 적용 불가능하게 했던 학습 시간에 대한 문제를 해소했다는 점이다.

  • PDF