• Title/Summary/Keyword: Korean Eojeol

Search Result 55, Processing Time 0.029 seconds

Lexical Access in Processing Korean Noun Eojeols (한국어 명사 어절 처리에서의 어휘 근접 과정)

  • Min, Sung-Ki;Yi, Kwang-Oh
    • Annual Conference on Human and Language Technology
    • /
    • 2005.10a
    • /
    • pp.57-62
    • /
    • 2005
  • 한국어 명사 어절의 시간 경과에 따른 처리 양상을 확인해 보기 위하여 점화어절판단과제(primed eojeol decision task)를 이용한 실험을 실시하였다. 점화어 제시 방식은 차폐점화, SOA 100ms, SOA 300ms 조건으로 하였으며, 점화어-표적어의 관계는 어절일치, 어간일치, 통제조건으로 조작하였다. 그 결과 어절일치조건과 어간일치조건에서 촉진효과가 있었으며, SOA가 증가함에 따라 어절일치조건과 어간일치조건에서의 촉진효과도 함께 증가하는 양상을 확인하였다. 점화어의 제시 방식과 점화어-표적어의 관계간의 상호작용도 유의미하였다. 이러한 결과를 바탕으로 심성어휘집에서의 어절 표상의 실재성과 어절 속성과 어간 속성이 어절 처리 과정에 관여하는 방식에 관하여 논의하였다.

  • PDF

The difference in the representation of Korean Noun Eojeol in the mental lexicon based on its etymology (한국어 명사어절의 어원에 따른 심성어휘집 표상 양식의 차이)

  • Yoon, Ji Min;Nam, Ki Chun
    • Annual Conference on Human and Language Technology
    • /
    • 2009.10a
    • /
    • pp.258-261
    • /
    • 2009
  • 한국어에서 어절은 띄어쓰기 단위이며 한국어의 두드러진 특징 가운데 하나이다. 본 연구에서는 명사에 조사가 결합된 명사어절의 처리 과정에 대해서 밝히고자 이 과정에 관여하는 빈도효과를 측정하였다. 즉, 명사의 빈도와 어절의 빈도를 조작하여 어절의 의미를 판단하는데 걸리는 반응시간을 측정하였다. 실험 결과, 자극을 제시한 방법에 차별을 둔 실험 1과 실험 2의 결과에서 모두 어절빈도의 주효과가 유의미한 것으로 관찰되었다. 그러나 명사빈도의 주효과는 실험 2에서만 관찰되었고, 상호작용효과는 실험1과 실험2 모두 관찰되지 않았다. 또한, 한국어의 어원에 따른 즉 다시 말해, 한국어 명사를 한자어, 고유어, 외래어로 분류하여 어원에 따른 심성어휘집 표상 양식의 차이를 구별하여 보고 이를 토대로 더욱 세부적인 한국어 명사어절의 처리 과정을 규명하여 보고자 한다.

  • PDF

A Simulation Model for Korean Eojeol Retrieval (한국어 어절 재인의 시뮬레이션 모델)

  • Lim Heuiseok;Nam Kichun
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • spring
    • /
    • pp.301-304
    • /
    • 2002
  • 본 논문은 한국인 피험자를 대상으로 이루어진 어절 재인 실험 시 관찰된 언어 현상인 길이 효과, 빈도 효과, 그리고 이웃 효과를 설명할 수 있는 한국어 어절 재인 시뮬레이션 모델을 제안한다. 제안한 모델은 코퍼스에서 나타난 어절의 빈도를 이용하여 정렬한 트라이(trie) 구조를 기반으로 하고 있다. 본 모델은 피험자들의 어절 재인 현상을 모두 설명할 수 있으며 피험자들을 대상으로 한 실험에서 사용한 동일 자료를 이용하여 시뮬레이션한 결과 유의미한 상관 관계를 보였다. 현재 시뮬레이션 중 발견된 언어 현상이 한국인 피험자에서도 나타나는지를 규명하기 위한 실험과 영어 단어 재인시의 언어 현상에 대해서도 적용할 수 있는 확장 방안에 대하여 연구를 수행하고 있다.

  • PDF

Spelling Correction in Korean Using the `Eojeol` generation Dictionary (어절 생성 사전을 이용한 한국어 철자 교정)

  • Lee, Yeong-Sin;Park, Yeong-Ja;Song, Man-Seok
    • The KIPS Transactions:PartB
    • /
    • v.8B no.1
    • /
    • pp.98-104
    • /
    • 2001
  • 본 논문에서는 어절 생성 사전을 이용한 한국어 철자 교정을 제안한다. 어절 생성 사전은 두 문자열 간 음절 특성이 고려된 편집 거리 계산을 기반으로 탐색되어 언어와 오류 유형에 의존적인 정보를 이용하지 않고 오류 어절에 대한 후보 어절을 생성한다. 또한 교정된 어절들의 가능한 형태소 분석들을 산출하여 후보들 간의 순위 계산 시에 재차 형태소 분석을 수행하지 않고 언어 정보를 적용할 수 있다. 본 논문에서 제안하는 철자 교정은 두 단계로 구성된다. 첫째, 오류 어절로부터 가능한 오류 정정 어간들을 계산한다. 둘째, 계산된 어간들로부터 어절 생성 사전을 탐색하여 원형 후보 어절들을 생성한다. 또한 품사 태깅과 공기 정보를 사용하여 오류 수정된 결과의 순위를 매긴다. 본 시스템의 자동 철자 교정 성능을 평가한 결과 3,000개의 어절에서 시험한 결과 단어 수준으로 93%가 옳게 교정되었다.

  • PDF

Korean Morphological Analysis Method Based on BERT-Fused Transformer Model (BERT-Fused Transformer 모델에 기반한 한국어 형태소 분석 기법)

  • Lee, Changjae;Ra, Dongyul
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.4
    • /
    • pp.169-178
    • /
    • 2022
  • Morphemes are most primitive units in a language that lose their original meaning when segmented into smaller parts. In Korean, a sentence is a sequence of eojeols (words) separated by spaces. Each eojeol comprises one or more morphemes. Korean morphological analysis (KMA) is to divide eojeols in a given Korean sentence into morpheme units. It also includes assigning appropriate part-of-speech(POS) tags to the resulting morphemes. KMA is one of the most important tasks in Korean natural language processing (NLP). Improving the performance of KMA is closely related to increasing performance of Korean NLP tasks. Recent research on KMA has begun to adopt the approach of machine translation (MT) models. MT is to convert a sequence (sentence) of units of one domain into a sequence (sentence) of units of another domain. Neural machine translation (NMT) stands for the approaches of MT that exploit neural network models. From a perspective of MT, KMA is to transform an input sequence of units belonging to the eojeol domain into a sequence of units in the morpheme domain. In this paper, we propose a deep learning model for KMA. The backbone of our model is based on the BERT-fused model which was shown to achieve high performance on NMT. The BERT-fused model utilizes Transformer, a representative model employed by NMT, and BERT which is a language representation model that has enabled a significant advance in NLP. The experimental results show that our model achieves 98.24 F1-Score.

Examining Line-breaks in Korean Language Textbooks: the Promotion of Word Spacing and Reading Skills (한국어 교재의 행 바꾸기 -띄어쓰기와 읽기 능력의 계발 -)

  • Cho, In Jung;Kim, Danbee
    • Journal of Korean language education
    • /
    • v.23 no.1
    • /
    • pp.77-100
    • /
    • 2012
  • This study investigates issues in relation to text segmenting, in particular, line breaks in Korean language textbooks. Research on L1 and L2 reading has shown that readers process texts by chunking (grouping words into phrases or meaningful syntactic units) and, therefore, phrase-cued texts are helpful for readers whose syntactic knowledge has not yet been fully developed. In other words, it would be important for language textbooks to avoid awkward syntactic divisions at the end of a line, in particular, those textbooks for beginners and intermediate level learners. According to our analysis of a number of major Korean language textbooks for beginner-level learners, however, many textbooks were found to display line-breaks of awkward syntactic division. Moreover, some textbooks displayed frequent instances where a single word (or eojeol in the case of Korean) is split between different lines. This can hamper not only learners' learning of the rules of spaces between eojeols in Korean, but also learners' development in automatic word recognition, which is an essential part of reading processes. Based on the findings of our textbook analysis and of existing research on reading, this study suggests ways to overcome awkward line-breaks in Korean language textbooks.

Statistical Generation of Korean Chatting Sentences Using Multiple Feature Information (복합 자질 정보를 이용한 통계적 한국어 채팅 문장 생성)

  • Kim, Jong-Hwan;Chang, Du-Seong;Kim, Hark-Soo
    • Korean Journal of Cognitive Science
    • /
    • v.20 no.4
    • /
    • pp.421-437
    • /
    • 2009
  • A chatting system is a computer program that simulates conversations between a human and a computer using natural language. In this paper, we propose a statistical model to generate natural chatting sentences when keywords and speech acts are input. The proposed model first finds Eojeols (Korean spacing units) including input keywords from a corpus, and generate sentence candidates by using appearance information and syntactic information of Eojeols surrounding the found Eojeols. Then, the proposed model selects one among the sentence candidates by using a language model based on speech act information, co-occurrence information between Eojeols, and syntactic information of each Eojeol. In the experiment, the proposed model showed the better correct sentence generation rate of 86.2% than a previous conventional model based on a simple language model.

  • PDF

A Korean Part-of-Speech Tagger using Simplified Eojeol-based unit (단순화된 어절을 단위로 하는 한국어 품사 태거)

  • Lee, Eui-Hyeon;Kim, Young-Gil;Shin, Jaehun;Kwon, Hong-Seok;Lee, Jong-Hyeok
    • 한국어정보학회:학술대회논문집
    • /
    • 2016.10a
    • /
    • pp.268-272
    • /
    • 2016
  • 영어권 언어가 어절 단위로 품사를 부여하는 반면, 한국어는 굴절이 많이 일어나는 교착어로서 데이터부족 문제를 피하기 위해 형태소 단위로 품사를 부여한다. 이러한 구조적 차이 안에서 한국어에 적합한 품사 태깅 단위는 지속적으로 논의되어 왔으며 지금까지 음절, 형태소, 어절, 구가 제안되었다. 본 연구는 어절 단위로 태깅함으로써 야기되는 복잡한 품사 태그와 데이터부족 문제를 해소하기 위해 어절에서 주요 실질 형태소와 주요 형식 형태소만을 뽑아 새로운 어절을 생성하고, 생성된 단순한 어절에 대해 CRF 태깅을 수행하였다. 실험결과 평가 말뭉치에서 미등록 어절 등장 비율은 9.22%에서 5.63%로 38.95% 감소시키고, 어절단위 정확도를 85.04%에서 90.81%로 6.79% 향상시켰다.

  • PDF

Analysis of Verbal and Nonverbal Behaviors of Grandmothers during Young Grandchildren-Grandmother Picture Book Reading (영유아 손자녀와 그림책읽기 시 조모의 언어적·비언어적 상호작용 분석 연구)

  • Kim, Hye Jin;Kim, Myoung Soon
    • Korean Journal of Childcare and Education
    • /
    • v.14 no.1
    • /
    • pp.87-108
    • /
    • 2018
  • Objective: The purpose of this study was to investigate grandmothers' verbal and nonverbal behaviors during young grandchildren-grandmother picture book reading. Methods: Participants were fifty-two children aged 22-42 months and their grandmothers. The researcher visited participating children's homes or child care centers and videotaped grandchildren-grandmother book reading activities. Each grandmother read two picture books for each observation. Grandmother surveys were administered after the reading activities. Parent surveys were completed by parents and were returned to the researcher. Results: First, grandmothers began reading picture books to grandchildren when children were 6 to 11-months-old or 12 to 17-months-old. They spent 5 to 10 minutes or 10 to 15 minutes at a time reading books. Second, grandmothers' most frequent verbal behavior during young grandchildren-grandmother picture book reading was 'explaining,' followed by 'questioning,' and 'providing feedback,' in that order. Grandmothers' MLU-eojeol during grandchildren-grandmother reading was 2.56. Their most frequently used nonverbal behavior was 'pointing,' followed by 'gestures.' Lastly, there was a significant difference in grandmothers' verbal and nonverbal behaviors during grandchildren-grandmother reading, depending on the grandmothers' characteristics. Conclusion/Implications: Grandmothers use various verbal and nonverbal behaviors during grandchildren-grandmother picture book reading activities, and there are significant differences in grandmothers' verbal and nonverbal behaviors with grandchildren based on grandmothers' characteristics.

A Joint Statistical Model for Word Spacing and Spelling Error Correction Simultaneously (띄어쓰기 및 철자 오류 동시교정을 위한 통계적 모델)

  • Noh, Hyung-Jong;Cha, Jeong-Won;Lee, GaryGeun-Bae
    • Journal of KIISE:Software and Applications
    • /
    • v.34 no.2
    • /
    • pp.131-139
    • /
    • 2007
  • In this paper, we present a preprocessor which corrects word spacing errors and spelling correction errors simultaneously. The proposed expands noisy-channel model so that it corrects both errors in colloquial style sentences effectively, while preprocessing algorithms have limitations because they correct each error separately. Using Eojeol transition pattern dictionary and statistical data such as n-gram and Jaso transition probabilities, it minimizes the usage of dictionaries and produces the corrected candidates effectively. In experiments we did not get satisfactory results at current stage, we noticed that the proposed methodology has the utility by analyzing the errors. So we expect that the preprocessor will function as an effective error corrector for general colloquial style sentence by doing more improvements.