• 제목/요약/키워드: 문법학습

Search Result 230, Processing Time 0.03 seconds

On the Notion of 5 Sentence Patterns in English Grammar Learning Materials (영문법 학습 교재의 5문형 분류 체계)

  • Um, Tae-Kyung
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.6
    • /
    • pp.283-292
    • /
    • 2016
  • This paper is intended as an investigation of 5 sentence patterns which have exerted a strong influence on the English education in Korea. The 'learning grammar', which is defined as the grammar in learning materials, was compared with 'reference grammar' derived from linguistic grammar with theoretical accuracy and validity. Although the notion of 5 sentence patterns has been assumed to be vestiges of old Japan textbooks, the classification system was originally established in 1929 by C. T. Onions. Particularly, new explanations regarding 'obligatory adjuncts' and 'marked construction' were provided in the learning materials, which could be seen as examples of the reflection of linguistic grammar theories on sentence patterns. If reference grammarbooks and the fruits of linguistic grammar research are used actively, material writers can avoid the errors of grammar description and more correct learning grammar can be taught to advanced learners.

Implicit Learning with Artificial Grammar : Simulations using EPAM IV (인공 문법을 사용한 암묵 학습: EPAM IV를 사용한 모사)

  • 정혜선
    • Korean Journal of Cognitive Science
    • /
    • v.14 no.1
    • /
    • pp.1-9
    • /
    • 2003
  • In implicit learning tasks, human participants learn grammatical letter strings better than random letter strings. After learning grammatical letter strings, participants were able to judge the grammaticality of new letter strings that they have never seen before. EPAM (Elementary Perceiver and Memorizer) IV, a rote learner without any rule abstraction mechanism, was used to simulate these results. The results showed that EPAM IV with a within-item chunking function was able to learn grammatical letter strings better than random letter strings and discriminate grammatical letter strings from non-grammatical letter strings. The success of EPAM IV in simulating human performance strongly indicated that recognition memory based on chunking plays a critical role in implicit learning.

  • PDF

Probabilistic Dependency Grammar Induction using Internal Dependency Relation in Words (어절 내부 의존관계를 고려한 확률 의존 문법 학습)

  • Choi, Seon-Hwa;Park, Hyuk-Ro
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.507-510
    • /
    • 2001
  • 본 논문에서는 코퍼스를 이용한 확률 의존문법 자동 생성 기술을 다룬다. 특히 의존 문법 생성을 위해 확률 재추정 알고리즘을 의존문법생성에 맞도록 변형하여 학습하였으며 정확한 문법 생성 및 회귀데이터(Data Sparseness)문제 해결을 위해서 구성요소의 대표 지배소들 간의 의존관계 만을 학습했던 기존 연구와는 달리 구성요소 내부의 의존관계까지 학습하는 방법을 제안한다. KAIST 의 트리 부착 코퍼스 31,086 문장에서 추출한 25,000 문장의 Tagged Corpus 을 가지고 한국어 확률 의존 문법 학습을 시도 하였다. 그 결과 초기문법을 10.97% 에서 23.73% 까지 줄인 2,349 개의 정확한 문법을 얻을 수 있었다. 문법의 정확성을 실험 하기 위해 350 개의 실험문장을 Parsing 한 결과 69.61%의 파싱 정확도를 보였다. 이로서 구성요소 내부의 의존관계 학습으로 얻어진 의존문법이 더 정확했으며, 회귀데이터 문제 또한 극복할 수 있음을 알 수 있었다.

  • PDF

Probabilistic Dependency Grammar Induction (한국어 확률 의존문법 학습)

  • 최선화;박혁로
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.513-515
    • /
    • 2003
  • 본 논문에서는 코퍼스를 이용한 확률 의존문법 자동 생성 기술을 다룬다. 의존문법 생성을 위해 구성성분의 기능어들 간의 의존관계를 학습했던 기존 연구와는 달리. 한국어 구성성분은 내용어와 기능어의 결함 형태로 구성되고 임의 구성성룬 기능어와 임의 구성성분 내용어간의 의존관계가 의미가 있다는 사실을 반영한 의존문법 학습방법을 제안한다. KAIST의 트리 부착 코퍼스 31,086문장에서 추출한 30,600문장의 Tagged Corpus을 가지고 학습한 결과 초기문법을 64%까지 줄인 1.101 개의 의존문법을 획득했고. 실험문장 486문장을 Parsing한 결과 73.81%의 Parsing 정확도를 보였다.

  • PDF

Korean Probabilistic Dependency Grammar Induction by morpheme (형태소 단위의 한국어 확률 의존문법 학습)

  • Choi, Seon-Hwa;Park, Hyuk-Ro
    • The KIPS Transactions:PartB
    • /
    • v.9B no.6
    • /
    • pp.791-798
    • /
    • 2002
  • In this thesis. we present a new method for inducing a probabilistic dependency grammar (PDG) from text corpus. As words in Korean are composed of a set of more basic morphemes, there exist various dependency relations in a word. So, if the induction process does not take into account of these in-word dependency relations, the accuracy of the resulting grammar nay be poor. In comparison with previous PDG induction methods. the main difference of the proposed method lies in the fact that the method takes into account in-word dependency relations as well as inter-word dependency relations. To access the performance of the proposed method, we conducted an experiment using a manually-tagged corpus of 25,000 sentences which is complied by Korean Advanced Institute of Science and Technology (KAIST). The grammar induction produced 2,349 dependency rules. The parser with these dependency rules shoved 69.77% accuracy in terms of the number of correct dependency relations relative to the total number dependency relations for best-1 parse trees of sample sentences. The result shows that taking into account in-word dependency relations in the course of grammar induction results in a more accurate dependency grammar.

Sentence Unit De-noising Training Method for Korean Grammar Error Correction Model (한국어 문법 오류 교정 모델을 위한 문장 단위 디노이징 학습법)

  • Hoonrae Kim;Yunsu Kim;Gary Geunbae Lee
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.507-511
    • /
    • 2022
  • 문법 교정 모델은 입력된 텍스트에 존재하는 문법 오류를 탐지하여 이를 문법적으로 옳게 고치는 작업을 수행하며, 학습자에게 더 나은 학습 경험을 제공하기 위해 높은 정확도와 재현율을 필요로 한다. 이를 위해 최근 연구에서는 문단 단위 사전 학습을 완료한 모델을 맞춤법 교정 데이터셋으로 미세 조정하여 사용한다. 하지만 본 연구에서는 기존 사전 학습 방법이 문법 교정에 적합하지 않다고 판단하여 문단 단위 데이터셋을 문장 단위로 나눈 뒤 각 문장에 G2P 노이즈와 편집거리 기반 노이즈를 추가한 데이터셋을 제작하였다. 그리고 문단 단위 사전 학습한 모델에 해당 데이터셋으로 문장 단위 디노이징 사전 학습을 추가했고, 그 결과 성능이 향상되었다. 노이즈 없이 문장 단위로 분할된 데이터셋을 사용하여 디노이징 사전 학습한 모델을 통해 문장 단위 분할의 효과를 검증하고자 했고, 디노이징 사전 학습하지 않은 기존 모델보다 성능이 향상되는 것을 확인하였다. 또한 둘 중 하나의 노이즈만을 사용하여 디노이징 사전 학습한 두 모델의 성능이 큰 차이를 보이지 않는 것을 통해 인공적인 무작위 편집거리 노이즈만을 사용한 모델이 언어학적 지식이 필요한 G2P 노이즈만을 사용한 모델에 필적하는 성능을 보일 수 있다는 것을 확인할 수 있었다.

  • PDF

Modelling Grammatical Pattern Acquisition using Video Scripts (비디오 스크립트를 이용한 문법적 패턴 습득 모델링)

  • Seok, Ho-Sik;Zhang, Byoung-Tak
    • Annual Conference on Human and Language Technology
    • /
    • 2010.10a
    • /
    • pp.127-129
    • /
    • 2010
  • 본 논문에서는 다양한 코퍼스를 통해 언어를 학습하는 과정을 모델링하여 무감독학습(Unsupervised learning)으로 문법적 패턴을 습득하는 방법론을 소개한다. 제안 방법에서는 적은 수의 특성 조합으로 잠재적 패턴의 부분만을 표현한 후 표현된 규칙을 조합하여 유의미한 문법적 패턴을 탐색한다. 본 논문에서 제안한 방법은 베이지만 추론(Bayesian Inference)과 MCMC (Markov Chain Mote Carlo) 샘플링에 기반하여 특성 조합을 유의미한 문법적 패턴으로 정제하는 방법으로, 랜덤하이퍼그래프(Random Hypergraph) 모델을 이용하여 많은 수의 하이퍼에지를 생성한 후 생성된 하이퍼에지의 가중치를 조정하여 유의미한 문법적 패턴을 탈색하는 방법론이다. 우리는 본 논문에서 유아용 비디오의 스크립트를 이용하여 다양한 유아용 비디오 스크립트에서 문법적 패턴을 습득하는 방법론을 소개한다.

  • PDF

Introduction of Bridge-Language for cognitive burden reduction in the public education system (학습자의 인지부담을 줄이는 중간언어 도입에 대한 연구)

  • LEE, SEUNG-UN;SON, YUN-SIK
    • Proceedings of The KACE
    • /
    • 2018.08a
    • /
    • pp.49-52
    • /
    • 2018
  • SW 교육에 있어서 입문자의 흥미를 유발하고자 블록 기반인 스크래치와 엔트리가 도입되었고 많은 교육 기관에서는 이후 ARDUINO, C, JAVA, PYTHON 등을 선택 교육하고 있다. 이 과정에서 코딩보다는 사고력을 강조하며 정보 교과 내에서 문법 공부하는 것을 기피하는 풍토를 보인다. 이러한 점은 2015 개정 교육과정 지침에서 특정 언어의 기능습득에 치우치지 않고 학습자의 수준에 맞추어 적절한 도구를 선택하도록 하여 사실상 교수자의 재량에 두고 있는 점에서도 파악할 수 있다. 코딩의 문법학습을 피하는 경향은 코딩교육 도입 초기의 취지와는 다르게 공교육 내에서의 코딩교육의 활성화에 부정적 요소로 작용할 여지가 크다고 우려된다. 따라서 현재 출판된 정보 교과서에서 다루는 프로그래밍 언어의 종류를 조사하고 코딩 문법학습을 최소화를 할 수 있으며 블록코딩에서 텍스트 코딩으로 전환 시 학습자의 부담을 감소할 수단으로 PROCESSING를 통한 과정을 제안하는 바이다.

  • PDF

Grammar Error Detection System for Learners of Spoken and Written English (영어 말하기, 쓰기 학습자를 위한 문법 오류 검출 시스템)

  • Seo, Hongsuck;Lee, Sungjin;Lee, Jinsik;Lee, Jonghoon;Lee, Gary Geunbae
    • Annual Conference on Human and Language Technology
    • /
    • 2011.10a
    • /
    • pp.136-139
    • /
    • 2011
  • 외국어 교육의 필요성이 강조되고 그에 대한 요구가 늘어남에 따라 언어 교육의 기회를 늘리고 비용을 줄이기 위해 컴퓨터 기반의 다양한 기술들의 요구 역시 증가하고 개발되고 있다. 언어 능력 개발의 중요한 요소로서 문법 교육에 대한 컴퓨터 지원 기술 연구가 활발히 진행되고 있다. 본 연구에서는 문법 오류 시뮬레이션을 통해 문법 오류 패턴 데이터베이스를 구축하고 이들 패턴과 사용자 입력의 패턴 매칭으로 생성된 자질 벡터로 기계 학습을 하여 문법성 확인을 했다. 문법성 확인 결과에 따라 오류 종류에 따른 상대 빈도를 고려하여 오류 종류를 분류했다. 또 말하기와 쓰기 작업의 서로 다른 특성을 반영하기 위해 말하기 작업과 쓰기 작업에 대한 두 개의 다른 말뭉치가 학습에 이용 되었다.

  • PDF

Hypernetwork-based Natural Language Sentence Generation by Word Relation Pattern Learning (단어 간 관계 패턴 학습을 통한 하이퍼네트워크 기반 자연 언어 문장 생성)

  • Seok, Ho-Sik;Bootkrajang, Jakramate;Zhang, Byoung-Tak
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.3
    • /
    • pp.205-213
    • /
    • 2010
  • We introduce a natural language sentence generation (NLG) method based on learning of word-association patterns. Existing NLG methods assume the inherent grammar rules or use template based method. Contrary to the existing NLG methods, the presented method learns the words-association patterns using only the co-occurrence of words without additional information such as tagging. We employ the hypernetwork method to analyze and represent the words-association patterns. As training going on, the model complexity is increased. After completing each training phase, natural language sentences are generated using the learned hyperedges. The number of grammatically plausible sentences increases after each training phase. We confirm that the proposed method has a potential for learning grammatical properties of training corpuses by comparing the diversity of grammatical rules of training corpuses and the generated sentences.