• Title/Summary/Keyword: 규칙언어

Search Result 682, Processing Time 0.023 seconds

A New Method for Estimating Rule Probabilities of Stochastic Context-Free Grammars (확률문맥자유문법의 규칙확률 추정을 위한 새로운 기법)

  • Byun, Seong-Chan;Ra, Dong-Yul
    • Annual Conference on Human and Language Technology
    • /
    • 1998.10c
    • /
    • pp.247-252
    • /
    • 1998
  • 본 논문에서는 확률문맥자유문법의 규칙확률을 추정하여 주는 새로운 알고리즘을 제시한다. 이 알고리즘은 이미 잘 알려진 인사이드-아웃사이드 알고리즘에 비하여 개념적으로 이해하기 쉽다는 장점을 가지고 있으며 속도면에서 훨씬 빠르다는 것이 실험으로 입증되었다.

  • PDF

A Design for Korean Phrase Structure Grammar(KPSG) in ALE (ALE를 이용한 한국어 문법의 설계)

  • Choi, Woon-Ho;Chang, Suk-Jin
    • Annual Conference on Human and Language Technology
    • /
    • 1998.10c
    • /
    • pp.217-221
    • /
    • 1998
  • 본 논문에서는 한국어의 전산처리를 위한 문법 모형 개발의 일부분으로 HPSG에 기반한 문법 모형의 개발을 시도한다. 문법 모형의 개발에는 ALE(Attribute Logic Engine)를 이용하며, 보문 구조와 보조 용언 구문을 분석하기 위한 사전구조 및 문법 규칙을 제시한다. 그리고 문의 종류 (Sentence Type:ST)와 문계(Sentence Level: SL), 시제, 존대 등을 분석해서 표상하기 위한 유형 계층 및 어휘부, 문법 규칙, 문법 원리 등을 제시한다.

  • PDF

An Automatic Design for Fuzzy Controllers Using Genetic Algorithms (유전자 알고리즘을 이용한 퍼지 제어기의 자동 설계)

  • 박세환;김영일;김종규;이광형
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1996.10a
    • /
    • pp.306-309
    • /
    • 1996
  • 본 논문에서는 유전자 알고리즘을 이용하여 퍼지 제어기를 위한 최적 소속함수와 제어 규칙들을 자동으로 생성하는 방법을 제안한다. 제안한 방법은 효과적인 염색체 암호화 방법을 이용하여 소속함수의 표현 해상도가 증가하여도 소속함수의 언어항의 개수를 일정하게 유지하여 제어 규칙을 표현하는 염색체의 길이가 크게 늘어나지 않도록 한다. 또, 소속함수의 언어항의 개수가 서로 다른 염색체에 대해서도 개선된 교배 및 돌연변이 연산자를 이용하여 효과적으로 유전자 연산을 적용할 수 있게 한다. 본 논문에서는 제안된 방법을 퍼지 제어기의 자동 생성 방법의 평가 문제로 널리 이용되는 트럭 후진 주차 문제에 적용하여 성능을 평가한다.

  • PDF

Korean Part-of-Speech Tagging using Constrained-Rule and Main POS Information among Words (어절간 주품사 정보와 제약 규칙을 이용한 한국어 품사 태깅 시스템)

  • Kang, Yu-Hwan;Seo, Young-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.433-437
    • /
    • 1999
  • 본 논문에서는 품사 태깅을 위한 방법으로 어절간 품사 패턴 정보를 이용하는 방법을 제안한다. 품사 태깅을 위하여 여러 어절들 간의 품사 패턴 정보를 통계 정보로 구축하고 품사 태깅시에 품사 패턴 정보를 이용하여 품사 태깅을 수행한다. 이때 품사 패턴 적용시 몇가지 제약 규칙을 둠으로써 품사 태깅의 정확률을 높이는 방법을 연구하였다.

  • PDF

Relation Extraction based on Neural-Symbolic Structure (뉴럴-심볼릭 구조 기반의 관계 추출)

  • Oh, Jinyoung;Cha, Jeong-Won
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.115-118
    • /
    • 2020
  • 딥러닝은 자연어처리 분야에서 우수한 성능을 보이고 있다. 하지만 우수한 성능을 달성하려면 많은 학습 데이터와 오랜 학습 시간이 필요하다. 우리는 딥러닝과 기호 규칙을 함께 사용하는 뉴럴-심볼릭 방법을 이용하여 딥러닝만으로 학습한 모델의 성능을 능가하는 방법을 제안한다. 딥러닝의 한계를 극복하기 위해서 관계추출에서 규칙 결과와 딥러닝 결과와의 불일치도를 추가한 구조를 설계하였다. 제안한 구조는 한국어 데이터에 대해서 우수한 성능을 보였으며, 빠른 성능 수렴이 이루어지는 것을 확인하였다.

  • PDF

An Object Model of Korean Web Pages for Title Identification (웹문서의 테이블 객체 모델링을 통한 제목 추출 방법)

  • Yoon, Ju-Hyoung;Park, Se-Jong;Lee, Seung-Wook;Han, Young-S.
    • Annual Conference on Human and Language Technology
    • /
    • 2003.10d
    • /
    • pp.18-21
    • /
    • 2003
  • 한국어 웹 문서에는 일반적으로 제목이 명시가 되어 있음으로 텍스트를 요약하는 방식의 제목추출과는 달리 여러 테이블 형태로 이루어진 웹 문서의 특성을 고려하여 제목에 해당하는 테이블 객체를 찾아내야 한다. 웹 문서를 테이블 객체의 리스트로 보고, 이들을 휴리스틱 규칙에 의해서 본문 후보와 이를 기준으로 하는 제목 후보 객체들로 구분하는 단계와 제목 후보들 간의 확률적 분포 값과 본문과의 언어적 유사도를 이용하여 제목 객체를 결정하는 단계를 통하여 제목을 인식한다. 인식의 정확성에 기여하는 것은 제목과 본문 객체를 구분하는 규칙 그리고 제목의 확률분포 및 언어적 유사 정도 등이며 이들 각 정보가 정확성에 기여하는 정도를 실험하였다. 무작위로 추출된 500개의 다양한 양식의 웹 문서를 대상으로 실험한 결과 제목인식 정확성은 95.1%였다.

  • PDF

Implementation of Recommender System of Seoul Urban Parks Using Rule-based Expert System based on PROLOG (PROLOG기반의 규칙 기반 전문가 시스템을 이용한 서울시 도시 공원 추천 시스템 구현)

  • Son, Se-Jin;Kim, Da-Hee;Cho, Ye-Bon;Chun, Soo-Wan;Lee, Kang-Hee
    • Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology
    • /
    • v.7 no.7
    • /
    • pp.847-856
    • /
    • 2017
  • In this paper, we propose a system to users which recommends suitable park using linguistic objects by rule-based inference engine which is made with Prolog. According to the function of city park, which provides positive elements to people such as social, psychological, environmental, and physical, Seoul city park is classified into 6 categories. The classified parks are recommended to users based on the rule based expert system. Rule-based object of park recommendation designs nine linguistic objects based on activity, multi-purposiveness, accessibility, and usage of time. This assigns allowed value accordingly. Generated rules by using these values are fired by user's preference, and infer recommended park. Information on preferences is obtained by way of dialogue, in which the user is asked questions about the three elements that are the criteria for choosing a park. As a result, through the park recommendation system, we intend to increase the user's satisfaction of using park and leisure activities.

Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information (언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축)

  • Lee, Jun-Beom;Kim, So-Eon;Park, Seong-Bae
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.3
    • /
    • pp.125-132
    • /
    • 2022
  • Sentence compression is a natural language processing task that generates concise sentences that preserves the important meaning of the original sentence. For grammatically appropriate sentence compression, early studies utilized human-defined linguistic rules. Furthermore, while the sequence-to-sequence models perform well on various natural language processing tasks, such as machine translation, there have been studies that utilize it for sentence compression. However, for the linguistic rule-based studies, all rules have to be defined by human, and for the sequence-to-sequence model based studies require a large amount of parallel data for model training. In order to address these challenges, Deleter, a sentence compression model that leverages a pre-trained language model BERT, is proposed. Because the Deleter utilizes perplexity based score computed over BERT to compress sentences, any linguistic rules and parallel dataset is not required for sentence compression. However, because Deleter compresses sentences only considering perplexity, it does not compress sentences by reflecting the linguistic information of the words in the sentences. Furthermore, since the dataset used for pre-learning BERT are far from compressed sentences, there is a problem that this can lad to incorrect sentence compression. In order to address these problems, this paper proposes a method to quantify the importance of linguistic information and reflect it in perplexity-based sentence scoring. Furthermore, by fine-tuning BERT with a corpus of news articles that often contain proper nouns and often omit the unnecessary modifiers, we allow BERT to measure the perplexity appropriate for sentence compression. The evaluations on the English and Korean dataset confirm that the sentence compression performance of sentence-scoring based models can be improved by utilizing the proposed method.

A Hybrid of Rule based Method and Memory based Loaming for Korean Text Chunking (한국어 구 단위화를 위한 규칙 기반 방법과 기억 기반 학습의 결합)

  • 박성배;장병탁
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.3
    • /
    • pp.369-378
    • /
    • 2004
  • In partially free word order languages like Korean and Japanese, the rule-based method is effective for text chunking, and shows the performance as high as machine learning methods even with a few rules due to the well-developed overt Postpositions and endings. However, it has no ability to handle the exceptions of the rules. Exception handling is an important work in natural language processing, and the exceptions can be efficiently processed in memory-based teaming. In this paper, we propose a hybrid of rule-based method and memory-based learning for Korean text chunking. The proposed method is primarily based on the rules, and then the chunks estimated by the rules are verified by memory-based classifier. An evaluation of the proposed method on Korean STEP 2000 corpus yields the improvement in F-score over the rules or various machine teaming methods alone. The final F-score is 94.19, while those of the rules and SVMs, the best machine learning method for this task, are just 91.87 and 92.54 respectively.

연속간행물용 한국목록규칙(안)에 대한 지상공청

  • Korean Library Association
    • KLA journal
    • /
    • v.38 no.6 s.307
    • /
    • pp.45-78
    • /
    • 1997
  • 우리 협회에서 간행된 한국목록규칙 3판(KCR3)은 국내의 기술목록수준을 국제적인 수준으로 한 단계 진전시키는 중요한 계기가 되었다고 자부합니다. 그 근거로 국제서지기술법(ISBD)을 수용하여 서지기술단위저록방식을 규정함으로써, 기술만으로 완전한 저록을 구성할 수 있게 되었으며, 특히 우리의 언어나 사고과정에 기초한 한국적 특수성을 목록규칙에 반영할 수 있었다는 점을 들 수 있습니다. 그러나 종래 KCR3은 단행본 중심의 목록규칙이라는 한계가 있었고, 따라서 연속간행물과 기타 비도서자료에 대한 기술규칙의 제정이 요구되어 왔습니다. 각종 비도서잘(비책자자료)와 네트워크자원이 대량으로 간행되는 시점에서 이들 다양한 유형의 자료를 목록에서 수용할 수 있는 통합된 목록규칙이 요구되고 있는 실정임에도 불구하고, 규칙제정에 소요되는 시간과 인력을 고려하여 우선 일차로 연속간행물용 목록규칙(안)을 내어 놓게 된 것입니다. 이 목록규칙(안)은 그 동안 2년여에 걸쳐 우리 협회 목록위원회를 중심으로 회의와 토록과정을 거친 것으로 도서관계에 종사하시는 사서 여러분의 의견을 수용하고자 하오니, 애정과 관심으로 검토해 주시고 좋은 의견을 개진해 주시길 간곡히 부탁드립니다. 목록규칙은 바로 우리 도서관인 모두가 다듬고 만들어 가야 할 책무가 있기 때문입니다. 어떤 형태의 의견이나 권고안, 수정안이라도 좋으니 여러분의 많은 관심과 협조를 기대합니다.

  • PDF