• 제목/요약/키워드: Probabilistic grammar

검색결과 14건 처리시간 0.028초

확률파싱오토마타 모델 (A Model of Probabilistic Parsing Automata)

  • 이경옥
    • 정보과학회 논문지
    • /
    • 제44권3호
    • /
    • pp.239-245
    • /
    • 2017
  • 확률문법은 자연어처리에서 사용되며, 확률문법에 대한 구문분석의 결과인 파스는 문법의 확률을 그대로 보존해야 한다. 대표적인 구문분석방법인 LL 파싱과 LR 파싱의 확률파싱 가능성을 살펴볼 때 LL 파싱은 문법의 확률정보를 그대로 유지하는 반면에 LR 파싱은 그렇지 않다. 확률문법과 확률파싱오토마톤과의 관계에 관한 기존 연구로 확률보존조건을 충족하는 오토마톤의 특성에 관한 연구는 진행된 바 있다. 그렇지만, 현재로서는 확률보존조건을 충족하는 오토마톤 생성모델에 관해서는 알려진 바가 없다. 본 논문에서는 단일상태파싱오토마타에 기반한 확률파싱오토마타 모델을 제안한다. 제안 모델로부터 생성되는 오토마톤은 확률보존조건을 보장하기에 별도의 확률파싱 가능 여부를 테스팅하는 단계가 불필요하고, 별도의 확률 함수를 정의하지 않아도 된다. 또한 매개인자를 적절하게 선택하여 효율적인 오토마톤의 생성이 가능하다.

확률적 문법규칙에 기반한 국어사전의 뜻풀이말 구문분석기 (A Parser of Definitions in Korean Dictionary based on Probabilistic Grammar Rules)

  • 이수광;옥철영
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권5호
    • /
    • pp.448-448
    • /
    • 2001
  • The definitions in Korean dictionary not only describe meanings of title, but also include various semantic information such as hypernymy/hyponymy, meronymy/holonymy, polysemy, homonymy, synonymy, antonymy, and semantic features. This paper purposes to implement a parser as the basic tool to acquire automatically the semantic information from the definitions in Korean dictionary. For this purpose, first we constructed the part-of-speech tagged corpus and the tree tagged corpus from the definitions in Korean dictionary. And then we automatically extracted from the corpora the frequency of words which are ambiguous in part-of-speech tag and the grammar rules and their probability based on the statistical method. The parser is a kind of the probabilistic chart parser that uses the extracted data. The frequency of words which are ambiguous in part-of-speech tag and the grammar rules and their probability resolve the noun phrase's structural ambiguity during parsing. The parser uses a grammar factoring, Best-First search, and Viterbi search In order to reduce the number of nodes during parsing and to increase the performance. We experiment with grammar rule's probability, left-to-right parsing, and left-first search. By the experiments, when the parser uses grammar rule's probability and left-first search simultaneously, the result of parsing is most accurate and the recall is 51.74% and the precision is 87.47% on raw corpus.

형태소 단위의 한국어 확률 의존문법 학습 (Korean Probabilistic Dependency Grammar Induction by morpheme)

  • 최선화;박혁로
    • 정보처리학회논문지B
    • /
    • 제9B권6호
    • /
    • pp.791-798
    • /
    • 2002
  • 본 논문에서는 코퍼스를 이용한 확률 의존문법 자동 생성 기술을 다룬다. 한국어의 부분 자유 어순성질과 문장의 필수적 성분의 생략과 같은 특성으로 인하여 한국어 구문분석에 관한 연구들에서는 주로 의존문법을 선호하고 있다. 본 논문에서는 기존의 어절단위학습방법에서는 학습할 수 없었던 어절 내의 의존관계를 학습할 수 있는 형태소 단위의 학습 방법을 제안한다. KAIST의 트리 부착 코퍼스 약 3만 문장에서 추출한 25,000문장의Tagged Corpus을 가지고 한국어 확률 의존문법 학습을 시도하였다. 그 결과 초기문법 2,349개의 정확한 문법을 얻을 수 있었으며, 문법의 정확성을 실험하기 위해 350개의 실험문장을 parsing한 결과 69.77%의 파싱 정확도를 보였다. 이로서 한국어 어절 특성을 고려한 형태소 단위 학습으로 얻어진 의존문법이 어절 단위 학습으로 얻어진 문법보다 더 정확하다는 사실을 알 수 있었다.

TG-SPSR: A Systematic Targeted Password Attacking Model

  • Zhang, Mengli;Zhang, Qihui;Liu, Wenfen;Hu, Xuexian;Wei, Jianghong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권5호
    • /
    • pp.2674-2697
    • /
    • 2019
  • Identity authentication is a crucial line of defense for network security, and passwords are still the mainstream of identity authentication. So far trawling password attacking has been extensively studied, but the research related with personal information is always sporadic. Probabilistic context-free grammar (PCFG) and Markov chain-based models perform greatly well in trawling guessing. In this paper we propose a systematic targeted attacking model based on structure partition and string reorganization by migrating the above two models to targeted attacking, denoted as TG-SPSR. In structure partition phase, besides dividing passwords to basic structure similar to PCFG, we additionally define a trajectory-based keyboard pattern in the basic grammar and introduce index bits to accurately characterize the position of special characters. Moreover, we also construct a BiLSTM recurrent neural network classifier to characterize the behavior of password reuse and modification after defining nine kinds of modification rules. Extensive experimental results indicate that in online attacking, TG-SPSR outperforms traditional trawling attacking algorithms by average about 275%, and respectively outperforms its foremost counterparts, Personal-PCFG, TarGuess-I, by about 70% and 19%; In offline attacking, TG-SPSR outperforms traditional trawling attacking algorithms by average about 90%, outperforms Personal-PCFG and TarGuess-I by 85% and 30%, respectively.

문장성분의 다양한 자질을 이용한 한국어 구문분석 모델 (Korean Parsing Model using Various Features of a Syntactic Object)

  • 박소영;김수홍;임해창
    • 정보처리학회논문지B
    • /
    • 제11B권6호
    • /
    • pp.743-748
    • /
    • 2004
  • 본 논문에서는 효과적인 구문 중의성 해결을 위해 문장성분의 구문자질, 기능자질, 내용자질, 크기자질을 활용하는 확률적 한국어 구문분석 모델을 제안한다. 그리고, 제안하는 구문분석 모델은 한국어의 부분자유어순과 생략현상을 잘 처리할 수 있도록 문법규칙을 이진형식으로 제한한다. 실험을 통해 제안하는 구문분석 모델의 성능을 각 자질조합별로 분석한다. 분석결과는 서로 다른 특징을 갖는 자질의 조합이 서로 유사한 특징을 갖는 자질의 조합보다 구문중의성 해결에 더 유용하다는 것을 보여준다. 또한, 단일자질인 기능자질이 내용자질과 크기자질의 조합보다 성능이 더 우수함을 알 수 있다.

운전자 사용자경험기반의 인지향상 시스템 연구 (Driver's Behavioral Pattern in Driver Assistance System)

  • 조두리;신동희
    • 디지털콘텐츠학회 논문지
    • /
    • 제15권5호
    • /
    • pp.579-586
    • /
    • 2014
  • 본 논문은 문맥-자유 문법 (context-free grammar)를 이용하여, 차선변경 상황에서의 운전자의 행동패턴 인식을 하는 방법을 제안하는 것을 목표로 한다. 문맥-자유-문법은 기존 패턴인식 방식과는 대조적으로 유한적 기호로는 쉽게 표현될 수 없는 특징들을 비교적 손쉽게 표현할 수 있다. 이 방식을 적용하여, 동시에 여러 특징을 각각 고려해야 하는 좌표기반 데이터 처리 대신 심볼 시퀀스 방식 (symbolic sequence)을 패턴화하기 위해 구문론적 방식을 적용한다. 이 방법은 운전자와 안전 운전 분야 연구자들에게 효율적이고 보다 직관적인 방법으로 보다 더 효과적인 수행에 도움이 된다. 본 연구의 향후과제로 보다 안정적인 인식률을 획득하기 위해 확률적 구문분석 방법을 적용할 계획이다.

중심어 간의 공기정보를 이용한 한국어 확률 구문분석 모델 (Korean Probabilistic Syntactic Model using Head Co-occurrence)

  • 이공주;김재훈
    • 정보처리학회논문지B
    • /
    • 제9B권6호
    • /
    • pp.809-816
    • /
    • 2002
  • 구문 분석에서 가장 큰 문제점 중 하나는 구문 구조의 중의성을 어떻게 해결하느냐에 달려있다. 확률 구문 규칙은 구문 구조의 중의성 해결에 한 방법이 될 수 있다. 본 논문에서는 중심어 간의 공기정보를 이용하여 한국어 구문 구조의 중의성을 해결하는 확률 모델을 제안하고자 한다. 중심어는 어휘를 이용하기 때문에 자료 부족 문제를 야기시킬 수 있다. 이 때문에 자료부족 문제를 어떻게 해결하느냐에 따라 어휘 정보 사용의 성공이 결정될 수 있다. 본 논문에서는 구문규칙을 단순화하고 Back-off 방법을 이용해서 이 문제를 완화한다. 제안된 모델은 실험 데이터에 대해 약 84%의 정확도를 보였다.

한국어 확률 의존문법 학습 (Probabilistic Dependency Grammar Induction)

  • 최선화;박혁로
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.513-515
    • /
    • 2003
  • 본 논문에서는 코퍼스를 이용한 확률 의존문법 자동 생성 기술을 다룬다. 의존문법 생성을 위해 구성성분의 기능어들 간의 의존관계를 학습했던 기존 연구와는 달리. 한국어 구성성분은 내용어와 기능어의 결함 형태로 구성되고 임의 구성성룬 기능어와 임의 구성성분 내용어간의 의존관계가 의미가 있다는 사실을 반영한 의존문법 학습방법을 제안한다. KAIST의 트리 부착 코퍼스 31,086문장에서 추출한 30,600문장의 Tagged Corpus을 가지고 학습한 결과 초기문법을 64%까지 줄인 1.101 개의 의존문법을 획득했고. 실험문장 486문장을 Parsing한 결과 73.81%의 Parsing 정확도를 보였다.

  • PDF

Bracketing Input for Accurate Parsing

  • No, Yong-Kyoon
    • 한국언어정보학회:학술대회논문집
    • /
    • 한국언어정보학회 2007년도 정기학술대회
    • /
    • pp.358-364
    • /
    • 2007
  • Syntax parsers can benefit from speakers' intuition about constituent structures indicated in the input string in the form of parentheses. Focusing on languages like Korean, whose orthographic convention requires more than one word to be written without spaces, we describe an algorithm for passing the bracketing information across the tagger to the probabilistic CFG parser, together with one for heightening (or penalizing, as the case may be) probabilities of putative constituents as they are suggested by the parser. It is shown that two or three constituents marked in the input suffice to guide the parser to the correct parse as the most likely one, even with sentences that are considered long.

  • PDF