• 제목/요약/키워드: syntactic model

검색결과 101건 처리시간 0.025초

구문 분석과 One-Stage DP를 이용한 연속 숫자음 인식에 관한 연구 (A study on the Recognition of Continuous Digits using Syntactic Analysis and One-Stage DP)

  • 안태옥
    • 한국음향학회지
    • /
    • 제14권3호
    • /
    • pp.97-104
    • /
    • 1995
  • 본 논문은 음성 다이얼링 시스템 구현을 위한 연속 숫자음 인식에 관한 연구로써, 구문 분석을 이용한 One-Stage DP에 의한 음성 인식 방법을 제안하다. 인식 실험을 위해 우선 구간 구분화 알고리즘을 이용하여 DMS (Dynamic Multi-SEction) 모델을 만들며, 제안된 구문 분석을 이용한 One-Stage DP 방법으로 실험 대ㅛ상의 연속 숫자음 데이터를 인식하게 하였다. 본 연구에서는 8명의 ㅣ남성 화자에 의해 2-3번 발음도니 21종의 7자리의 연속 숫자음이 사용되었고, 기존의 One-Stage DP와 제안된 구문 분석을 이용한 One-Stage DP 음성 인식 알고리즘을 사용해서 화자 종속과 화자 독립 실험을 실험실 환경에서 수행하였다. 인식 실험 결과, 기존의 방법보다 제안된 방법이 인식률이 좋은 것으로 나타났으며, 제안된 방법에서는 화자 종속과 화자 독립 실험에서 각각 약 91.7%, 89.7%로 나타났다.

  • PDF

복합 자질 정보를 이용한 통계적 한국어 채팅 문장 생성 (Statistical Generation of Korean Chatting Sentences Using Multiple Feature Information)

  • 김종환;장두성;김학수
    • 인지과학
    • /
    • 제20권4호
    • /
    • pp.421-437
    • /
    • 2009
  • 채팅 시스템은 인간이 사용하는 언어를 이용하여 인간과 컴퓨터 간의 대화를 시뮬레이션하는 프로그램이다. 본 논문에서는 핵심어와 화행을 입력으로 받아 자연스러운 채팅 문장을 생성하는 통계 모델을 제안한다. 제안 모델은 먼저 핵심어를 포함한 어절을 말뭉치에서 선택하고, 해당 어절의 주위에 있는 어절의 출현 정보와 구문 정보를 이용하여 후보 문장들을 생성한다. 그리고 화행에 기초한 언어 모델, 어절간 공기 정보, 각 어절의 구문 정보를 이용하여 생성된 후보 문장 중 하나를 선택한다. 실험 결과에 따르면 제안 모델은 단순한 언어 모델에 기반한 기존의 모델보다 좋은 86.2%의 적합 문장 생성률을 보였다.

  • PDF

Z/Object-Z 사용한 2+1 View 통합 메타모델의 정형 명세와 명확성 검사 (A Formal Specification and Accuracy Checking of 2+1 View Integrated Metamodel Using Z and Object-Z)

  • 송치양
    • 한국산학기술학회논문지
    • /
    • 제15권1호
    • /
    • pp.449-459
    • /
    • 2014
  • 시각적인 클래스 모델로 기 제시된 2+1 View 통합 메타모델은 비정형적인 명세에 기인하여 명확하게 모델의 구문을 표현하지 못하고 있으며, 또한 그 모델의 정확성을 보장할 수 없다. 본 논문은 Z와 Object-Z를 사용해서 2+1 View 통합 메타모델의 구문적 의미를 정형적으로 명세하고, Z/Eves 툴을 통해 메타모델의 정확성을 검사하는 것이다. 정형 명세는 클래스 모델과 Z/Object-Z간의 변환규칙을 적용해서 2+1 View 통합 메타모델의 구문과 정적 시멘틱에 대해 Z와 Object-Z 스키마로 각각 표현한다. 메타모델의 검사는 Z 스키마 명세에 대해 Z/Eves 도구를 사용하여 구문, 타입 검사 그리고 도메인 검사를 수행하여 메타모델의 정확성을 입증한다. 이로서, 2+1 View 통합 메타모델 메타모델의 Z/Object-Z 변환을 통해 구조물의 구문적 의미를 명확하게 표현할 수 있으며, 또한 그 메타모델의 정확성을 검사할 수 있다.

경량 온톨로지 생성 연구 (A Study for the Generation of the Lightweight Ontologies)

  • 한동일;권혁인;백선경
    • 한국IT서비스학회지
    • /
    • 제8권1호
    • /
    • pp.203-215
    • /
    • 2009
  • This paper illustrates the application of co-occurrence theory to generate lightweight ontologies semi-automatically. The proposed model includes three steps of a (Semi-) Automatic creation of Ontology; (they are conceptually named as) the Syntactic-based Ontology, the Semantic-based Ontology and the Ontology Refinement. Each of these three steps are designed to interactively work together, so as to generate Lightweight Ontologies. The Syntactic-based Ontology step includes generating Association words using co-occurrence in web documents. The Semantic-based Ontology step includes the Alignment large Association words with small Ontology, through the process of semantic relations by contextual terms. Finally, the Ontology Refinement step includes the domain expert to refine the lightweight Ontologies. We also conducted a case study to generate lightweight ontologies in specific domains(news domain). In this paper, we found two directions including (1) employment co-occurrence theory to generate Syntactic-based Ontology automatically and (2) Alignment large Association words with small Ontology to generate lightweight ontologies semi-automatically. So far as the design and the generation of big Ontology is concerned, the proposed research will offer useful implications to the researchers and practitioners so as to improve the research level to the commercial use.

부분 구문 분석 결과에 기반한 두 단계 부분 의미 분석 시스템 (Two-Phase Shallow Semantic Parsing based on Partial Syntactic Parsing)

  • 박경미;문영성
    • 정보처리학회논문지B
    • /
    • 제17B권1호
    • /
    • pp.85-92
    • /
    • 2010
  • 부분 의미 분석 시스템은 문장의 구성 요소들이 술어와 갖는 관계를 분석하는 것으로 문장에서 술어의 주체, 객체, 도구 등을 나타내는 의미 논항을 확인하게 된다. 본 논문에서 개발한 부분 의미 분석 시스템은 두 단계로 구성되어 있는데, 먼저 부분 구문 분석 결과로부터 의미 논항의 경계를 찾는 의미 논항 확인 단계를 수행하고 다음으로 확인된 의미 논항에 적절한 의미역을 부착하는 의미역 할당 단계를 수행한다. 순차적인 두 단계 방법을 적용하는 것에 의해서, 학습 성능 저하의 주요한 원인인 클래스 분포의 불균형 문제를 완화할 수 있고, 각 단계에 적합한 자질을 선별하여 사용할 수 있다. 본 논문에서는 PropBank 말뭉치에 기반한 CoNLL-2004 shared task의 데이터 집합 및 평가 프로그램을 사용하여 각 단계가 시스템의 전체 성능에 기여하는 정도를 보인다.

구문 다양성 해소를 위한 복합명사구 색인 방법 (A Method Of Compound Noun Phrase Indexing for Resolving Syntactic Diversity)

  • 조민희;정도헌
    • 한국콘텐츠학회논문지
    • /
    • 제11권3호
    • /
    • pp.467-476
    • /
    • 2011
  • 복합명사구는 단일어보다 명확한 의미를 갖기 때문에 의미적 정보처리에서 중요한 요소로 사용된다. 하지만 명사구의 표현형태의 다양성 때문에 같은 의미를 갖고 있다 할지라도 그 동일성을 판단하기 어렵다. 이에 본 연구에서는 이러한 구문 다양성 해소를 위해 복합명사구 색인 방법을 제안한다. 본 연구의 최종목적은 다양한 형태로 표현된 동일한 의미의 명사구를 동일한 형태의 색인어로 표현하는 것이며, 이를 위해 다음과 같은 과정을 따른다. 먼저 복합명사구 인식을 위한 규칙 템플릿을 생성하고, 국내학술논문 집합에 적용하여 복합명사구들을 추출한다. 일반적으로 복합명사구는 특정성이 크다. 이에 이를 고려한 색인어 합성규칙을 제안하고, 추출된 명사구에 적용한다. 본 연구의 성능을 객관적으로 평가하기 위해 HANTEC 2.0 테스트셋을 이용하였으며, 그 결과를 기준모델과 비교하였다. 실험과 비교를 통해 본 논문에서 제안하는 색인방법이 검색 정확률 향상에 긍정적으로 영향을 미치며, 정보검색의 성능을 향상시킬 수 있음을 확인하였다.

구문형태소 단위를 이용한 음성 인식의 후처리 모델 (A Model for Post-processing of Speech Recognition Using Syntactic Unit of Morphemes)

  • 양승원;황이규
    • 한국산업정보학회논문지
    • /
    • 제7권3호
    • /
    • pp.74-80
    • /
    • 2002
  • 한국어 연속 음성 인식결과의 성능향상을 위해서 자연어 처리 기술을 이용한 후처리 기법이 사용된다. 그러나 자연어 처리 기법이 대부분 띄어쓰기가 있는 정형화된 입력 문장에 대한 분석을 수행하여 왔기 때문에 형태소 분석기를 직접 음성인식 결과의 향상에 사용하는 데에는 어려운 점이 많다. 본 논문에서는 띄어쓰기를 고려하지 않는 기능어 기반의 최장일치 형태소 해석 방법인 구문 형태소 단위의 분석을 이용한 음정인식 결과의 향상 모델을 제안한다. 제안된 모델을 통해 연속음성 인식 결과에서 자주 발생하는 용언과 보조 용언 및 의존 명사 사이의 음운들 사이의 구조적 정보를 활용함으로써 음성 인식 결과의 성능을 향상시키는 방법에 대해 기술한다.

  • PDF

Phrase-Chunk Level Hierarchical Attention Networks for Arabic Sentiment Analysis

  • Abdelmawgoud M. Meabed;Sherif Mahdy Abdou;Mervat Hassan Gheith
    • International Journal of Computer Science & Network Security
    • /
    • 제23권9호
    • /
    • pp.120-128
    • /
    • 2023
  • In this work, we have presented ATSA, a hierarchical attention deep learning model for Arabic sentiment analysis. ATSA was proposed by addressing several challenges and limitations that arise when applying the classical models to perform opinion mining in Arabic. Arabic-specific challenges including the morphological complexity and language sparsity were addressed by modeling semantic composition at the Arabic morphological analysis after performing tokenization. ATSA proposed to perform phrase-chunks sentiment embedding to provide a broader set of features that cover syntactic, semantic, and sentiment information. We used phrase structure parser to generate syntactic parse trees that are used as a reference for ATSA. This allowed modeling semantic and sentiment composition following the natural order in which words and phrase-chunks are combined in a sentence. The proposed model was evaluated on three Arabic corpora that correspond to different genres (newswire, online comments, and tweets) and different writing styles (MSA and dialectal Arabic). Experiments showed that each of the proposed contributions in ATSA was able to achieve significant improvement. The combination of all contributions, which makes up for the complete ATSA model, was able to improve the classification accuracy by 3% and 2% on Tweets and Hotel reviews datasets, respectively, compared to the existing models.

Argumentness and Probabilistic Case Structures

  • Yang, Dan-Hee;Lee, Ik-Hwan
    • 한국언어정보학회:학술대회논문집
    • /
    • 한국언어정보학회 2002년도 Language, Information, and Computation Proceedings of The 16th Pacific Asia Conference
    • /
    • pp.447-454
    • /
    • 2002
  • This paper proposes that the argument structures be stated in a way that uses probabilities derived from a corpus to replace a Boolean-value system of subcategorization. To do this, we make a cognitive model from a situation to an utterance to explain the phenomena of arguments'ellipsis, though the traditional term ellipsis is not suitable under our new concepts. We claim that the binary distinction is neither rational nor suitable for a real syntactic analysis. To solve this problem, we propose two new concepts argumentness and probabilistic Case structures by adapting the prototype theory. We believe that these concepts are effective in the syntactic analysis of NLP.

  • PDF

일영 통계기계번역에서 의존문법 문장 구조와 품사 정보를 사용한 클러스터링 기법 (A Clustering Method using Dependency Structure and Part-Of-Speech(POS) for Japanese-English Statistical Machine Translation)

  • 김한경;나휘동;이금희;이종혁
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권12호
    • /
    • pp.993-997
    • /
    • 2009
  • 클러스터링 기법은 다양한 분야에서 이용되어 왔으며, 통계 기반 기계번역에서도 익히 사용된 기법이다. 그러나 기존의 연구에서는 깊이 있는 문법적인 분석 없이 기계학습 기법을 사용하거나, 문장구조의 정보를 사용하더라도 정규식을 이용하여 판별하는 선에서 그치는 경우가 많았다. 본 논문에서는 각 문장의 의존관계 문법에 따른 구조와 조사 등의 품사 정보를 사용하여 문장구조를 파악하고 유형별로 분류하여 각각에 특화된 언어모델을 획득하는 방법과, 이를 구 기반 통계기계번역에 추가적인 정보로 사용하여 번역성능을 향상하는 데 이용하는 방법을 제안한다.