• 제목/요약/키워드: Linguistic processing

검색결과 171건 처리시간 0.028초

언어 값을 다루기 위한 알고리즘적인 접근법 (Algorithmic approach for handling linguistic values)

  • 최대영
    • 정보처리학회논문지B
    • /
    • 제12B권2호
    • /
    • pp.203-208
    • /
    • 2005
  • 같은 언어 변수에서 정의된 인접 언어 값을 다루기 위한 알고리즘을 제안하였다. 제안된 방법을 사용해서 인접 언어 값에 대한 개인의 주관성의 차이를 명확히 발견할 수 있다. 제안된 방법은 같은 언어 변수에서 정의된 인접 언어 값들 사이의 숨겨진 관계를 발견하기 위한 유용한 도구로 이용될 수 있다. 결과적으로 제안된 방법은 퍼지 전문가시스템, 퍼지 의사결정 트리, 퍼지 인지 지도등과 같은 퍼지 시스템 개발 분야에서 지식 획득의 정확성을 개선하기 위한 기초를 제공해 줄 수 있다. 본 논문에서 제안된 방법을 다수의 전문가들 사이의 집단 언어 평가에 적용하였다.

Scalable Deep Linguistic Processing: Mind the Lexical Gap

  • Baldwin, Timothy
    • 한국언어정보학회:학술대회논문집
    • /
    • 한국언어정보학회 2007년도 정기학술대회
    • /
    • pp.3-12
    • /
    • 2007
  • Coverage has been a constant thorn in the side of deployed deep linguistic processing applications, largely because of the difficulty in constructing, maintaining and domaintuning the complex lexicons that they rely on. This paper reviews various strands of research on deep lexical acquisition (DLA), i.e. the (semi-)automatic creation of linguistically-rich language resources, particularly from the viewpoint of DLA for precision grammars.

  • PDF

Linguistic Processing in Automatic Interpretation System between English-Korean Language Pair

  • Choi, K.S.;Lee, S.M.;Lee, Y.J.
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1994년도 FIFTH WESTERN PACIFIC REGIONAL ACOUSTICS CONFERENCE SEOUL KOREA
    • /
    • pp.1076-1081
    • /
    • 1994
  • This paper presents the linguistic processing for the Automatic Interpretation system between English/Korean language pair. We introduce two machine translation systems, each for English-to-Korean and Korean-to-English, describe the system configuration and several characteristics, and discuss the translation evaluation results.

  • PDF

Kant 시스템에서의 한국어 생성을 위한 언어 정보의 구축 (Construction of Korean Linguistic Information for the Korean Generation on KANT)

  • 윤덕호
    • 한국정보처리학회논문지
    • /
    • 제6권12호
    • /
    • pp.3539-3547
    • /
    • 1999
  • KANT(Knowledge-based Accurate Natural language Translation) 시스템 생성 엔진을 위한 한국어 언어 정보를 구축하였다. KANT 시스템은 언어 중립적인 생성 엔진을 갖고 있기 때문에 한국어 언어 정보의 구축은 사실상 한국어 생성 모듈의 개발을 의미한다. 구축된 언어 정보는 개념별 한국어 대응 규칙, 범주별 한국어 대응 규칙, 한국어 사전 및 템플리트 선언, 한국어 문법 규칙, 한국어 어휘 유형, 한국어 어휘 규칙, 한국어 다시 쓰기 규칙 등으로 구성된다. 구축된 언어 정보를 이용해 KANT 시스템 개발 측이 준비한 118 문장 분량의 중간 언어 표현로부터 106 문장을 올바르며 완전한 한국어 문장으로서 생성하였다.

  • PDF

자유대화의 음향적 특징 및 언어적 특징 기반의 성인과 노인 분류 성능 비교 (Comparison of Classification Performance Between Adult and Elderly Using Acoustic and Linguistic Features from Spontaneous Speech)

  • 한승훈;강병옥;동성희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권8호
    • /
    • pp.365-370
    • /
    • 2023
  • 사람은 노화과정에 따라 발화의 호흡, 조음, 높낮이, 주파수, 언어 표현 능력 등이 변화한다. 본 논문에서는 이러한 변화로부터 발생하는 음향적, 언어적 특징을 기반으로 발화 데이터를 성인과 노인 두 그룹으로 분류하는 성능을 비교하고자 한다. 음향적 특징으로는 발화 음성의 주파수 (frequency), 진폭(amplitude), 스펙트럼(spectrum)과 관련된 특징을 사용하였으며, 언어적 특징으로는 자연어처리 분야에서 우수한 성능을 보이고 있는 한국어 대용량 코퍼스 사전학습 모델인 KoBERT를 통해 발화 전사문의 맥락 정보를 담은 은닉상태 벡터 표현을 추출하여 사용하였다. 본 논문에서는 음향적 특징과 언어적 특징을 기반으로 학습된 각 모델의 분류 성능을 확인하였다. 또한, 다운샘플링을 통해 클래스 불균형 문제를 해소한 뒤 성인과 노인 두 클래스에 대한 각 모델의 F1 점수를 확인하였다. 실험 결과로, 음향적 특징을 사용하였을 때보다 언어적 특징을 사용하였을 때 성인과 노인 분류에서 더 높은 성능을 보이는 것으로 나타났으며, 클래스 비율이 동일하더라도 노인에 대한 분류 성능보다 성인에 대한 분류 성능이 높음을 확인하였다.

XML Toolkit 설계 (Design Specification of an XML Toolkit)

  • 노대식;김현기;윤보현;강현규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2000년도 제13회 춘계학술대회 및 임시총회 학술발표 논문집
    • /
    • pp.480-482
    • /
    • 2000
  • XML은 기존 HTML의 한계를 극복할 수 있는 새로운 기술로 다양한 응용분야에 활용되고 있으며 많은 응용 제품들이 개발되고 있다. XML편집기, XSL편집기, XML브라우져, XML저장 관리기, XML문서 저장 관리기, XML문서 검색기, XML Conversion Tool등의 다양한 XML응용 프로그램에서 사용할 수 있는 표준 라이브러리 API인 DOM(Document Object Model)과 SAX(Simple API for XML)를 지원하며 XML문서의 모든 구성요소에 대한 처리를 할 수 있는 파서가 요구되고 있다. 이에 본 논문에서는 다양한 응용 프로그램의 요구사항을 분석하고 이를 반영하여 처리할 수 있는 XML Toolkit모델을 제시한다. 본 XML Toolkit은 W3C XML 1.0스펙과 W3C Namespaces in XML스펙과 W3C DOM Level 1스펙을 지원하며 XML사용자 그룹에서 정의한 SAX를 지원한다. 또한 표준 API로 접근할 수 없거나 그 기능이 표준에서 정의되지 않은 추가 기능을 제공하기 위한 XML문서의 내부자료구조를 정의하고 이의 처리를 위한 API를 제공한다.

  • PDF

표준화된 매개변수 소속함수에 기반을 둔 언어적 케이스 기반 퍼지 추론 (A Linguistic Case-based Fuzzy Reasoning based on SPMF)

  • 최대영
    • 정보처리학회논문지B
    • /
    • 제17B권2호
    • /
    • pp.163-168
    • /
    • 2010
  • 표준화된 매개변수 소속함수에 기반을 둔 언어적 케이스 기반 퍼지 추론 방법을 제안한다. 제안된 방법은 선형 시간 복잡도를 갖는 퍼지 추론을 위한 효율적인 방법을 제공한다. 결과적으로 제안된 방법은 퍼지 추론의 속도를 개선하는데 사용될 수 있다. 언어적 케이스 기반 퍼지 추론 과정에서 표준화된 매개변수 소속함수에 기반을 둔 언어적 케이스 색인과 검색 방법을 제시한다. 이는 기존의 언어 근사 방법과 비교할 때 상대적으로 빠르게 계산될 수 있다. 공학적인 관점에서 이는 가치 있는 장점이 될 수 있다.

언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축 (Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information)

  • 이준범;김소언;박성배
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권3호
    • /
    • pp.125-132
    • /
    • 2022
  • 문장 압축은 원본 문장의 중요한 의미는 유지하면서 길이가 축소된 압축 문장을 생성하는 자연어처리 태스크이다. 문법적으로 적절한 문장 압축을 위해, 초기 연구들은 사람이 정의한 언어 규칙을 활용하였다. 또한 시퀀스-투-시퀀스 모델이 기계 번역과 같은 다양한 자연어처리 태스크에서 좋은 성능을 보이면서, 이를 문장 압축에 활용하고자 하는 연구들도 존재했다. 하지만 언어 규칙을 활용하는 연구의 경우 모든 언어 규칙을 정의하는 데에 큰 비용이 들고, 시퀀스-투-시퀀스 모델 기반 연구의 경우 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 이를 해결할 수 있는 방법으로 사전 학습된 언어 모델인 BERT를 활용하는 문장 압축 모델인 Deleter가 제안되었다. Deleter는 BERT를 통해 계산된 perplexity를 활용하여 문장을 압축하기 때문에 문장 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않다는 장점이 있다. 하지만 Deleter는 perplexity만을 고려하여 문장을 압축하기 때문에, 문장에 속한 단어들의 언어 정보를 반영하여 문장을 압축하지 못한다. 또한, perplexity 측정을 위한 BERT의 사전 학습에 사용된 데이터가 압축 문장과 거리가 있어, 이를 통해 측정된 perplexity가 잘못된 문장 압축을 유도할 수 있다는 문제점이 있다. 이를 해결하기 위해 본 논문은 언어 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 계산에 반영하는 방법을 제안한다. 또한 고유명사가 자주 포함되어 있으며, 불필요한 수식어가 생략되는 경우가 많은 뉴스 기사 말뭉치로 BERT를 fine-tuning하여 문장 압축에 적절한 perplexity를 측정할 수 있도록 하였다. 영어 및 한국어 데이터에 대한 성능 평가를 위해 본 논문에서 제안하는 LI-Deleter와 비교 모델의 문장 압축 성능을 비교 실험을 진행하였고, 높은 문장 압축 성능을 보임을 확인하였다.

Logic-based Fuzzy Neural Networks based on Fuzzy Granulation

  • Kwak, Keun-Chang;Kim, Dong-Hwa
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1510-1515
    • /
    • 2005
  • This paper is concerned with a Logic-based Fuzzy Neural Networks (LFNN) with the aid of fuzzy granulation. As the underlying design tool guiding the development of the proposed LFNN, we concentrate on the context-based fuzzy clustering which builds information granules in the form of linguistic contexts as well as OR fuzzy neuron which is logic-driven processing unit realizing the composition operations of T-norm and S-norm. The design process comprises several main phases such as (a) defining context fuzzy sets in the output space, (b) completing context-based fuzzy clustering in each context, (c) aggregating OR fuzzy neuron into linguistic models, and (c) optimizing connections linking information granules and fuzzy neurons in the input and output spaces. The experimental examples are tested through two-dimensional nonlinear function. The obtained results reveal that the proposed model yields better performance in comparison with conventional linguistic model and other approaches.

  • PDF