• Title/Summary/Keyword: 어휘정보

Search Result 1,062, Processing Time 0.027 seconds

Related Term Extraction with Proximity Matrix for Query Related Issue Detection using Twitter (트위터를 이용한 질의어 관련 이슈 탐지를 위한 인접도 행렬 기반 연관 어휘 추출)

  • Kim, Je-Sang;Jo, Hyo-Geun;Kim, Dong-Sung;Kim, Byeong Man;Lee, Hyun Ah
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.1
    • /
    • pp.31-36
    • /
    • 2014
  • Social network services(SNS) including Twitter and Facebook are good resources to extract various issues like public interest, trend and topic. This paper proposes a method to extract query-related issues by calculating relatedness between terms in Twitter. As a term that frequently appears near query terms should be semantically related to a query, we calculate term relatedness in retrieved documents by summing proximity that is proportional to term frequency and inversely proportional to distance between words. Then terms, relatedness of which is bigger than threshold, are extracted as query-related issues, and our system shows those issues with a connected network. By analyzing single transitions in a connected network, compound words are easily obtained.

A Study on the Sentence Generation using Lexical Information (어휘정보를 이용한 문장작성에 관한 연구)

  • 황인정;민홍기
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.5 no.3
    • /
    • pp.198-204
    • /
    • 2004
  • This study suggests a sentence generating method to help those who have language impediment with their communication. The method suggested in this study was constructed into a system in order to be applied to AAC system. AAC system is a personal portable device that generates sentences. Those who have language impediment need another communication method, causes inconvenience when used in a conversation with those who don't have the same trouble. The method of inputting both consonants and vowels can be inconvenient and time consuming for a conversational communication because of the number of the key strokes. The lexical information for the sentence generating of this study defines the user's domain, collects the adequate words and sentences, and extracts and classifies the characteristics of the collected words. The comparison between the number of key strokes for sentence generating using the system and that of inputting consonants and vowels using a keyboard was made in order to evaluate the usefulness the sentence generating method.

  • PDF

A Study on Music Contents Recommendation Service using Emotional Words (감성어휘를 이용한 음악콘텐츠 추천 서비스의 연구)

  • Jang, Eun-Ji
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2008.05a
    • /
    • pp.43-48
    • /
    • 2008
  • And this study intends to discuss especially the one using emotional filter among various information processing methods. The existing music recommendation service on the web has a weak point that it makes the user feel bored by recommending songs only with similar feeling of the same genre, because music is classified by tune, melody, atmosphere and genre before recommendation. The service using emotion filter, suggested in this study, recommends the song and lyrics appropriate to the current emotional state of the user by abstracting emotional words that could reflect the sensitivity of human and then search the words within lyrics to match in order to overcome the weak point of the existing service. This study starts where the current emotional status for the user is being input. As for the range to choose, there are the seven representatives of emotion which are, love, separation, joy, sorrow-gloom, happiness-lonesome, and anger. As the service receives input of user's emotion, it matches the emotional words appropriate for the emotion input with the lyrics, and ranks the lyrics in the order of priority, so that it recommends the song and it lyrics to the user.

  • PDF

Learning Rules for Identifying Hypernyms in Machine Readable Dictionaries (기계가독형사전에서 상위어 판별을 위한 규칙 학습)

  • Choi Seon-Hwa;Park Hyuk-Ro
    • The KIPS Transactions:PartB
    • /
    • v.13B no.2 s.105
    • /
    • pp.171-178
    • /
    • 2006
  • Most approaches for extracting hypernyms of a noun from its definitions in an MRD rely on lexical patterns compiled by human experts. Not only these approaches require high cost for compiling lexical patterns but also it is very difficult for human experts to compile a set of lexical patterns with a broad-coverage because in natural languages there are various expressions which represent same concept. To alleviate these problems, this paper proposes a new method for extracting hypernyms of a noun from its definitions in an MRD. In proposed approach, we use only syntactic (part-of-speech) patterns instead of lexical patterns in identifying hypernyms to reduce the number of patterns with keeping their coverage broad. Our experiment has shown that the classification accuracy of the proposed method is 92.37% which is significantly much better than that of previous approaches.

Dependency relation analysis and mutual information technique for ASR rescoring (음성인식 리스코링을 위한 의존관계분석과 상호정보량 접근방법의 비교)

  • Chung, Euisok;Jeon, Hyung-Bae;Park, Jeon-Gue
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.164-166
    • /
    • 2014
  • 음성인식 결과는 다수의 후보를 생성할 수 있다. 해당 후보들은 각각 음향모델 값과 언어모델 값을 결합한 형태의 통합 정보를 갖고 있다. 여기서 언어모델 값을 다시 계산하여 성능을 향상하는 접근 방법이 일반적인 음성인식 성능개선 방법 중 하나이며 n-gram 기반 리스코링 접근 방법이 사용되어 왔다. 본 논문은 적절한 성능 개선을 위하여, 대용량 n-gram 모델의 활용 문제점을 고려한 문장 구성 어휘의 의존 관계 분석 접근 방법 및 일정 거리 어휘쌍들의 상호정보량 값을 이용한 접근 방법을 검토한다.

  • PDF

Term Clustering based on Causal Context Information (인과관계 문맥정보를 사용한 용어 군집화 연구)

  • Chang, Du-Seong;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2004.10d
    • /
    • pp.25-31
    • /
    • 2004
  • 단서구문 및 어휘 쌍 확률 등을 이용하면 일정한 영역의 문서에서 사용된 용어의 원인이 되거나 결과를 나타나는 관련어들을 찾을 수 있다. 본 논문에서는 이러한 각 용어의 선행 원인과 후행 결과를 인과관계 정보라고 정의한다. 인과관계 정보가 유사한 용어들은 서로 유사한 개념에 속한다고 가정한다면, 용어의 직/간접적 인과관계로서 용어 온톨로지에서 그 용어가 속할 집합을 결정하는데 도움을 줄 수 있다. 본 논문에서는 각 용어의 인과관계가 용어 군집화를 위한 유용한 문맥 정보의 하나라는 것을 실험을 통해 증명하였다. 속성으로 사용된 인과관계는 대용량의 코퍼스로부터 비지도식 학습방법을 통해 자동 습득하였으며, 그 정확도는 74.84%를 보였다. 1659개 용어에 대한 군집화 실험 결과 70.02%의 정확도를 보였으며, 어휘 유사도만을 사용한 경우에 비해 32.9%의 적용도 향상을 보였다.

  • PDF

한국어 전자사전 원형의 설계 및 구현 (하이퍼텍스트 기법 사용)

  • Yang, Dan-Hui;Choe, Yun-Cheol;Song, Man-Seok
    • Annual Conference on Human and Language Technology
    • /
    • 1990.11a
    • /
    • pp.3-10
    • /
    • 1990
  • 언어 정보 처리가 정보과학의 가장 중요한 분야의 하나로 부상하면서 언어 정보 가치가 높은 실용성있는 우리말 사전의 필요성이 더욱 더 절실해지고 있으며, 또 우리 언어사회에 외래어가 지나치게 범람함으로써 고유 언어 문화를 위협할 정도가 되어 외래 신생어에 대한 대책이 긴요하다 하겠다. 그러므로 본 논문은 최신 전산 기술을 이용하여 우리말 어휘 뭉치를 대량 정보 처리함으로써 우리말 언어 세계를 신속하고 정확하게 반영하며, 실용성있고 사용하기 편리하며, 우리말 어휘 확장에 보조 역할을 해줄 하이퍼텍스트화된 우리말 전자사전을 제안하며 그 원형을 설계 및 구현하였다.

  • PDF

Construction of Korean Linguistic Information for the Korean Generation on KANT (Kant 시스템에서의 한국어 생성을 위한 언어 정보의 구축)

  • Yoon, Deok-Ho
    • The Transactions of the Korea Information Processing Society
    • /
    • v.6 no.12
    • /
    • pp.3539-3547
    • /
    • 1999
  • Korean linguistic information for the generation modulo of KANT(Knowledge-based Accurate Natural language Translation) system was constructed. As KANT has a language-independent generation engine, the construction of Korean linguistic information means the development of the Korean generation module. Constructed information includes concept-based mapping rules, category-based mapping rules, syntactic lexicon, template rules, grammar rules based on the unification grammar, lexical rules and rewriting rules for Korean. With these information in sentences were successfully and completely generated from the interlingua functional structures among the 118 test set prepared by the developers of KANT system.

  • PDF

A Statistical Model for Korean Text Segmentation Using Syllable-Level Bigrams (음절단위 bigram정보를 이용한 한국어 단어인식모델)

  • Shin, Joong-Ho;Park, Hyuk-Ro
    • Annual Conference on Human and Language Technology
    • /
    • 1997.10a
    • /
    • pp.255-260
    • /
    • 1997
  • 일반적으로 한국어는 띄어쓰기 단위인 어절이 형태소 분석의 입력 단위로 쓰이고 있다. 그러나 실제 영역(real domain)에서 사용되는 텍스트에서는 띄어쓰기 오류와 같은 비문법적인 형태도 빈번히 쓰이고 있다. 따라서 형태소 분석 과정에 선행하여 적합한 형태소 분석의 단위를 인식하는 과정이 이루어져야 한다. 본 연구에서는 한국어의 음절 특성을 이용한 형태소분석을 위한 어절 인식 방법을 제안한다. 제안하는 방법은 사전에 기반하지 않고 원형코퍼스(raw corpus)로부터의 필요한 음절 정보 및 어휘정보를 추출하는 방법을 취하므로 오류가 포함된 문장에 대하여 견고한 분석이 가능하고 많은 시간과 노력이 요구되는 사전구축 및 관리 작업을 필요로 하지 않는다는 장점이 있다. 한국어 어절 인식을 위하여 본 논문에서는 세가지 확률 모텔과 동적 프로그래밍에 기반한 인식 알고리즘을 제안한다. 제안하는 모델들을 띄어쓰기 오류문제와 한국어 복합명사 분석 문제에 적용하여 실험한 결과 82-85%정도의 인식 정확도를 보였다.

  • PDF

Probabilistic Parsing of Korean Sentences Based on Lexical Co-occurrence and Syntactic Rules (중심어간의 공기 정보와 구문 규칙을 기반으로 한 확률적 한국어 구문 분석)

  • Lee, Kong-Joo;Kim, Jae-Hoon;Kim, Gil-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 1997.10a
    • /
    • pp.332-338
    • /
    • 1997
  • 어휘 정보는 구문 구조의 중의성을 해결하는데 중요한 정보원으로서 작용할 수 있다. 본 논문에서는 입력 문장에 대한 구조적 중의성을 해결하는데 확률 구문 규칙뿐만 아니라, 어휘간에 발생할 수 있는 공기 정보를 사용할 수 있는 확률 모델을 제안한다. 제안된 확률 모델에 대하여 실험 데이타에 대해 평가한 결과 약 84%정도의 구문 분석 정확도를 얻을 수 있었다.

  • PDF