• Title/Summary/Keyword: 기본어휘

Search Result 135, Processing Time 0.028 seconds

A Study on the Development of Abridged KDC for Elementary School Libraries (초등학교도서관을 위한 KDC 간략판 개발에 관한 연구)

  • Kim, Jeong-Hyen
    • Proceedings of the Korean Society for Information Management Conference
    • /
    • 2005.08a
    • /
    • pp.87-96
    • /
    • 2005
  • 초등학생관련 자료의 유별 현황 및 어휘분석을 바탕으로 초등학교도서관을 위한 KDC 간략판을 개발하고자 시도되었다. 즉, 분류표의 수정 전개 범위는 최대한 KDC 4판의 기본 틀인 유, 강, 목을 그대로 유지하면서 자료의 유별 분포도를 분석하여 분류항목을 세분하였으며, 초등학생의 특성을 반영하기 위한 구체적인 방법으로 KDC 분류명사를 추출하여 초등학생을 대상으로 설문조사한 결과 및 초등학생관련 자료의 실증적인 어휘분석을 종합하여 분류항목의 수정전개에 반영하였다. 이 연구에서는 초등학교도서관을 대상으로 하였지만 중등학교도서관에 대해서도 이와 같은 실증적인 유별 현황 및 어휘분석 방법을 적용하여 주기적으로 분류표의 개정 작업에 반영한다면 KDC가 학교도서관을 위해 보다 실공적인 분류표가 될 것이다.

  • PDF

Measuring meaning of korean adjectives and colors (감성 측정을 위한 우리말 형용사의 의미구조)

  • 박미자;신수길;한광희;황상민
    • Science of Emotion and Sensibility
    • /
    • v.1 no.2
    • /
    • pp.1-11
    • /
    • 1998
  • 최근 감성연구의 한 측정 방법으로 의미변별 기법을 이용해 형용사를 제시하는 연구가 증가하고 있다. 본 연구는 의미변별 기법을 사용하는 감성 연구의 기초적인 연구로서 우리말 형용사의 전체적인 의미구조를 분석해 보았다. 우리말 형용사의 의미구조는 기존의 다른 언어권에서 얻은 연구결과와 거의 일치하는 것으로 나타났다. 전체 형용사의 의미구조는 다섯 요인으로 나타났으나, 기존 연구들과 마찬가지로 세 요인이 주요 요인으로 작용했다. 한편, 이러한 의미구조가 색채라는 특정 자극과 관련해서 나타나는 의미구조를 파악하기 위해 NCS단색과 형용사 쌍을 사용하여 측정하였다. 색채 이미지와 관련된 형용사의 의미구조도 세부적인 차이는 있으나, 첫 연구에서 발견된 결과와 크게 다르지 않았다. 감성의 표현수단으로서 어휘를 고려할 때, 이 결과는 사용하는 어휘가 다를지라도 기저에 있는 의미구조는 문화에 상관없이 보편적이라는 것을 제시한다. 다시 말해 어휘로 표현되는 감성의 기본구조가 공통적일 수 있음을 제시한다.

  • PDF

Encoding of Morphological Analysis Result and Eojeol Dictionary Construction (형태소 분석 결과의 인코딩 기법과 어절 사전 구축)

  • Kang, Seung-Shik
    • Annual Conference on Human and Language Technology
    • /
    • 2004.10d
    • /
    • pp.112-117
    • /
    • 2004
  • 형태소 분석에서 사용되는 사전은 형태소와 품사 정보를 수록하고 있다. 단어가 한 개의 형태소로 구성되는 굴절어는 대부분의 단어가 어휘형태소의 기본형과 일치되기 때문에 형태소 분석 알고리즘은 사전 탐색과 형태론적 변형을 통해 입력 단어와 어휘형태소를 일치시키는 과정으로 기술된다. 이에 비해, 교착어는 입력 어절이 형태소 사전의 어휘형태소와 일치하지 않기 때문에 어절 자체가 형태소 사전에 포함되지 않아서 굴절어에 비해 상대적으로 형태소 분석 알고리즘의 복잡도가 높고 분석 시간이 오래 걸리는 단점이 있다. 본 논문에서는 고빈도 어절에 대한 기분석 어절 사전을 구축하여 형태소 분석 속도를 개선하고, 사용자가 어절 사전에 새로운 어절을 추가하거나 어절 사전에 수록된 분석 결과를 수정할 수 있는 어절 사전에 의한 형태소 분석 방법을 제안한다. 구체적인 방법론으로써 형태소 분석 결과를 저장하는 기분석 어절 사전의 크기를 최소화하기 위해 분석 결과를 생성하는데 필요한 최소한의 정보만을 인코딩하는 방법을 사용한다.

  • PDF

Implementation of Vocabulary-Independent Keyword Spotting System (가변어휘 핵심어 검출 시스템의 구현)

  • Shin Young Wook;Song Myung Gyu;Kim Hyung Soon
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.167-170
    • /
    • 2000
  • 본 논문에서는 triphone을 기본단위로 하는 HMM에 의해 핵심어 모델을 구성하고, 사용자가 임의로 핵심어를 추가 및 변경할 수 있도록 가변어휘 핵심어 검출기를 구현하였다. 비핵심어 모델링 방법으로 monophone clustering을 사용한 방법 및 GMM을 사용한 방법의 성능을 비교하였다. 또한 후처리 과정에서 가변어휘 인식구조에 적합한 anti-subword 모델을 사용하였으며 몇 가지 구현방식에 따른 후처리 성능을 검토하였다. 실험결과 비핵심어 모델로 monophone을 clustering하여 사용한 방법보다 GMM을 사용한 경우 약간의 인식성능 개선을 얻을 수 있었으며, 후처리 과정에서 Kullback distance를 이용한 anti-subword 모델링 방식이 다른 방식에 비해 우수한 결과를 나타냈다.

  • PDF

일상어휘를 기반으로 한 선물 가격 예측모형의 개발

  • 김광용;이승용
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 1999.03a
    • /
    • pp.291-300
    • /
    • 1999
  • 본 논문은 인공신경망과 귀납적 학습방법 등의 인공지능 방법과 선물가격결정에 대한 기존 재무이론을 사용하여 일상어휘로 표현되는 파생상품 가격예측 모형을 개발하는데 있다. 모형의 개발은 1단계로 인공신경망이나 기존의 선물가격결정이론(평균보유비용모형이나 일반균형모형)을 이용하여 선물 가격을 예측한 후, 서로 비교분석하여 인공신경망 모형의 우수성을 확인하였다. 귀납적 학습방법중 CART 알고리듬을 사용하여 If-Then 규칙을 생성하였다. 특히 실용적 측면에서 선물가격의 일상어휘화를 통한 모형개발을 여러 가지 방법으로 시도하였다. 이러한 선물가격 예측모형의 유용성은 일단 If-Then 규칙으로 표현되어 전문가의 판단에 확실한 이론적인 근거를 제시할 수 있는 장점이 있으며, 특히 의사결정지원시스템으로 활용화 될 경우 매우 유용한 근거자료로 활용될 수 있다. 이러한 선물가격 예측모형은 정확성은 분석표본과 검증표본으로 나누어 검증표본에서 세가지 기본모형(평균보유비용모형, 일반균형모형, 인공신경망 모형)과 각 모형의 귀납적 학습방법 모형의 다른 3가지 어휘표현방법 3가지를 모형별로 비교 분석하였다. 분석결과 인공신경망모형은 상당한 예측력을 갖고 있는 것으로 판명되었으며, 특히 CART를 기반으로 한 일상어휘 기반의 선물가격예측 모형은 예측력이 높은 것으로 나타났다.

  • PDF

A Study on the Automatic Descriptor Assignment for Scientific Journal Articles Using Rocchio Algorithm (로치오 알고리즘을 이용한 학술지 논문의 디스크 립터 자동부여에 관한 연구)

  • Kim, Pan-Jun
    • Journal of the Korean Society for information Management
    • /
    • v.23 no.3 s.61
    • /
    • pp.69-89
    • /
    • 2006
  • Several performance factors which have applied to the automatic indexing with controlled vocabulary and text categorization based on Rocchio algorithm were examined, and the simple method for performance improvement of them were tried. Also, results of the methods using Rocchio algorithm were compared with those of other learning based methods on the same conditions. As a result, keeping with the strong points which are implementational easiness and computational efficiency, the methods based Rocchio algorithms showed equivalent or better results than other learning based methods(SVM, VPT, NB). Especially, for the semi-automatic indexing(computer-aided indexing), the methods using Rocchio algorithm with a high recall level could be used preferentially.

A proposal for the classification of Korean taste terms (한국어의 '맛 어휘' 분류 체계)

  • Kim, Hyeong Min
    • 기호학연구
    • /
    • no.56
    • /
    • pp.7-44
    • /
    • 2018
  • The objective of this paper is to propose a classification of Korean taste terms, especially Korean taste adjectives, from the perspective of cognitive science. The classification of Korean taste terms is here grounded in the definition of 'taste sense', 'flavor' and 'taste' which is usually employed in disciplines of cognitive science. There have been a large number of domestic researches in field of taste terms. Accordingly, a lot of research findings on the classification of taste terms have steadily been released showing the differences among researchers. These different classifications are largely based on the fact that researchers have applied their subjective criteria rather than their objective in order to categorize taste terms. According to previous studies, it is well-known that, in everyday usage, the term 'taste' covers a much wider range of qualities than those perceived through the taste receptor cells alone. In addition, we take it for granted that as much as 80~90% of taste comes from olfactory modality. It is also important to note that the texture and temperature of food, the color of food, the sounds of food, and atmospheric cues have an essential effect on taste perception. Many scientists have already pointed out that taste evaluations are influenced by a number of individual and sociocultural factors. Eating and tasting are important parts of our everyday life, so that linguistic approaches to taste perception seem to be of great significance. We can assume that a classification of taste terms from the perspective of cognitive sciences may shed light on the perceptive mechanism through which we perceive taste. It should be noted that this paper is an advanced work prepared for the follow-up study which will try to make a geometric model of word field 'taste terms' existing or probably existing in the mental lexicon of human beings.

A Study on the Automatic Lexical Acquisition for Multi-lingustic Speech Recognition (다국어 음성 인식을 위한 자동 어휘모델의 생성에 대한 연구)

  • 지원우;윤춘덕;김우성;김석동
    • The Journal of the Acoustical Society of Korea
    • /
    • v.22 no.6
    • /
    • pp.434-442
    • /
    • 2003
  • Software internationalization, the process of making software easier to localize for specific languages, has deep implications when applied to speech technology, where the goal of the task lies in the very essence of the particular language. A greatdeal of work and fine-tuning has gone into language processing software based on ASCII or a single language, say English, thus making a port to different languages difficult. The inherent identity of a language manifests itself in its lexicon, where its character set, phoneme set, pronunciation rules are revealed. We propose a decomposition of the lexicon building process, into four discrete and sequential steps. For preprocessing to build a lexical model, we translate from specific language code to unicode. (step 1) Transliterating code points from Unicode. (step 2) Phonetically standardizing rules. (step 3) Implementing grapheme to phoneme rules. (step 4) Implementing phonological processes.

Improvement of Korean Homograph Disambiguation using Korean Lexical Semantic Network (UWordMap) (한국어 어휘의미망(UWordMap)을 이용한 동형이의어 분별 개선)

  • Shin, Joon-Choul;Ock, Cheol-Young
    • Journal of KIISE
    • /
    • v.43 no.1
    • /
    • pp.71-79
    • /
    • 2016
  • Disambiguation of homographs is an important job in Korean semantic processing and has been researched for long time. Recently, machine learning approaches have demonstrated good results in accuracy and speed. Other knowledge-based approaches are being researched for untrained words. This paper proposes a hybrid method based on the machine learning approach that uses a lexical semantic network. The use of a hybrid approach creates an additional corpus from subcategorization information and trains this additional corpus. A homograph tagging phase uses the hypernym of the homograph and an additional corpus. Experimentation with the Sejong Corpus and UWordMap demonstrates the hybrid method is to be effective with an increase in accuracy from 96.51% to 96.52%.

Linguistic Features Discrimination for Social Issue Risk Classification (사회적 이슈 리스크 유형 분류를 위한 어휘 자질 선별)

  • Oh, Hyo-Jung;Yun, Bo-Hyun;Kim, Chan-Young
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.5 no.11
    • /
    • pp.541-548
    • /
    • 2016
  • The use of social media is already essential as a source of information for listening user's various opinions and monitoring. We define social 'risks' that issues effect negative influences for public opinion in social media. This paper aims to discriminate various linguistic features and reveal their effects for building an automatic classification model of social risks. Expecially we adopt a word embedding technique for representation of linguistic clues in risk sentences. As a preliminary experiment to analyze characteristics of individual features, we revise errors in automatic linguistic analysis. At the result, the most important feature is NE (Named Entity) information and the best condition is when combine basic linguistic features. word embedding, and word clusters within core predicates. Experimental results under the real situation in social bigdata - including linguistic analysis errors - show 92.08% and 85.84% in precision respectively for frequent risk categories set and full test set.