• Title/Summary/Keyword: 의미정보 부착

Search Result 108, Processing Time 0.023 seconds

The Design of Mobile Recommender System Based on Context-Awareness (컨텍스트 인식 기반의 모바일 상품 추천 시스템 설계)

  • Chun, In-Gook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04b
    • /
    • pp.1535-1538
    • /
    • 2002
  • 본 논문에서는 컨텍스트 인식의 모바일 추천 시스템의 설계를 다룬다. 컨텍스트란 컴퓨터의 위치, 시각, 온도 등을 의미하며 컨텍스트 인식 컴퓨팅이란 이러한 정보들을 이용하는 컴퓨팅을 의미한다. 본 논문에서는 핸드폰이나 PDA와 같은 이동단말기에 GIS 센서가 부착되어 있다고 가정하고 이들 단말기를 통하여 위치정보를 수집한 후에 이를 이용하여 백화점과 같은 매장에서 고객에게 상품을 추천하여 주는 시스템을 설계하였다. 이동 단말기는 일정한 시간간격으로 자신의 위치를 서버로 전송하고 전송된 데이터는 데이터베이스에 저장된다. 저장된 데이터는 간단한 데이터 분석 알고리즘 통해서 단말기 사용자의 구매경향과 흥미도를 예측하여 이를 상품 추천 서버에 제공하고 상품 추천 서버는 이들을 바탕으로 사용자에게 최적의 상품을 추천하게 된다.

  • PDF

A Korean Homonym Disambiguation Model Based on Statistics Using Weights (가중치를 이용한 통계 기반 한국어 동형이의어 분별 모델)

  • 김준수;최호섭;옥철영
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.11
    • /
    • pp.1112-1123
    • /
    • 2003
  • WSD(word sense disambiguation) is one of the most difficult problems in Korean information processing. The Bayesian model that used semantic information, extracted from definition corpus(1 million POS-tagged eojeol, Korean dictionary definitions), resulted in accuracy of 72.08% (nouns 78.12%, verbs 62.45%). This paper proposes the statistical WSD model using NPH(New Prior Probability of Homonym sense) and distance weights. We select 46 homonyms(30 nouns, 16 verbs) occurred high frequency in definition corpus, and then we experiment the model on 47,977 contexts from ‘21C Sejong Corpus’(3.5 million POS-tagged eojeol). The WSD model using NPH improves on accuracy to average 1.70% and the one using NPH and distance weights improves to 2.01%.

KACTEIL-NER: Named Entity Recognizer Using Deep Learning and Ensemble Technique (KACTEIL-NER: 딥러닝과 앙상블 기법을 이용한 개체명 인식기)

  • Park, Geonwoo;Park, Seongsik;Jang, Yoengjin;Choi, Kihyoen;Kim, Harksoo
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.324-326
    • /
    • 2017
  • 개체명 인식은 입력 문장에서 인명, 지명, 기관명, 날짜, 시간 등과 같은 고유한 의미를 갖는 단어 열을 찾아 범주를 부착하는 기술이다. 기존의 연구에서는 단어 단위나 음절 단위를 입력으로 사용하였다. 하지만 단어 단위의 경우 미등록어 처리가 어려우며 음절 단위의 경우 단어 고유의 의미가 희석되는 문제가 발생한다. 이러한 문제들을 해결하기 위해 본 논문에서는 형태소 단위 개체명 인식기와 음절 단위 개체명 인식기를 앙상블하여 보정된 결과를 예측하는 개체명 인식기를 제안한다. 제안된 모델은 각각의 단일 입력 모델보다 향상된 F1-점수(0.8049)를 보였다.

  • PDF

A Study on The Connected Car's Sensor Technology and Vehicle Network (커넥티드 카의 센서기술과 차량 네트워크의 연구)

  • Kwon, Byung Wook;Park, Jong Hyuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.358-361
    • /
    • 2017
  • 사물인터넷은 각종 사물에 센서와 통신 기능을 가능한 매개체를 부착하여 실시간으로 데이터를 인터넷으로 주고받는 환경이나 기술을 의미한다. 인터넷으로 연결된 사물들이 데이터를 주고받아 스스로 분석하고 학습한 정보를 사용자에게 제공하거나 사용자가 이를 원격 조정할 수 있는 기술융합의 한 패러다임이다. 오늘날의 자동차 업계에서도 이를 적용하기위한 연구가 활발히 진행되고 있다. 이러한 네트워크 기술들이 융합 및 적용될 자동차를 커넥티드 카(Connected Car)라 하고, 커넥티드 카란 즉 인터넷과 모바일 기기, 그리고 나아가 운전자와 연결된 자동차를 의미 한다. 본 논문에서는 커넥티드 카의 개념과 주요 센서 기술 등을 설명하고 차후 발전 가능성이 높은 차량 네트워크 기술들에 대해 서술한다.

A Domain-Dependent Question-Answering System (이벤트 탐색을 사용하는 일정 영역 질의 응답 시스템의 구현)

  • Chang, Du-Seong;Oh, Jong-Hun;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2001.10d
    • /
    • pp.414-421
    • /
    • 2001
  • 본 논문에서는 한정된 영역을 대상으로 하는 질의응답 시스템에서 사용자의 질의를 해석하고 적당한 대답을 생성하기 위해 백과사전이나 일반사전 등과 같은 지식원에서 추출된 구조화된 지식을 사용하는 과정을 기술한다. 질의응답을 위하여 지식원은 그 단락의 의미에 따라 구조화되고 각 단락은 논리형식으로 변환되었으며, 논리형식 내 각 개체들은 사전 정의문에 따라 확장되었다. 이 구조화된 지식은 입력된 자연언어 질의문에서 질의의 의도를 추출하고, 질의에 포함되어 있는 지식에 의미속성을 부착하기 위해 사용된다. 지식원의 논리형식 변환을 위해 한국어의 논리형식이 도입되었으며, 사용된 지식원은 우리말 큰사전과 계몽백과사전의 30여개 질병정의문이다.

  • PDF

Ontology-based Metadata Automated Generation for Personal Media (온톨로지 기반 개인 미디어 메타데이터 자동 생성)

  • Choi, Jung-Hwa;Seo, Hee-Cheol;Park, Young-Tack
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.340-345
    • /
    • 2006
  • 개인 디지털 콘텐츠 증가에 따른 개인 미디어의 관리를 위해 대량의 메타데이터를 자동으로 생성하는 연구가 반드시 필요하다. 본 논문에서는 온톨로지 기반의 추론을 이용하여 개인 미디어 메타데이터를 자동으로 생성하는 방법을 제안한다. 제안한 방법은 부족한 정보로부터 적합한 의미를 추출하여 메타데이터를 자동 생성하므로 콘텐츠관리의 어려운 문제점을 해결한다. 본 논문에서 제안하는 방법을 사용자가 메모를 부착하기만 하면, 온톨로지 기반 추론을 통해 메타데이터를 자동 생성하는 방법으로 다음과 같은 세가지 기술과 특징을 갖는다. 첫째, 개인 미디어 온톨로지를 정의한다. 둘째, 미디어 메타데이터 표준을 정의한다. 미디어의 종류가 다르더라도 정의한 표준의 키워드만 추출할 수 있다면 미디어의 통합관리가 가능하다. 셋째, 메타데이터 자동 생성 기술을 연구한다. 단순히 온톨로지에 정의된 키워드의 의미만을 보지 않고, 온톨로지 기반의 추론엔진을 이용하여 사용자를 중심으로 관련 키워드의 관계를 고려한 메타데이터 생성의 정확성을 높인다. 이러한 기술을 기반으로 시맨틱 검색도 가능하며, 기존의 메타데이터 저작도구와 비교하여 보다 정확한 메타데이터 자동생성과 검색이 가능하다.

  • PDF

Homonym Disambiguation based on Mutual Information and Sense-Tagged Compound Noun Dictionary (상호정보량과 복합명사 의미사전에 기반한 동음이의어 중의성 해소)

  • Heo, Jeong;Seo, Hee-Cheol;Jang, Myung-Gil
    • Journal of KIISE:Software and Applications
    • /
    • v.33 no.12
    • /
    • pp.1073-1089
    • /
    • 2006
  • The goal of Natural Language Processing(NLP) is to make a computer understand a natural language and to deliver the meanings of natural language to humans. Word sense Disambiguation(WSD is a very important technology to achieve the goal of NLP. In this paper, we describe a technology for automatic homonyms disambiguation using both Mutual Information(MI) and a Sense-Tagged Compound Noun Dictionary. Previous research work using word definitions in dictionary suffered from the problem of data sparseness because of the use of exact word matching. Our work overcomes this problem by using MI which is an association measure between words. To reflect language features, the rate of word-pairs with MI values, sense frequency and site of word definitions are used as weights in our system. We constructed a Sense-Tagged Compound Noun Dictionary for high frequency compound nouns and used it to resolve homonym sense disambiguation. Experimental data for testing and evaluating our system is constructed from QA(Question Answering) test data which consisted of about 200 query sentences and answer paragraphs. We performed 4 types of experiments. In case of being used only MI, the result of experiment showed a precision of 65.06%. When we used the weighted values, we achieved a precision of 85.35% and when we used the Sense-Tagged Compound Noun Dictionary, we achieved a precision of 88.82%, respectively.

Two-Phase Shallow Semantic Parsing based on Partial Syntactic Parsing (부분 구문 분석 결과에 기반한 두 단계 부분 의미 분석 시스템)

  • Park, Kyung-Mi;Mun, Young-Song
    • The KIPS Transactions:PartB
    • /
    • v.17B no.1
    • /
    • pp.85-92
    • /
    • 2010
  • A shallow semantic parsing system analyzes the relationship that a syntactic constituent of the sentence has with a predicate. It identifies semantic arguments representing agent, patient, instrument, etc. of the predicate. In this study, we propose a two-phase shallow semantic parsing model which consists of the identification phase and the classification phase. We first find the boundary of semantic arguments from partial syntactic parsing results, and then assign appropriate semantic roles to the identified semantic arguments. By taking the sequential two-phase approach, we can alleviate the unbalanced class distribution problem, and select the features appropriate for each task. Experiments show the relative contribution of each phase on the test data.

Probabilistic Dependency Grammar Induction (한국어 확률 의존문법 학습)

  • 최선화;박혁로
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.513-515
    • /
    • 2003
  • 본 논문에서는 코퍼스를 이용한 확률 의존문법 자동 생성 기술을 다룬다. 의존문법 생성을 위해 구성성분의 기능어들 간의 의존관계를 학습했던 기존 연구와는 달리. 한국어 구성성분은 내용어와 기능어의 결함 형태로 구성되고 임의 구성성룬 기능어와 임의 구성성분 내용어간의 의존관계가 의미가 있다는 사실을 반영한 의존문법 학습방법을 제안한다. KAIST의 트리 부착 코퍼스 31,086문장에서 추출한 30,600문장의 Tagged Corpus을 가지고 학습한 결과 초기문법을 64%까지 줄인 1.101 개의 의존문법을 획득했고. 실험문장 486문장을 Parsing한 결과 73.81%의 Parsing 정확도를 보였다.

  • PDF

Improving Part-of-speech Tagging by using Resolution Information for Individual Ambiguous Word (어절별 중의성 해소 정보를 이용한 품사 태깅의 성능 향상)

  • Park, Hee-Geun;Seo, Young-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2007.10a
    • /
    • pp.134-139
    • /
    • 2007
  • 품사 태깅 시스템에서 규칙 정보와 통계 정보는 상호보완적으로 사용되어 품사 태깅의 성능을 향상시킨다. 하지만, 두 가지 정보로는 품사 태깅의 성능을 향상시키기에는 한계가 있다. 이에 본 논문에서는 어절별 중의성 해소 정보를 이용하여 품사 태깅 시스템의 정확률을 향상시키는 방법에 대해서 기술한다. 통계 정보는 21세기 세종계획의 천만 어절 균형 말뭉치와 태그 부착 말뭉치에서 추출한 trigram 형태의 중의성 어절 및 품사 태그열 출현 빈도 정보를 이용하여 구축하였고, 규칙 정보는 보조용언, 숙어, 관용적 표현 등을 이용하여 구축하였다. 어절별 중의성 해소 정보는 세종 천만 어절 균형 말뭉치의 중의성 어절에서 고빈도 상위 50%에 해당하는 어절을 대상으로 해당 어절의 의미정보와 문맥정보를 고려하여 구축되었고, 이것은 통계 정보를 이용한 품사 태깅 전에 적용되어 분석 후보를 줄여준다. 또한, 학습을 통하여 어절별 중의성 해소 정보를 수정 및 보강하여 잘못된 품사 태깅 결과를 보정해준다. 이와 같이 통계 정보와 규칙 정보를 이용한 품사 태깅 시스템에 고빈도 중의성 어절에 대한 어절별 중의성 해소 정보를 이용함으로써 품사 태깅의 성능을 향상시킬 수 있었다.

  • PDF