• Title/Summary/Keyword: 가중치 부여

Search Result 1,009, Processing Time 0.028 seconds

A Hyperlink-based Feature Weighting Technique for Web Document Classification (웹문서 자동 분류를 위한 하이퍼링크 기반 특징 가중치 부여 기법)

  • Lee, A-Ram;Kim, Han-Joon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.417-420
    • /
    • 2012
  • 기계학습을 이용하는 문서 자동분류 시스템은 분류모델의 구성을 위해서 단어를 특징으로 사용한다. 자동분류 시스템의 성능을 높이기 위해 보다 의미있는 특징을 선택하여 분류모델을 구성하기 위한 여러 연구가 진행되고 있다. 특히 인터넷상에서 사용되는 웹문서는 단어 외에도 태그정보, 링크정보를 가지고 있다. 본 논문에서는 이 두 가지 정보를 이용하여 웹문서 자동분류 시스템의 성능을 향상 시키는 방법 제안 한다. 태그 정보와 링크 정보를 이용하여 적절한 특징을 선택하고, 각 특징의 중요도를 계산하여 가중치를 구한다. 계산된 가중치를 각 특징에 부여하여 분류 모델을 구성하고 나이브 베이지안 분류기를 통하여 성능을 평가하였다

Weighted Negative Tree Pattern Discovery (가중치 부여 부정 트리 패턴 추출)

  • Paik, Juryon;Kim, Jinyoung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.07a
    • /
    • pp.23-26
    • /
    • 2019
  • 사물인터넷(IoT)은 지금의 우리가 살고 일하는 모든 방식을 변화시키고 있다. IoT를 통해 데이터를 생성하고 저장하고 연결된 장치와 상호작용하여 비즈니스는 물론 우리의 일상 생활을 개선하고 있는 것이다. 무수히 많은 센서들이 연결된 세상은 센서들에 의해 그 어느 때보다 거대한 양의 데이터들을 생산하고 있다. JSON, XML 같은 트리 구조의 데이터 타입은 대량 데이터 저장 전송 교환 등에 주요하게 사용되는데 이는 트리 구조가 이형 데이터 간의 유연한 정보 전송과 교환을 가능하게 하기 때문이다. 반면에, 효용성 높은 정보나 감추어져 있는 정보들을 트리 구조의 대량 데이터들로부터 추출하는 것은 일반 데이터 구조에 비해 훨씬 어려우며 더 난해한 문제들을 발생시킨다. 본 논문에서는 트리 구조의 대량 스트리밍 데이터로부터 가중치가 부여된 주요한 부정 패턴들을 추출하기 위한 방법을 공식화한다.

  • PDF

Automatic Document Classification Based on Word Frequency Weight (단어 빈도 가중치를 이용한 자동 문서 분류)

  • Noh, Hyun-A;Kim, Min-Soo;Kim, Soo-Hyung;Park, Hyuk-Ro
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11a
    • /
    • pp.581-584
    • /
    • 2002
  • 본 논문에서는 범주 내의 키워드 빈도에 의해 문서를 자동으로 분류하는 방법을 제안한다. 문서 자동분류 시스템에서는 문서와 문서를 비교하기 위해서 분류 자질(feature)에 적절한 가중치를 부여할 필요가 있다. 본 논문에서는 수작업으로 분류된 신문기사를 이용하여 자질의 가중치를 학습하는 방법을 사용하였다. 기존의 용어가중치 방법은 각 범주별로 가장 많이 등장한 명사부터 순서대로 추출하여 가중치를 주는 방법을 사용한 것에 비해 본 논문에서는 명사의 출현 횟수뿐만 아니라 출현위치를 함께 고려하여 가중치를 계산하는 방법을 제안한다. 또한 단어 빈도 가중치 방법의 변형된 방식을 사용함으로써 기존의 단어 빈도 가중치 방법과 비교하여 분류 정확도 측면에서 9%이상 성능 향상을 있음을 보인다.

  • PDF

Efficient Term Weighting For Term-based Web Document Search (단어기반 웹 문서 검색을 위한 효과적인 단어 가중치의 계산)

  • 권순만;박병준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.169-171
    • /
    • 2004
  • 웹(WWW)은 방대한 양의 정보들과 함께 그에 따른 웹의 환경과 그에 따른 정보도 증가하게 되었다. 그에 따라 사용자가 찾고자 하는 정보가 잘 표현된 웹 문서를 효과적으로 찾는 것은 중요한 일이 되었다. 단어기반의 검색에서는 사용자가 찾고자 하는 단어가 나타난 문서들을 사용자에게 보여주게 된다. 검색 단어를 가지고 문서에 대한 가중치를 계산하게 되는데, 본 논문에서는 이러한 단어기반의 검색에서 단어에 대한 가중치를 효과적으로 계산하는 방법을 제시한다 기존의 방식은 단어가 나타난 빈도수에 한정되어진 계산을 하게 되는 반면, 수정된 방식은 태그별로 분류를 통한 차별화 된 가중치를 부여하여 계산된다. 기존의 방식과 비교한 결과 본 논문에서 제시한 수정된 방식이 더 높은 정확도를 나타냈다.

  • PDF

A Weight Measurement System for Software Product Quality Evaluation (소프트웨어 제품 품질평가를 위한 가중치 측정 시스템)

  • 구자경;김길조;안유환;안유환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.635-637
    • /
    • 1999
  • 소프트웨어 제품 품질 측정이란 다양한 소프트웨어의 특성들을 통하여 소프트웨어 제품의 품질을 정확하게 측정하는 것이다. 이를 위해서는 소프트웨어의 종류 및 사용환경에 따라 품질 특성들에 대한 다양한 가중치를 부여하여 평가할 필요가 있다. 본 논문에서는 AHP를 사용하여 품질 특성들에 대한 상대 중요도를 제공하여 특성들에 대한 가중치를 반환하는 가중치 측정시스템을 개발하였다. 본 시스템은 ETRI 소프트웨어 품질보증 연구팀에서 개발하고 있는 소프트웨어 제품 품질 측정도구와 연계되어 사용될 수 있으며 다른 분야에서도 독립적으로 활용될 수 있다.

  • PDF

Improvement of Retrieval Performance Using Adaptive Weighting of Key Frame Features (키 프레임 특징들에 적응적 가중치 부여를 이용한 검색 성능 개선)

  • Kim, Kang-Wook
    • Journal of Korea Multimedia Society
    • /
    • v.17 no.1
    • /
    • pp.26-33
    • /
    • 2014
  • Video retrieval and indexing are performed by comparing feature similarities between key frames in shot after detecting a scene change and extracting key frames from the shot. Typical image features such as color, shape, and texture are used in content-based video and image retrieval. Many approaches for integrating these features have been studied. However, the issue of these approaches is how to appropriately assign weighting of key frame features at query time. Therefore, we propose a new video retrieval method using adaptively weighted image features. We performed computer simulations in test databases which consist of various kinds of key frames. The experimental results show that the proposed method has better performance than previous works in respect to several performance evaluations such as precision vs. recall, retrieval efficiency, and ranking measure.

Volume Modeling of Scattered Data based on Weighted Alpha Shapes (가중치 알파 쉐이프를 기반으로 하는 산포된 자료의 볼륨 모델링)

  • Paik Jung-Min;Lee Kun
    • The KIPS Transactions:PartA
    • /
    • v.13A no.3 s.100
    • /
    • pp.267-274
    • /
    • 2006
  • This paper describes a method to achieve different level of detail for the given volumetric data by assigning weight for the given data points. The relation between wavelet transformation and alpha shape was investigated to define the different level of resolution. Scattered data are defined as a collection of data that have little specified connectivity between data points. The quality of interpolant in volumetric trivariate space depends not only on the distribution of the data points in ${\Re}^3$, but also on the data value (intensity). We can improve the quality of an approximation by using wavelet coefficient as weight for the corresponding data points.

A Study on Survey and Applicability of Evaluation and Selection Models for Software Products (소프트웨어 제품을 위한 평가 선정 모형의 조사 및 적용성에 관한 연구)

  • Park, Ho-In;Jung, Ho-Won
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.7
    • /
    • pp.1706-1718
    • /
    • 1997
  • The rapid increase in the use of many commercial software products has necessitated a systematic and objective method of their evaluation and selection. Our study focuses on the assignment of weights and choice of proper models. First, the weights of attributes are assigned consistently by using the analytic hierarchy process. Second, many models, which can be suitable for the structure of evaluation and selection for software product, are collected, categorized into two types of model, and compared in terms of their strength and weakness. The models involved are four compensatory models and seven noncompensatory models. Finally, they are analyzed through the application of specific software products(database data modelers) in terms of their attributes. Our study enhances the applicability of models to a variety of user requirement utilizing the evaluating procedure and applications.

  • PDF

Enhancement of Speech/Music Classification for 3GPP2 SMV Codec Employing Discriminative Weight Training (변별적 가중치 학습을 이용한 3GPP2 SVM의 실시간 음성/음악 분류 성능 향상)

  • Kang, Sang-Ick;Chang, Joon-Hyuk;Lee, Seong-Ro
    • The Journal of the Acoustical Society of Korea
    • /
    • v.27 no.6
    • /
    • pp.319-324
    • /
    • 2008
  • In this paper, we propose a novel approach to improve the performance of speech/music classification for the selectable mode vocoder (SMV) of 3GPP2 using the discriminative weight training which is based on the minimum classification error (MCE) algorithm. We first present an effective analysis of the features and the classification method adopted in the conventional SMV. And then proposed the speech/music decision rule is expressed as the geometric mean of optimally weighted features which are selected from the SMV. The performance of the proposed algorithm is evaluated under various conditions and yields better results compared with the conventional scheme of the SMV.

A Study on Quantitative Measurement of Metadata Quality for Journal Articles (학술지 기사에 대한 메타데이터 품질의 계량화 방법에 관한 연구)

  • Lee, Yong-Gu;Kim, Byung-Kyu
    • Journal of the Korean Society for information Management
    • /
    • v.28 no.1
    • /
    • pp.309-326
    • /
    • 2011
  • Most metadata quality measurement employ simple techniques by counting error records. This study presents a new quantitative measurement of metadata quality using advanced weighting schemes in order to overcome the limitations of exiting measurement techniques. Entropy, user tasks, and usage statistics were used to calculate the weights. Integrated weights were presented by combining these weights and were applied to actual journal article metadata. Entropy weights were found to reflect the characteristics of the data itself. User tasks presented the required metadata elements to solve user's information need. Integrated weights showed balanced measures without being affected by the influence of error elements, This finding indicates the new method being suitable for quantitative measurement of metadata quality.