• Title/Summary/Keyword: 속성 가중치

Search Result 228, Processing Time 0.027 seconds

A Case-Specific Feature Weighting Method in Case-Based Reasoning (사례기반 추론에서 사례별 속성 가중치 부여 방법)

  • 이재식;전용준
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 1999.10a
    • /
    • pp.391-398
    • /
    • 1999
  • 사례기반 추론을 포함한 Lazy Learning 방법들은 인공신경망이나 의사결정 나무와 같은 Eager Learning 방법들과 비교하여 여러 가지 상대적인 장점을 가지고 있다. 그러나 Lazy Learning 방법은 역시 상대적인 단점들도 가지고 있다. 첫째로 사례를 저장하기 위하여 많은 공간이 필요하며, 둘째로 문제해결 시점에서 시간이 많이 소요된다. 그러나 보다 심각한 문제점은 사례가 관련성이 낮은 속성들을 많이 가지고 있는 경우에 Lazy Learning 방법은 사례를 비교할 때에 혼란을 겪을 수 있다는 점이며, 이로 인하여 분류 정확도가 크게 저하될 수 있다. 이러한 문제점을 해결하기 위하여 Lazy Learning 방법을 위한 속성 가중치 부여 방법들이 많이 연구되어 왔다. 그러나 기존에 발표된 대부분의 방법들이 속성 가중치의 유효 범위를 전역적으로 하는 것들이었다. 이에 본 연구에서는 새로운 지역적 속성 가중치 부여 방법을 제안한다. 본 연구에서 제안하는 속성 가중치 부여 방법(CBDFW : 사례기반 동적 속성 가중치 부여)은 사례별로 속성 가중치를 다르게 부여하는 방법으로서 사례기반 추론의 원리를 속성 가중치 부여 과정에 적용하는 것이다. CBDFW의 장점으로서 (1) 수행 방법이 간단하며, (2) 논리적인 처리 비용이 기존 방법들에 비해 낮으며, (3) 신축적이라는 점을 들 수 있다. 본 연구에서는 신용 평가 문제에 CBDFW의 적용을 시도하였고, 다른 기법들과 비교에서 비교적 우수한 결과를 얻었다.

  • PDF

Feature Selection Algorithm using Information theory and Neural Networks (정보이론과 신경망의 가중치를 이용한 속성선택)

  • Jo, Jae-Hun;Lee, Dae-Jong;Jeon, Myeong-Geun
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2008.04a
    • /
    • pp.197-198
    • /
    • 2008
  • 본 논문에서는 신경망의 가중치와 정보이론을 이용한 속성선택 기법을 제안하였다. 제안된 방법은 정보이론의 상호정보량을 이용하여 각 속성들의 중요도를 평가한 후 중요도가 높은 속성들만을 선택하여 신경망의 입력으로 사용한다. 신경망의 입력으로 선택된 속성의 가중치에 대한 평가를 통하여 오차에 큰 영향을 미치는 속성들을 순차적으로 제거하여 가장 우수한 속성들을 구한다. 제안된 기법의 성능을 평가하기 위하여 다양한 패턴 분류 문제에 적용하고 그 성능이 우수함을 확인하였다.

  • PDF

An Information-theoretic Approach for Value-Based Weighting in Naive Bayesian Learning (나이브 베이시안 학습에서 정보이론 기반의 속성값 가중치 계산방법)

  • Lee, Chang-Hwan
    • Journal of KIISE:Databases
    • /
    • v.37 no.6
    • /
    • pp.285-291
    • /
    • 2010
  • In this paper, we propose a new paradigm of weighting methods for naive Bayesian learning. We propose more fine-grained weighting methods, called value weighting method, in the context of naive Bayesian learning. While the current weighting methods assign a weight to an attribute, we assign a weight to an attribute value. We develop new methods, using Kullback-Leibler function, for both value weighting and feature weighting in the context of naive Bayesian. The performance of the proposed methods has been compared with the attribute weighting method and general naive bayesian. The proposed method shows better performance in most of the cases.

Supervised Feature Weight Optimization for Data Mining (데이터마이닝에서 교사학습에 의한 속성 가중치 최적화)

  • 강명구;차진호;김명원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.244-246
    • /
    • 2001
  • 최근 군집화와 분류기법이 데이터 마이닝에 중요한 도구로 많은 응용분야에 사용되고 있다. 따라서 이러한 기법을 이용하는데 있어서 각각의 속성의 중요도가 달라 중요하지 않은 속성에 의해 중요한 속성이 왜곡되거나 때로는 마이닝의 결과가 잘못되는 결과를 얻을 수 있으며, 또한 전체 데이터를 사용할 경우 마이닝 과정을 저하시키는 문제로 속성 가중치과 속성선택에 과한 연구가 중요한 연구의 대상이 되고 있다. 최근 연구되고 있는 알고리즘들은 사용자의 의도와는 상관없이 데이터간의 관계에만 의존하여 가중치를 설정하므로 사용자가 마이닝 결과를 쉽게 이해하고 분석할 수 없는 문제점을 안고 있다. 본 논문에서는 클래스 정보가 있는 데이터뿐 아니라 클래스 정보가 없는 데이터를 분석할 경우 사용자의 의도에 따라 학습할 수 있도록 각 가중치를 부여하는 속성가중치 알고리즘을 제안한다. 또한 사용자가 의도한 정보를 이용하여 속성간의 가장 최적화 된 가중치를 찾아주며, Cramer's $V^2$함수를 적합도 함수로 하는 유전자 알고리즘을 사용한다. 알고리즘의 타당성을 검증하기 위해 전자상거래상의 실험 데이터와 몇 가지 벤치마크 데이터를 이용하여 본 논문의 타당성을 보인다.

  • PDF

A Dynamic feature Weighting Method for Case-based Reasoning (사례기반 추론을 위한 동적 속성 가중치 부여 방법)

  • 이재식;전용준
    • Journal of Intelligence and Information Systems
    • /
    • v.7 no.1
    • /
    • pp.47-61
    • /
    • 2001
  • Lazy loaming methods including CBR have relative advantages in comparison with eager loaming methods such as artificial neural networks and decision trees. However, they are very sensitive to irrelevant features. In other words, when there are irrelevant features, larry learning methods have difficulty in comparing cases. Therefore, their performance can be degraded significantly. To overcome this disadvantage, feature weighting methods for lazy loaming methods have been studied. Most of the existing researches, however, were focused on global feature weighting. In this research, we propose a new local feature weighting method, which we shall call CBDFW. CBDFW stores classification performance of randomly generated feature weight vectors. Then, given a new query case, CBDFW retrieves the successful feature weight vectors and designs a feature weight vector fur the query case. In the test on credit evaluation domain, CBDFW showed better classification accuracy when compared to the results of previous researches.

  • PDF

Matching Agent using Automatic Weight-Control (가중치 자동 조절을 이용한 매칭 에이전트)

  • 김동조;박영택
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2000.11a
    • /
    • pp.439-445
    • /
    • 2000
  • 다차원의 속성들을 포함한 대용량의 데이터베이스 또는 점보 저장소의 데이터로부터 지식을 추출하고 이를 활용하기 위해서는 데이터 마이닝의 인공지능 기법 중 기계학습을 활용할 수 있다. 본 논문은 질의어를 바탕으로 각 작성들에 가중치를 적용하여 사용자가 원하는 데이터 집합을 분류하고, 사용자 피드백을 통하여 속성 가중치를 동적으로 변화시킴으로써 검색결과를 향상시키는 방법을 제안한다. 본 논문에서는 데이터 집합을 분류해내기 위해서 각 속성간의 거리에 가중치를 적용하는 k-nearest neighbor 분류법을 사용하였고, 속성 가중치를 동적으로 변화시키는 규칙을 추출하기 위한 방법으로는 결정 트리 생성에 의한 규칙(decision rule) 생성 방법을 적용하였다. 검색결과 향상을 \ulcorner이기 위한 실험으로써 온라인 커플매칭(online couple-matching) 시스템의 핵심부문을 구현하고 이를 적용하였다.

  • PDF

A New Learning Algorithm for Rare Class Classification (희귀 목적값 분류를 위한 학습 알고리즘)

  • Lee, Kwang-Ho;Lee, Chang-Hwan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.11a
    • /
    • pp.39-42
    • /
    • 2006
  • 본 논문에서는 데이터 마이닝에서 발생되는 희귀 데이터를 분석하기 위한 희귀 목적값 분석의 새로운 알고리즘을 제시한다. 이를 위하여 속성들이 가지는 속성의 가중치 값과 속성값이 목적 속성에 미치는 가중치값을 정보이론에 입각하여 가중치 계산을 하고, 계산된 가중치값을 사용하여 스코어링 함으로써 희귀 목적값에 속한 데이터 예측/분류에 사용하는 방법을 제시하였다. 실험을 통해 본 알고리즘의 성능을 입증함은 물론 제안된 알고리즘이 희귀 데이터의 분류/학습에 좀 더 효과적이다는 것을 보였다.

  • PDF

Mining Generalized Fuzzy Quantitative Association Rules with Fuzzy Generalization Hierarchies (퍼지 일반화 계층을 이용한 일반화된 퍼지 정량 연관규칙 마이닝)

  • 한상훈;손봉기;이건명
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2001.05a
    • /
    • pp.8-11
    • /
    • 2001
  • 연관규칙 마이닝은 트랜잭션 데이터를 이루고 있는 항목간의 잠재적인 의존관계를 발견하는 데이터 마이닝의 한 분야이다. 정량 연관규칙이란 부류적 속성과 정량적 속성을 모두 포함한 연관규칙이다. 정량 연관규칙 마아닝을 위한 퍼지 기술의 응용, 정량 연관규칙 마이닝을 위한 일반화된 연관규칙 마이닝, 사용자의 관심도를 반영한 중요도 가중치가 있는 연관규칙 마이닝 등에 대한 연구가 이루어져 왔다. 이 논문에서는 중요도 가중치가 있는 일반화된 퍼지 정량 연관규칙 마이닝의 새로운 방법을 제안한다. 이 방법은 부류적 속성의 퍼지 개념 계층과 정량적 속성의 퍼지 언어항 일반화 계층을 일반화된 추출하기 위해 이용한다. 이것은 속성들의 수준별 일반화 계층과 속성의 중요도 가중치를 이용함으로써 사용자가 보다 융통성 있는 연관규칙을 마이닝할 수 있게 해준다.

  • PDF

Gradient Descent Approach for Value-Based Weighting (점진적 하강 방법을 이용한 속성값 기반의 가중치 계산방법)

  • Lee, Chang-Hwan;Bae, Joo-Hyun
    • The KIPS Transactions:PartB
    • /
    • v.17B no.5
    • /
    • pp.381-388
    • /
    • 2010
  • Naive Bayesian learning has been widely used in many data mining applications, and it performs surprisingly well on many applications. However, due to the assumption that all attributes are equally important in naive Bayesian learning, the posterior probabilities estimated by naive Bayesian are sometimes poor. In this paper, we propose more fine-grained weighting methods, called value weighting, in the context of naive Bayesian learning. While the current weighting methods assign a weight to each attribute, we assign a weight to each attribute value. We investigate how the proposed value weighting effects the performance of naive Bayesian learning. We develop new methods, using gradient descent method, for both value weighting and feature weighting in the context of naive Bayesian. The performance of the proposed methods has been compared with the attribute weighting method and general Naive bayesian, and the value weighting method showed better in most cases.

Calculating Attribute Weights in K-Nearest Neighbor Algorithms using Information Theory (정보이론을 이용한 K-최근접 이웃 알고리즘에서의 속성 가중치 계산)

  • Lee Chang-Hwan
    • Journal of KIISE:Software and Applications
    • /
    • v.32 no.9
    • /
    • pp.920-926
    • /
    • 2005
  • Nearest neighbor algorithms classify an unseen input instance by selecting similar cases and use the discovered membership to make predictions about the unknown features of the input instance. The usefulness of the nearest neighbor algorithms have been demonstrated sufficiently in many real-world domains. In nearest neighbor algorithms, it is an important issue to assign proper weights to the attributes. Therefore, in this paper, we propose a new method which can automatically assigns to each attribute a weight of its importance with respect to the target attribute. The method has been implemented as a computer program and its effectiveness has been tested on a number of machine learning databases publicly available.