• Title/Summary/Keyword: k-최근접 이웃 알고리즘

Search Result 82, Processing Time 0.028 seconds

도로 네트워크를 위한 k-최근접 이웃 질의의 처리 방안

  • Lee, Sang-Cheol;Kim, Sang-Uk
    • Information and Communications Magazine
    • /
    • v.25 no.7
    • /
    • pp.16-23
    • /
    • 2008
  • 텔레매틱스에서 위치 정보 서비스를 효과적으로 제공하기 위해 이동 객체와 더불어 시설물과 같은 정적 객체에 대한 위치 정보를 효과적으로 관리하는 데이터베이스 기술들이 요구된다 본 논문에서는 도로 네트워크 데이터베이스를 위한 인덱싱 및 질의 처리 기술 현황에 대하여 고찰한다. 텔레매틱스에서는 영역 질의, k-최근접 이웃 질의, 연속 k-최근접 이웃 질의, 공간 조인 질의 등이 발생하며, 이 중 k-최근접 이웃 질의가 빈발하게 발생한다. k-최근접 이웃 질의를 처리하기 위한 효과적인 방안으로 IER, INE, $VN^3$, 근사 인덱싱 기법 등이 있다. 본 논문에서는 각 기법의 개념, 알고리즘, 장단점에 대하여 고찰한다.

k-최근접 이웃 정보를 활용한 베이지안 추론 분류

  • No, Yeong-Gyun;Kim, Gi-Eung;Lee, Tae-Hun;Yun, Seong-Ro;Lee, Daniel D.
    • Information and Communications Magazine
    • /
    • v.31 no.11
    • /
    • pp.27-34
    • /
    • 2014
  • 본 리뷰 논문에서는 많은 데이터 환경에서 얻어진 k-최근접 이웃들(k-nearest neighbors)의 이론적 성질로부터 어떻게 분류를 위한 알고리즘을 만들어낼 것인가에 대한 여러 가지 방법들을 설명한다. 많은 데이터 환경에서의 최근접 이웃 데이터의 정보는 다양한 기계학습 문제를 푸는데 아주 좋은 이론적인 성질을 가지고 있다. 하지만, 이런 이론적인 특성들이 데이터가 많지 않은 환경에서는 전혀 나타나지 않을 뿐 아니라 오히려 다른 다양한 알고리즘들에 비해 성능이 많이 뒤쳐지는 결과를 보여주고 있다. 본 리뷰 논문에서는 많은 데이터 환경 하에서 k-최근접 이웃들의 정보가 어떤 이론적인 특성을 가지는지 설명하고, 특별히 이런 특성들을 가지고 k-최근접 이웃을 이용한 분류 문제를 어떻게 베이지안 추론(Baysian inference) 문제로 수식화 할 수 있는지 보인다. 마지막으로 현재의 빅데이터 환경에서 실용적으로 사용할 수 있는 알고리즘들을 소개한다.

Performance Comparison of Classification Algorithms in Music Recognition using Violin and Cello Sound Files (바이올린과 첼로 연주 데이터를 이용한 분류 알고리즘의 성능 비교)

  • Kim Jae Chun;Kwak Kyung sup
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.30 no.5C
    • /
    • pp.305-312
    • /
    • 2005
  • Three classification algorithms are tested using musical instruments. Several classification algorithms are introduced and among them, Bayes rule, NN and k-NN performances evaluated. ZCR, mean, variance and average peak level feature vectors are extracted from instruments sample file and used as data set to classification system. Used musical instruments are Violin, baroque violin and baroque cello. Results of experiment show that the performance of NN algorithm excels other algorithms in musical instruments classification.

An Efficient Collaborative Filtering Method Based on k-Nearest Neighbor Learning for Large-Scale Data (대규모 데이터를 위한 k-최근접 이웃 학습 기반의 효율적인 협력적 여과 기법)

  • Jun, Kwang-Sung;Hwang, Kyu-Baek
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.376-380
    • /
    • 2008
  • 사회의 복잡화와 인터넷의 성장으로 폭발적으로 늘어나고 있는 정보들을 사용자가 모두 검토한 후 여과하기는 어려운 일이다. 이러한 문제를 보완하기 위해서 자동화된 정보 여과 기술이 사용되는데, k-최근접 이웃(k-nearest neighbor) 알고리즘은 그 구현이 간단하며 비교적 정확하여 가장 널리 쓰이고 있는 알고리즘 중 하나이다. k 개의 최근접 이웃들로부터 평가값을 계산하는 데 흔히 쓰이는 방법은 상관계수를 이용한 가중치에 기반하는 것이다. 본 논문에서는 이를 보완하여 대규모 데이터에 대해서도 속도는 크게 저하되지 않으며 정확도는 대폭 향상시킬 수 있는 방법을 적용하였다. 또한, 최근접 이웃을 구하는 거리함수로 다양한 방법을 시도하였다. 영화추천을 위한 실제 데이터에 대한 실험 결과, 속도의 저하는 미미하였으나 정확도에 있어서는 크게 향상된 결과를 가져올 수 있었다.

  • PDF

Nearest-neighbor Rule based Prototype Selection Method and Performance Evaluation using Bias-Variance Analysis (최근접 이웃 규칙 기반 프로토타입 선택과 편의-분산을 이용한 성능 평가)

  • Shim, Se-Yong;Hwang, Doo-Sung
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.52 no.10
    • /
    • pp.73-81
    • /
    • 2015
  • The paper proposes a prototype selection method and evaluates the generalization performance of standard algorithms and prototype based classification learning. The proposed prototype classifier defines multidimensional spheres with variable radii within class areas and generates a small set of training data. The nearest-neighbor classifier uses the new training set for predicting the class of test data. By decomposing bias and variance of the mean expected error value, we compare the generalization errors of k-nearest neighbor, Bayesian classifier, prototype selection using fixed radius and the proposed prototype selection method. In experiments, the bias-variance changing trends of the proposed prototype classifier are similar to those of nearest neighbor classifiers with all training data and the prototype selection rates are under 27.0% on average.

Optimal k-Nearest Neighborhood Classifier Using Genetic Algorithm (유전알고리즘을 이용한 최적 k-최근접이웃 분류기)

  • Park, Chong-Sun;Huh, Kyun
    • Communications for Statistical Applications and Methods
    • /
    • v.17 no.1
    • /
    • pp.17-27
    • /
    • 2010
  • Feature selection and feature weighting are useful techniques for improving the classification accuracy of k-Nearest Neighbor (k-NN) classifier. The main propose of feature selection and feature weighting is to reduce the number of features, by eliminating irrelevant and redundant features, while simultaneously maintaining or enhancing classification accuracy. In this paper, a novel hybrid approach is proposed for simultaneous feature selection, feature weighting and choice of k in k-NN classifier based on Genetic Algorithm. The results have indicated that the proposed algorithm is quite comparable with and superior to existing classifiers with or without feature selection and feature weighting capability.

Calculating Attribute Weights in K-Nearest Neighbor Algorithms using Information Theory (정보이론을 이용한 K-최근접 이웃 알고리즘에서의 속성 가중치 계산)

  • Lee Chang-Hwan
    • Journal of KIISE:Software and Applications
    • /
    • v.32 no.9
    • /
    • pp.920-926
    • /
    • 2005
  • Nearest neighbor algorithms classify an unseen input instance by selecting similar cases and use the discovered membership to make predictions about the unknown features of the input instance. The usefulness of the nearest neighbor algorithms have been demonstrated sufficiently in many real-world domains. In nearest neighbor algorithms, it is an important issue to assign proper weights to the attributes. Therefore, in this paper, we propose a new method which can automatically assigns to each attribute a weight of its importance with respect to the target attribute. The method has been implemented as a computer program and its effectiveness has been tested on a number of machine learning databases publicly available.

Classification of Heart Disease Using K-Nearest Neighbor Imputation (K-최근접 이웃 알고리즘을 활용한 심장병 진단 및 예측)

  • Park, Pyoung-Woo;Lee, Seok-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.742-745
    • /
    • 2017
  • 본 논문은 심장질환 도메인에 데이터 마이닝 기법을 적용한 연구로, 기존 환자의 정보에 대하여 K-최근접 이웃 알고리즘을 통해 결측 값을 대체하고, 대표적인 예측 분류기인 나이브 베이지안, 소포트 벡터 머신, 그리고 다층 퍼셉트론을 적용하여 각각 결과를 비교 및 분석한다. 본 연구의 실험은 K 최적화 과정을 포함하고 10-겹 교차 검증 방식으로 수행되었으며, 비교 및 분석은 정확도와 카파 통계치를 통해 판별한다.

Performance Comparison of Machine Learning Algorithms for Malware Detection (악성코드 탐지를 위한 기계학습 알고리즘의 성능 비교)

  • Lee, Hyun-Jong;Heo, Jae Hyeok;Hwang, Doosung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.01a
    • /
    • pp.143-146
    • /
    • 2018
  • 서명기반 악성코드 탐지는 악성 파일의 고유 해싱 값을 사용하거나 패턴화된 공격 규칙을 이용하므로, 변형된 악성코드 탐지에 취약한 단점이 있다. 기계 학습을 적용한 악성코드 탐지는 이러한 취약점을 극복할 수 있는 방안으로 인식되고 있다. 본 논문은 정적 분석으로 n-gram과 API 특징점을 추출해 특징 벡터로 구성하여 XGBoost, k-최근접 이웃 알고리즘, 지지 벡터 기기, 신경망 알고리즘, 심층 학습 알고리즘의 일반화 성능을 비교한다. 실험 결과로 XGBoost가 일반화 성능이 99%로 가장 우수했으며 k-최근접 이웃 알고리즘이 학습 시간이 가장 적게 소요됐다. 일반화 성능과 시간 복잡도 측면에서 XGBoost가 비교 대상 알고리즘에 비해 우수한 성능을 보였다.

  • PDF

Status Diagnosis of Pump and Motor Applying K-Nearest Neighbors (K-최근접 이웃 알고리즘을 적용한 펌프와 모터의 상태 진단)

  • Kim, Nam-Jin;Bae, Young-Chul
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.13 no.6
    • /
    • pp.1249-1256
    • /
    • 2018
  • Recently the research on artificial intelligence is actively processing in the fields of diagnosis and prediction. In this paper, we acquire the data of electrical current, revolution per minute (RPM) and vibration that is occurred in the motor and pump where hey are installed in the industrial fields. We train the acquired data by using the k-nearest neighbors. Also, we propose the status diagnosis methods that judges normal and abnormal status of motor and pump by using the trained data. As a proposed result, we confirm that normal status and abnormal status are well judged.