• Title/Summary/Keyword: K-Means 클러스터링

Search Result 363, Processing Time 0.025 seconds

Extension of the Possibilistic Fuzzy C-Means Clustering Algorithm (Possibilistic Fuzzy C-Means 클러스터링 알고리즘의 확장)

  • Heo, Gyeong-Yong;U, Yeong-Un;Kim, Gwang-Baek
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.423-426
    • /
    • 2007
  • 클러스터링은 주어진 데이터 포인트들을 주어진 개수의 그룹으로 나누는 비지도 학습의 한 방법이다. 클러스터링의 방법 중 하나로 널리 알려진 퍼지 클러스터링은 하나의 포인트가 모든 클러스터에 서로 다른 정도로 소속될 수 있도록 함으로써 각 포인트가 하나의 클러스터에만 속할 수 있도록 하는 K-means와 같은 방법에 비해 자연스러운 클러스터 형태의 유추가 가능하고, 잡음에 강한 장점이 있다. 이 논문에서는 기존의 퍼지 클러스터링 방법 중 소속도(membership)와 전형성(typicality)을 동시에 계산해 낼 수 있는 Possibilistic Fuzzy C-Means (PFCM) 방법에 Gath-Geva (GG)의 방법 을 적용하여 PFCM을 확장한다. 제안한 방법은 PFCM의 장점을 그대로 가지면서도, GG의 거리 척도에 의해 클러스터들 사이의 경계를 강조함으로써 분류 목적에 적합한 소속도를 계산할 수 있으며, 전형성은 가우스 형태의 분포에서 생성된 포인트들의 분포 함수를 정확하게 모사함으로써 확률 밀도 추정의 방법으로도 사용될 수 있다. 또한 GG 방법은 Gustafson-Kessel 방법과 달리 클러스터에 포함된 포인트의 개수가 확연히 차이 나는 경우에도 정확한 결과를 얻을 수 있다는 사실을 실험 결과를 통해 확인할 수 있었다.

  • PDF

An Enhanced Spatial Fuzzy C-Means Algorithm for Image Segmentation (영상 분할을 위한 개선된 공간적 퍼지 클러스터링 알고리즘)

  • Truong, Tung X.;Kim, Jong-Myon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.17 no.2
    • /
    • pp.49-57
    • /
    • 2012
  • Conventional fuzzy c-means (FCM) algorithms have achieved a good clustering performance. However, they do not fully utilize the spatial information in the image and this results in lower clustering performance for images that have low contrast, vague boundaries, and noises. To overcome this issue, we propose an enhanced spatial fuzzy c-means (ESFCM) algorithm that takes into account the influence of neighboring pixels on the center pixel by assigning weights to the neighbors in a $3{\times}3$ square window. To evaluate between the proposed ESFCM and various FCM based segmentation algorithms, we utilized clustering validity functions such as partition coefficient ($V_{pc}$), partition entropy ($V_{pe}$), and Xie-Bdni function ($V_{xb}$). Experimental results show that the proposed ESFCM outperforms other FCM based algorithms in terms of clustering validity functions.

RHadoop platform for K-Means clustering of big data (빅데이터 K-평균 클러스터링을 위한 RHadoop 플랫폼)

  • Shin, Ji Eun;Oh, Yoon Sik;Lim, Dong Hoon
    • Journal of the Korean Data and Information Science Society
    • /
    • v.27 no.3
    • /
    • pp.609-619
    • /
    • 2016
  • RHadoop is a collection of R packages that allow users to manage and analyze data with Hadoop. In this paper, we implement K-Means algorithm based on MapReduce framework with RHadoop to make the clustering method applicable to large scale data. The main idea introduces a combiner as a function of our map output to decrease the amount of data needed to be processed by reducers. We showed that our K-Means algorithm using RHadoop with combiner was faster than regular algorithm without combiner as the size of data set increases. We also implemented Elbow method with MapReduce for finding the optimum number of clusters for K-Means clustering on large dataset. Comparison with our MapReduce implementation of Elbow method and classical kmeans() in R with small data showed similar results.

Privacy-Preserving K-means Clustering using Homomorphic Encryption in a Multiple Clients Environment (다중 클라이언트 환경에서 동형 암호를 이용한 프라이버시 보장형 K-평균 클러스터링)

  • Kwon, Hee-Yong;Im, Jong-Hyuk;Lee, Mun-Kyu
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.15 no.4
    • /
    • pp.7-17
    • /
    • 2019
  • Machine learning is one of the most accurate techniques to predict and analyze various phenomena. K-means clustering is a kind of machine learning technique that classifies given data into clusters of similar data. Because it is desirable to perform an analysis based on a lot of data for better performance, K-means clustering can be performed in a model with a server that calculates the centroids of the clusters, and a number of clients that provide data to server. However, this model has the problem that if the clients' data are associated with private information, the server can infringe clients' privacy. In this paper, to solve this problem in a model with a number of clients, we propose a privacy-preserving K-means clustering method that can perform machine learning, concealing private information using homomorphic encryption.

How to Generate Term Vectors to Support the Automatic Generation of Taxonomy (분류체계 자동 생성 지원을 위한 용어 벡터 생성 방법 탐색)

  • Su-Jin Seong;Jeong-Won Cha
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.600-603
    • /
    • 2022
  • 분류체계를 결정하는 일은 매우 중요하지만 어려운 일이다. 우리는 수집된 용어 목록에 클러스터링을 적용하여 상위 범주의 범위를 자동으로 설정하고자 하였다. 용어 클러스터링은 용어를 나타내는 벡터에 큰 의존성을 갖는다. 이에 클러스터링의 성능 향상을 위해 다양한 용어 임베딩 방법을 비교하였으며 용어에 대한 정의문의 벡터를 용어 벡터로 사용하여 가장 우수한 클러스터링 결과를 얻었다. 또한 실험을 통해 클러스터링 알고리즘 중 k-means clustering이 고차원의 벡터에 대해 좋은 성능의 군집을 생성함을 확인하였다.

  • PDF

Latent Semantic Indexing Analysis of K-Means Document Clustering for Changing Index Terms Weighting (색인어 가중치 부여 방법에 따른 K-Means 문서 클러스터링의 LSI 분석)

  • Oh, Hyung-Jin;Go, Ji-Hyun;An, Dong-Un;Park, Soon-Chul
    • The KIPS Transactions:PartB
    • /
    • v.10B no.7
    • /
    • pp.735-742
    • /
    • 2003
  • In the information retrieval system, document clustering technique is to provide user convenience and visual effects by rearranging documents according to the specific topics from the retrieved ones. In this paper, we clustered documents using K-Means algorithm and present the effect of index terms weighting scheme on the document clustering. To verify the experiment, we applied Latent Semantic Indexing approach to illustrate the clustering results and analyzed the clustering results in 2-dimensional space. Experimental results showed that in case of applying local weighting, global weighting and normalization factor, the density of clustering is higher than those of similar or same weighting schemes in 2-dimensional space. Especially, the logarithm of local and global weighting is noticeable.

Efficient K-means Clustering for High-dimensional Large Data (고차원 대규모 데이터를 위한 효율적인 K-means 클러스터링)

  • Yoon, Tae-Sik;Shim, Kyu-Seok
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.33-36
    • /
    • 2011
  • 클러스터링은 데이터 포인트들을 그룹으로 묶어 데이터를 분석하는데 유용하다. 특히 K-means는 가장 널리 쓰이는 클러스터링 알고리즘으로 k개의 군집(Cluster)을 찾는다. 본 논문에서는 기존의 K-means 알고리즘과 비교해 고차원 대규모데이터에 대해서 효율적으로 동작하는 K-means 알고리즘을 제안한다. 제안된 알고리즘은 기존의 알고리즘에서와 같이 거리 정보를 이용해 불필요한 계산을 줄여나가며 또한 움직임 없는 군집들을 계산에서 제외하여 수행시간을 단축한다. 제안된 알고리즘은 기존의 관련연구에서 제안된 알고리즘에 비해 공간을 적게 쓰면서 동시에 빠르다. 실제 고차원 데이터 실험을 통해서 제안된 알고리즘의 효율성을 보였다.

Detection of an Invariant Direction using K-means Clustering (K-means 클러스터링을 이용한 불변 방향 검출)

  • Kim, Dal-Hyoun;Lee, Woo-Ram;Jun, Byoung-Min
    • Proceedings of the KAIS Fall Conference
    • /
    • 2011.05a
    • /
    • pp.389-392
    • /
    • 2011
  • 본 논문에서는 영상의 색 항등성을 달성하기 위해 본질 영상의 핵심인 불변 방향을 K-means 클러스터링을 이용해 검출하는 개선된 알고리즘을 제안한다. 우선, RGB 영상을 K-means 클러스터링 기법에 의해 다수의 클러스터로 분할한다. 이 때, 클러스터 간의 거리 측정은 유클리드 거리이다. 그리고 분할된 클러스터 중 가장 많은 색을 가진 클러스터만을 x-색도 공간으로 도시하여 해당되는 후보 불변 방향을 계산한다. 검출된 후보 불변 방향은 방향별로 프로젝션된 히스토그램에서 3개 이상의 프로젝션된 데이터를 가진 bin들의 개수가 가장 적은 방향이다. 그 후, 분할된 다른 여러 클러스터에 해당되는 후 보 불변 방향을 계산하여 가장 많은 빈도로 나타나는 방향을 영상의 최종 불변 방향으로 결정한다. 실험에서 Ebner에 의해 제안된 데이터집합을 실험 영상으로 사용하였고, 색항등성 측도를 평가 척도로 사용하였다. 실험 결과, 제안한 기법은 형광성 표면을 가진 형광 데이터집합에 보다 적합하였으며, 엔트로피 기법보다 색항등성이 1.5배 이상 높았다.

  • PDF

Effective Image Segmentation using a Locally Weighted Fuzzy C-Means Clustering (지역 가중치 적용 퍼지 클러스터링을 이용한 효과적인 이미지 분할)

  • Alamgir, Nyma;Kim, Jong-Myon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.17 no.12
    • /
    • pp.83-93
    • /
    • 2012
  • This paper proposes an image segmentation framework that modifies the objective function of Fuzzy C-Means (FCM) to improve the performance and computational efficiency of the conventional FCM-based image segmentation. The proposed image segmentation framework includes a locally weighted fuzzy c-means (LWFCM) algorithm that takes into account the influence of neighboring pixels on the center pixel by assigning weights to the neighbors. Distance between a center pixel and a neighboring pixels are calculated within a window and these are basis for determining weights to indicate the importance of the memberships as well as to improve the clustering performance. We analyzed the segmentation performance of the proposed method by utilizing four eminent cluster validity functions such as partition coefficient ($V_{pc}$), partition entropy ($V_{pe}$), Xie-Bdni function ($V_{xb}$) and Fukuyama-Sugeno function ($V_{fs}$). Experimental results show that the proposed LWFCM outperforms other FCM algorithms (FCM, modified FCM, and spatial FCM, FCM with locally weighted information, fast generation FCM) in the cluster validity functions as well as both compactness and separation.

Incremental Clustering Algorithm by Modulating Vigilance Parameter Dynamically (경계변수 값의 동적인 변경을 이용한 점층적 클러스터링 알고리즘)

  • 신광철;한상용
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.11
    • /
    • pp.1072-1079
    • /
    • 2003
  • This study is purported for suggesting a new clustering algorithm that enables incremental categorization of numerous documents. The suggested algorithm adopts the natures of the spherical k-means algorithm, which clusters a mass amount of high-dimensional documents, and the fuzzy ART(adaptive resonance theory) neural network, which performs clustering incrementally. In short, the suggested algorithm is a combination of the spherical k-means vector space model and concept vector and fuzzy ART vigilance parameter. The new algorithm not only supports incremental clustering and automatically sets the appropriate number of clusters, but also solves the current problems of overfitting caused by outlier and noise. Additionally, concerning the objective function value, which measures the cluster's coherence that is used to evaluate the quality of produced clusters, tests on the CLASSIC3 data set showed that the newly suggested algorithm works better than the spherical k-means by 8.04% in average.