• Title/Summary/Keyword: 데이터 척도

Search Result 683, Processing Time 0.029 seconds

통계적 척도 선택 방법에 따른 네트워크 침입 분류의 성능 비교

  • Mun, Gil-Jong;Kim, Yong-Min;Noh, Bong-Nam
    • Review of KIISC
    • /
    • v.19 no.2
    • /
    • pp.16-25
    • /
    • 2009
  • 네트워크 기술의 발달에 따른 서비스의 증가는 네트워크 트래픽과 함께 취약점도 증대하여 이를 악용하는 행위도 늘어나고 있다. 따라서 네트워크 침입탐지 시스템은 증가하는 트래픽의 양을 처리할 수 있어야 하며, 악의적인 행동을 효과적으로 탐지 할 수 있어야 한다. 증가하는 트래픽을 효과적으로 처리하고 탐지의 정확성을 높이기 위해 처리 데이터를 감소시키는 기술이 요구된다. 이러한 방법들은 크게 데이터 필터링, 척도 선택, 데이터 클러스터링의 영역으로 구분되며, 본 논문에서는 척도 선택의 방법으로 데이터 처리의 감소 및 효과적 침입탐지를 수행할 수 있음을 보이고자 한다. 실험 데이터는 KDDCUP 99 데이터 셋을 이용하였으며, 통계적 척도선택의 방법으로 분류율, 오탐율, 거리값, 규칙, 선택된 척도 등을 제시함으로써 침입 탐지 시 데이터 처리량이 감소하였고, 분류율은 증가, 오탐율은 감소하여 침입 탐지 정확성이 높아짐을 알 수 있었다. 또한 본 논문에서 제시한 방법이 다른 관련연구에서 제시한 선택 척도보다 높은 정확성을 보임으로써 보다 유용함을 증명할 수 있었다.

A Study of Similarity Measures on Multidimensional Data Sequences Using Semantic Information (의미 정보를 이용한 다차원 데이터 시퀀스의 유사성 척도 연구)

  • Lee, Seok-Lyong;Lee, Ju-Hong;Chun, Seok-Ju
    • The KIPS Transactions:PartD
    • /
    • v.10D no.2
    • /
    • pp.283-292
    • /
    • 2003
  • One-dimensional time-series data have been studied in various database applications such as data mining and data warehousing. However, in the current complex business environment, multidimensional data sequences (MDS') become increasingly important in addition to one-dimensional time-series data. For example, a video stream can be modeled as an MDS in the multidimensional space with respect to color and texture attributes. In this paper, we propose the effective similarity measures on which the similar pattern retrieval is based. An MDS is partitioned into segments, each of which is represented by various geometric and semantic features. The similarity measures are defined on the basis of these segments. Using the measures, irrelevant segments are pruned from a database with respect to a given query. Both data sequences and query sequences are partitioned into segments, and the query processing is based upon the comparison of the features between data and query segments, instead of scanning all data elements of entire sequences.

Performance Analysis of Similarity Reflecting Jaccard Index for Solving Data Sparsity in Collaborative Filtering (협력필터링의 데이터 희소성 해결을 위한 자카드 지수 반영의 유사도 성능 분석)

  • Lee, Soojung
    • The Journal of Korean Association of Computer Education
    • /
    • v.19 no.4
    • /
    • pp.59-66
    • /
    • 2016
  • It has been studied to reflect the number of co-rated items for solving data sparsity problem in collaborative filtering systems. A well-known method of Jaccard index allowed performance improvement, when combined with previous similarity measures. However, the degree of performance improvement when combined with existing similarity measures in various data environments are seldom analyzed, which is the objective of this study. Jaccard index as a sole similarity measure yielded much higher prediction quality than traditional measures and very high recommendation quality in a sparse dataset. In general, previous similarity measures combined with Jaccard index improved performance regardless of dataset characteristics. Especially, cosine similarity achieved the highest improvement in sparse datasets, while similarity of Mean Squared Difference degraded prediction quality in denser sets. Therefore, one needs to consider characteristics of data environment and similarity measures before combining Jaccard index for similarity use.

Cohesion Measure by the Decreasing Factors for an Object-Oriented Paradigm (객체지향 패러다임에서 저해요인에 기반한 응집도 척도)

  • Kim, Sung-Ae;Choi, Wan-Kyoo;Lee, Sung-Joo
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.11
    • /
    • pp.3372-3383
    • /
    • 2000
  • 객체지향 패러다임에서 응집도가 높은 클래스들은 단 하나의 데이터 요소만이 정의되고 모든 메소드(또는 연산)들이 그 데이터 요소 상에서 수행되거나, 메소드와 데이터 요소간에 최대연결이 이루어진 클래스이다. 따라서 데이터 요소의 증가와 최대연결을 저해하는 연산들은 클래스의 응집을 저해하는 주 요인들이다. 본 연구에서는 이러한 저해요인들에 근거하여, 응집도에 관한 우리의 직관과 더욱 일치하는 측정을 할 수 있는 새로운 클래스 응집도 척도인 CM(Cohesion Metric)을 제안하였다. 본 연구에서는 응집도를 저해하는 요인의 식별을 위해 참조 그래프(reference graph)를 이용하고, 참조 그래프의 분석을 기초로 하여 클래스의 응집도를 측정하였다. 또한 제한된 CM 측정값이 응집도 척도가 만족해하는 특성들을 만족함을 보였고, 기존 응집도 척도들과의 비교평가를 통해서 CM이 기존의 척도들보다 향상된 측정을 제시함을 보였다.

  • PDF

An Improved Fractal Color Image Decoding Based on Data Dependence and Vector Distortion Measure (데이터의존성과 벡터왜곡척도를 이용한 개선된 프랙탈 칼라영상 복호화)

  • 서호찬;정태일;문광석;안상호;권기룡
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 1998.04a
    • /
    • pp.116-121
    • /
    • 1998
  • 본 논문에서는 데이터의존성과 벡터왜곡척도를 이용하여 개선된 칼라영상을 복호화하였다. 프랙탈 칼라영상의 복원방법은 Zhang과 Po의 벡터왜곡척도를 이용한 R, G, B 칼라 성분간의 상관관계를 고려하여 부호화한 압축파일을 사용하여 수렴될 복원영상을 독립적인 반복변환에 의해 수렴되는 영역과 데이터의존성을 갖는 영역으로 분류하여 데이터의존성 부분이 차지하는 만큼 복호화 과정에서 불필요한 계산량이 제거되었고, R 영역에서 검색한 데이터 의존영역을 G, B 영역에 그대로 사용하여 고속복호화가 가능하였다.

  • PDF

A Study on Evaluation Model for Usability of Research Data Service (연구데이터 서비스의 유용성 평가 모형 연구)

  • Park, Jin Ho;Ko, Young Man;Kim, Hyun Soo
    • Journal of the Korean Society for information Management
    • /
    • v.36 no.4
    • /
    • pp.129-159
    • /
    • 2019
  • The Purpose of this study is to develop an evaluation model for usability of research data service from the angles of evaluating usefulness of research data service itself and research data use experience-based usability. First, the various cases of evaluating usability of data services are examined and 4 rating scales and 20 measuring indicators for research data service are derived as a result of comparative analysis. In order to verify validity and reliability of the rating scale and the measuring indicators, the study conducted a survey of 164 potential research data users. KMO Bartlett Analysis was performed for validity test, and Principle Component Analysis and Verimax Rotating Method were used for component analysis on measuring indicators. The result shows that the 4 intrinsic rating scales satisfy the validity criteria of KMO Barlett; A single component was determined from component analysis, which verifies the validity of measuring indicators of the current rating scale. However, the result of 12 user experience-based measuring indicators analysis identified 2 components that are each classified as rating scale of utilization level and that of participation level. Cronbach's alpha of all 6 rating scales was 0.6 or more for the overall scale.

A Fuzzy Cluster Validity based on Inter-cluster Overlapping and Separation (중첩성과 분리성을 이용한 퍼지 클러스터 평가척도)

  • 김대원;이광형
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.05a
    • /
    • pp.99-102
    • /
    • 2003
  • 본 논문에서는 퍼지 클러스터링 알고리즘에 의해 구해진 퍼지 클러스터들에 대한 평가척도를 제안한다. 제안된 척도는 퍼 지 클러스터들간의 중첩성(overlapping)과 분리성 (separation)을 이용한다. 중첩성은 클러스터간 인접도를 이용하여 계산하며, 분리성은 데이터에 대한 상관성 정도를 나타낸다. 따라서 중첩성이 낮고 분리성이 높을수록 좋은 클러스터 결과라고 할 수 있다. 표준 데이터 집합을 대상으로 기존의 척도들과 비교실험 함으로써 제안된 척도의 신뢰성을 알아보았다.

  • PDF

Privacy Preserving Data Mining Methods and Metrics Analysis (프라이버시 보존형 데이터 마이닝 방법 및 척도 분석)

  • Hong, Eun-Ju;Hong, Do-won;Seo, Chang-Ho
    • Journal of Digital Convergence
    • /
    • v.16 no.10
    • /
    • pp.445-452
    • /
    • 2018
  • In a world where everything in life is being digitized, the amount of data is increasing exponentially. These data are processed into new data through collection and analysis. New data is used for a variety of purposes in hospitals, finance, and businesses. However, since existing data contains sensitive information of individuals, there is a fear of personal privacy exposure during collection and analysis. As a solution, there is privacy-preserving data mining (PPDM) technology. PPDM is a method of extracting useful information from data while preserving privacy. In this paper, we investigate PPDM and analyze various measures for evaluating the privacy and utility of data.

Comparison of Efficient Scoring Metrics for Bayesian Network Learning in Biological Domain (생물학적 데이터의 베이지안 네트워크 학습에서의 효과적인 스코어링 척도 비교)

  • Hwang Sung-Chul;Lee Yill-Byung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.357-360
    • /
    • 2006
  • 본 논문에서는 베이지안 네트워크 학습 방법을 이용한 비교적 적은 양의 샘플 데이터에서 현실적인 네트워크 모델 추론을 위한 효율적인 스코어링 척도를 찾는 것을 목표로 하였다. UPSM, CUPSM, DPSM, BDe(Bayesian Dirichlet) 등을 각각 적용시켜본 결과를 통해 어떤 방법이 가장 적은 샘플의 데이터, 특히 생물학적 데이터에적합한지 알아보았다.

  • PDF

Mesh Simplification using Vertex Replacement based on Color and Curvature (색상 및 곡률기반 정점 재조정을 이용한 메쉬 간략화)

  • Choi, Han-Kyun;Kang, Eu-Cheol;Kim, Hyun-Soo;Lee, Kwan-Heng
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.1385-1388
    • /
    • 2005
  • 최근 3 차원 스캐닝(Scanning) 기술의 발달로 형상 및 색상 정보 데이터를 동시에 획득할 수 있게 되었다. 특히 한번의 측정으로 다량의 데이터를 확보할 수 있기 때문에 3 차원 데이터의 정합(Registration) 및 병합(Merging) 과정에서 계산량이 증가하게 된다. 또한 정합과 병합 후의 대용량 데이터 자체로는 3 차원 모델의 저장, 전송, 처리 및 렌더링(Rendering) 등의 과정에서 어려움이 있다. 따라서 모델의 기하 정보와 색상, 질감, 곡률 등의 속성 정보를 유지하면서 데이터의 양을 감소시키는 메쉬 간략화 기술이 필요하다. 현재 널리 쓰이는 이차 오차 척도(Quadric Error Metric) 방법으로 메쉬를 극심하게 감소하게 되면 오차가 누적되어 기하 정보 및 속성 정보가 소실된다. 본 연구에서는 이를 방지하기 위해 이차 오차 척도 감소화 과정에서 곡률과 색상 기반의 정점 재조정 방법을 제안한다.

  • PDF