• Title/Summary/Keyword: 데이터 척도

Search Result 684, Processing Time 0.204 seconds

반응편향성을 내포한 리커트형 척도 자료의 분석방법 - 통계 상담 사례 연구 -

  • Kim, Sang-Ryong;Jo, Gil-Ho;Lee, Su-Hyeong
    • Journal of the Korean Data and Information Science Society
    • /
    • v.5 no.2
    • /
    • pp.107-116
    • /
    • 1994
  • 이 논문은 통계상담사례연구의 일종으로 설문지를 이용한 통계자료분석에 도움이 되도록 소개하고자 한다. 여러항목을 종합하여 한 척도를 구성하고 각 항목마다 중요도나 선호도 등에 따라 다품등 리커트형 척도를 묻는 자료는 개인의 성향이나 지리적 문화적 여건에 따라 그 응답경향이 달라 가질지도 모르는 반응편향성(Response Set Bias)을 감소시켜 보다 좋은 통계자료분석을 할 수 있는 통계적 방법을 소개하며, 이 방법을 적용시킨 통계상담을 예시하고자 한다.

  • PDF

Relative Data Analysis of Software Inspection Metrics without Threshold (소프트웨어 인스펙션 척도의 기준치 비 의존 상대적 데이터 분석)

  • Kim, Taehyoun;Park, Jinhee;Choi, Okjoo;Shin, Juhwan;Baik, Jongmoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.1571-1574
    • /
    • 2012
  • 소프트웨어 개발에 있어 각 단계별 프로세스 활동들에 대한 분석 및 평가는 소프트웨어의 품질을 좌우하는 큰 요인이다. 따라서 많은 소프트웨어 척도들이 소프트웨어 품질을 분석하는데 이용되고 있으며 유사 프로젝트를 통해 설정되는 기준치와 척도 값의 비교가 수행된다. 하지만 기존의 유사 프로젝트를 찾기란 쉽지 않은 일이며 유사 프로젝트를 찾더라도 해당 프로젝트의 개발 환경은 현재 개발 중인 프로젝트의 환경과 다른 경우가 많다. 따라서 본 논문에서는 외적인 기준치에 의존하지 않고 현재 개발 단계의 인스펙션 결과를 분석하는 방법을 제시하도록 한다. 산포도를 이용한 상대적 데이터 분석이 이용되며 국방 도메인에서 개발 중인 프로젝트 내부 31 개의 기능으로부터 수집된 데이터를 통한 사례분석을 수행하도록 한다. 이를 통해 기능들 간 현재 개발 과정의 일관성 유지 여부를 평가하고 다음 개발 단계의 프로세스 활동 강화 여부에 대한 권고 사항을 제시할 수 있다.

Order selection based on scaled lift (척도화 향상도에 근거한 처방 선택)

  • Park, Cheol-Yong
    • Journal of the Korean Data and Information Science Society
    • /
    • v.22 no.2
    • /
    • pp.227-234
    • /
    • 2011
  • In this study, we propose order selection methods based on scaled lift. This study is proposed to overcome the problem that the lift used by Park and Kim (2010) takes unbounded values and thus it is hard to know how big (or small) lift value is big (or small). The first scaled lift just scales lift, so that it takes values between 0 and 1, and the second scaled lift scales lift-1, so that it takes values between -1 and 1. In other words, the first method scales lift only and the second methods ceters and scales lift. We apply order selection methods based on scaled lift to acute appendicitis patients in emergency room and compare them with the results based on lift.

The Privacy Safety of Public Data: A Case Study on Medical Statistics HIRA-NPS 2011 (공개 데이터의 프라이버시 안전성: 진료정보 통계자료 HIRA-NPS 2011 사례 분석)

  • Kim, Soohyung;Chung, Yon Dohn;Lee, Ki Yong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.786-789
    • /
    • 2013
  • 개인정보가 포함된 데이터가 많은 기관에서 다양한 목적을 위해 배포되고 있다. 이러한 공개 데이터는 프라이버시 문제를 야기할 수 있기 때문에, 배포에 앞서 항상 데이터에 대한 프라이버시 보호가 고려되어야 한다. 그러나 현재 배포되는 많은 데이터는 충분하지 못한 프라이버시 보호 과정을 거쳐 배포되고 있다. 이 논문에서는 개인정보를 포함하는 데이터의 프라이버시 안전성을 분석한다. 이를 위해 우리는 건강보험심사평가원에서 배포한 2011년 진료정보 통계자료(HIRA-NPS)를 실험에 사용한다. 분석을 위해 기존에 널리 쓰이는 프라이버시 보호 모델 k-익명성(k-anonymity)과 l-다양성(l-diversity)을 차용하여 안전성 판단의 척도를 정의한다. 또한 실제 데이터에 이 척도를 적용하여 프라이버시 안전성을 측정하고, 그 결과가 갖는 의미를 분석한다.

Automatic Generation of Issue Analysis Report Based on Social Big Data Mining (소셜 빅데이터 마이닝 기반 이슈 분석보고서 자동 생성)

  • Heo, Jeong;Lee, Chung Hee;Oh, Hyo Jung;Yoon, Yeo Chan;Kim, Hyun Ki;Jo, Yo Han;Ock, Cheol Young
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.12
    • /
    • pp.553-564
    • /
    • 2014
  • In this paper, we propose the system for automatic generation of issue analysis report based on social big data mining, with the purpose of resolving three problems of the previous technologies in a social media analysis and analytic report generation. Three problems are the isolation of analysis, the subjectivity of experts and the closure of information attributable to a high price. The system is comprised of the natural language query analysis, the issue analysis, the social big data analysis, the social big data correlation analysis and the automatic report generation. For the evaluation of report usefulness, we used a Likert scale and made two experts of big data analysis evaluate. The result shows that the quality of report is comparatively useful and reliable. Because of a low price of the report generation, the correlation analysis of social big data and the objectivity of social big data analysis, the proposed system will lead us to the popularization of social big data analysis.

Validation Technique of Trace-Driven Simulation Model Using Weighted F-measure (가중 F 척도를 이용한 Trace-Driven 시뮬레이션 모델의 검증 방법)

  • HwangBo, Hoon;Cheon, Hyeon-Jae;Lee, Hong-Chul
    • Journal of the Korea Society for Simulation
    • /
    • v.18 no.4
    • /
    • pp.185-195
    • /
    • 2009
  • As most systems get more complicated, system analysis using simulation has been taken notice of. One of the core parts of simulation analysis is validation of a simulation model, and we can identify how well the simulation model represents the real system with this validation process. The difference between input data of two systems has an effect on the comparison between a simulation model and a real system at validation stage, and the result with such difference is not enough to ensure high credibility of the model. Accordingly, in this paper, we construct a model based on Trace-driven simulation which uses identical input data with the real system. On the other hand, to validate a model by each class, not by an unique statistic, we validate the model using a metric transformed from F-measure which estimates performance of a classifier in data mining field. Finally, this procedure enables precise validation process of a model, and it helps modification by offering feedback at the validation phase.

Clustering Algorithm for Data Mining using Posterior Probability-based Information Entropy (데이터마이닝을 위한 사후확률 정보엔트로피 기반 군집화알고리즘)

  • Park, In-Kyoo
    • Journal of Digital Convergence
    • /
    • v.12 no.12
    • /
    • pp.293-301
    • /
    • 2014
  • In this paper, we propose a new measure based on the confidence of Bayesian posterior probability so as to reduce unimportant information in the clustering process. Because the performance of clustering is up to selecting the important degree of attributes within the databases, the concept of information entropy is added to posterior probability for attributes discernibility. Hence, The same value of attributes in the confidence of the proposed measure is considerably much less due to the natural logarithm. Therefore posterior probability-based clustering algorithm selects the minimum of attribute reducts and improves the efficiency of clustering. Analysis of the validation of the proposed algorithms compared with others shows their discernibility as well as ability of clustering to handle uncertainty with ACME categorical data.

A Slice-based Complexity Measure (슬라이스 기반 복잡도 척도)

  • Moon, Yu-Mi;Choi, Wan-Kyoo;Lee, Sung-Joo
    • The KIPS Transactions:PartD
    • /
    • v.8D no.3
    • /
    • pp.257-264
    • /
    • 2001
  • We developed a SIFG (Slice-based Information Graph), which modelled the information flow on program on the basis of the information flow of data tokens on data slices. Then we defied a SCM (Slice-based complexity measure), which measured the program complexity by measuring the complexity of information flow on SIFG. SCM satisfied the necessary properties for complexity measure proposed by Briand et al. SCM could measure not only the control and data flow on program but also the physical size of program unlike the existing measures.

  • PDF

Automated Generation of Multi-Scale Map Database for Web Map Services (웹 지도서비스를 위한 다축척 지도 데이터셋 자동생성 기법 연구)

  • Park, Woo Jin;Bang, Yoon Sik;Yu, Ki Yun
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.30 no.5
    • /
    • pp.435-444
    • /
    • 2012
  • Although the multi-scale map database should be constructed for the web map services and location-based services, much part of generation process is based on the manual editing. In this study, the map generalization methodology for automatic construction of multi-scale database from the primary data is proposed. Moreover, the generalization methodology is applied to the real map data and the prototype of multi-scale map dataset is generated. Among the generalization operators, selection/elimination, simplification and amalgamation/aggregation is applied in organized manner. The algorithm and parameters for generalization is determined experimentally considering T$\ddot{o}$pfer's radical law, minimum drawable object of map and visual aspect. The target scale level is five(1:1,000, 1:5,000, 1:25,000, 1:100,000, 1:500,000) and for the target data, new address data and digital topographic map is used.

Similarity Measure between Ontologies using OWL Properties (OWL 속성을 이용한 온톨로지 간 의미 유사도 측정 방법)

  • Ahn Woo-Sik;Park Jung-Eun;Oh Kyung-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.169-171
    • /
    • 2006
  • 인터넷이 보다 대중화되고 광범위해지면서 의미적 관계에 따라 정보를 저장하는 온톨로지 시스템이 미래의 지능적인 컴퓨터를 위한 적절한 수단으로 각광받고 있다. 하지만 온톨로지와 같은 메타 데이터를 사용한 방법은 그 사용 목적 또는 작성자의 개인적인 관점에 따라 다양한 이질적인(heterogeneous) 형태를 띠게 된다. 이러한 이질적인 정보들은 데이터가 다른 시스템에서 처리되는 것을 어렵게 한다. 정보의 상호운용성을 보장하기 위해서는 서로 다른 온톨로지 시스템간의 개체에 대한 유사도를 평가할 수 있어야 한다. 따라서 두 개의 다른 OWL 언어로 정의된 온톨로지 사이에서 두 개의 엔티티의 유사도를 측정하기 위한 새로운 유사도 척도(similarity measure)를 제안하였다. 이는 온톨로지 상의 이질적인 정보를 통합하는데 사용되며, 온톨로지 비교(comparison), 정렬(alignment), 매칭(matching) 그리고 병합(merging)의 기반이 되는 중요한 기법이다. 새로운 유사도 척도는 특정한 매핑 정보를 사용하지 않고 온톨로지 언어의 속성을 기반으로 하므로 OWL을 사용한 온톨로지 간의 유사도 검색에 곧바로 적용될 수 있는 장점을 지닌다.

  • PDF