• Title/Summary/Keyword: 가공정보분석

Search Result 618, Processing Time 0.028 seconds

The research of preprocessing technique of Data Compaction customized to network packet data (네트워크 패킷 데이터 마이닝을 위한 데이터 압축 전처리 기법에 관한 연구)

  • Na, Sang-Hyuck;Lee, Won-Suk
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2009.05a
    • /
    • pp.341-344
    • /
    • 2009
  • 네트워크(Network) 라우터(Router)와 스위치(Switch) 장치에서 수많은 패킷(Packet)이 통과된다. 네트워크에 연결된 컴퓨터가 20대일 경우에 일일 평균 패킷 전송양은 약 400GB 정도에 이른다. 이러한 패킷 데이터를 분석하기 위해서는 수집된 데이터를 디스크 장치에 저장할 수 있는 대규모의 저장공간과 주기적인 백업이 필요하다. 수집된 데이터 원형에는 사용자가 원하는 정보뿐만 아니라 불필요한 정보가 산재해있다. 따라서 수집된 데이터를 원형 그대로 저장하는 것이 아니라 원하는 정보(Information)와 지식(Knowledge)이 유지되고 쉽게 식별될 수 있도록 데이터를 가공해서 요약된 정보를 유지하는 것이 효과적이다. 전 세계적으로 네트워크를 통과하는 패킷 데이터의 양이 헤아릴 수 없을 만큼 증가하고, 인터넷 보급률이 증가함에 따라서 인터넷 사용자 및 소비자의 정보 분석의 필요성이 부각되고 있다. 본 논문에서는 네트워크에서 수집된 패킷 데이터에 적합한 데이터 전처리 기법(preprocessing)을 제안한다.

  • PDF

A Study on Building Methodology of Virtual Organization (가상조직의 구축방법에 관한 연구)

  • 김정윤;양경훈
    • Journal of Intelligence and Information Systems
    • /
    • v.4 no.1
    • /
    • pp.59-77
    • /
    • 1998
  • 정보의 중요성과 함께 컴퓨터를 중심으로 급속하게 발전한 정보기술은 정보를 가공하고 의사결정에 도움을 주며 전략적 차원에서 우위를 가지게 하는 역할을 하였고 조직의 구조를 근본적으로 개편하였다. 이로 인해 새로운 개념인 '가상기업'을 창출하였다. 본 논문은 정보화 사회에 기업의 경쟁력을 극대화할 것으로 예상되는 가상기업의 모델을 제시하고 실제적인 가상기업 구축방법을 제시하는 목적이 있다. 먼저 아직 초기 단계의 개념인 가상기업의 개념 정립을 위해 인터넷 자료와 문헌 연구를 통하여 가상기업에 대한 모델을 제시하였고 모델에서는 기존 연구들을 종합하여 가상기업의 정의를 내리고 정의를 중심으로 특징과 단점을 제시하였다. 다음으로 퍼지이론을 응용하여 가상기업의 구축방법을 제시하였다. 구축방법으로는 퍼지이론이 크게 세 부분에 적용이 된다. 첫째로 퍼지이론이 사용되는 부분은 현재의 업무를 분석하여 기존의 업무와 유사성을 찾는 작업이다. 분석된 업무를 통해 제시된 기준을 이용하여 기존의 업무와 유사한 성격을 가진 기존 업무를 찾고 이 업무를 효과적으로 수행 한 팀들을 찾는 작업이 이루어진다. 둘째로 각 팀의 능력을 상대적으로 평가하는 방법에 퍼지 Rank Ordering 방법을 사용한다. 여러 팀이 기존의 업무를 수행한 결과 나타날 때 각 팀의 이번 업무에서 요구하는 기준에 상대적으로 만족하는 정도를 파악한다. 마지막으로 퍼지 종합적 평가 방법을 이용하여 가상조직의 업무에 적절한 팀을 찾아내는 작업을 한다.

  • PDF

A Case Study of Basic Data Science Education using Public Big Data Collection and Spreadsheets for Teacher Education (교사교육을 위한 공공 빅데이터 수집 및 스프레드시트 활용 기초 데이터과학 교육 사례 연구)

  • Hur, Kyeong
    • Journal of The Korean Association of Information Education
    • /
    • v.25 no.3
    • /
    • pp.459-469
    • /
    • 2021
  • In this paper, a case study of basic data science practice education for field teachers and pre-service teachers was studied. In this paper, for basic data science education, spreadsheet software was used as a data collection and analysis tool. After that, we trained on statistics for data processing, predictive hypothesis, and predictive model verification. In addition, an educational case for collecting and processing thousands of public big data and verifying the population prediction hypothesis and prediction model was proposed. A 34-hour, 17-week curriculum using a spreadsheet tool was presented with the contents of such basic education in data science. As a tool for data collection, processing, and analysis, unlike Python, spreadsheets do not have the burden of learning program- ming languages and data structures, and have the advantage of visually learning theories of processing and anal- ysis of qualitative and quantitative data. As a result of this educational case study, three predictive hypothesis test cases were presented and analyzed. First, quantitative public data were collected to verify the hypothesis of predicting the difference in the mean value for each group of the population. Second, by collecting qualitative public data, the hypothesis of predicting the association within the qualitative data of the population was verified. Third, by collecting quantitative public data, the regression prediction model was verified according to the hypothesis of correlation prediction within the quantitative data of the population. And through the satisfaction analysis of pre-service and field teachers, the effectiveness of this education case in data science education was analyzed.

Analyzing Writer's Storytelling Task and Designing a Support System (작가의 스토리텔링 집필 직무 분석 및 지원 시스템 설계)

  • Ahn, Kyung-Jin;Yoon, Wan-Chul;Jun, Bong-Guan
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02b
    • /
    • pp.670-675
    • /
    • 2006
  • 이야기는 그 자체만으로 전달될 수 없기 때문에, 이야기만큼이나 중요한 것은 가공되지 않은 상태의 이야기를 구성지게 전달하는 텔링의 방식이다. 디지털 매체가 발전하고 보다 다양한 전달 방식이 등장하면서 텔링이 더욱 강조되고 이야기보다는 스토리텔링이라는 개념이 주목 받게 되었다. 이 연구는 스토리와 텔링을 구분하는 관점에서, 스토리텔링을 개발하는 작가들의 작업을 분석하고 그들을 도와주는 지원 시스템을 설계했다. 작가의 태스크를 분석하기 위해 본 연구에서는 집필 프로세스에 대해 현업 작가를 인터뷰하고 기존의 writing tool의 기능과 이야기 구조 이론을 참고하여 검토했다. 또한 본 연구에서는 이야기가 흘러감에 따라 변화하는 정보-인물 간 관계, 사실 정보-들을 고려하였다. 작가는 이야기가 흘러가는 매 순간 모든 이야기 속의 사실을 알고 있지만, 독자와 이야기 속의 등장 인물들은 이야기가 흘러감에 따라 작가가 의도하는 순서와 방식으로 사실 정보들을 하나씩 습득하게 된다. 이러한 데이터를 수집/관리하고, 다시 변형하고, 또 유지/보수하는 것이 작가에게 가장 큰 인지적인 부담이기 때문에 이를 지원하도록 노력했다.

  • PDF

Table Clustering Using Inter-schema Association (스키마간 연관성을 이용한 테이블 군집화 기법)

  • 조순이;이도헌
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.85-87
    • /
    • 2001
  • 업무 데이터 분석을 통한 종합적인 의사결정을 지원할 수 있도록 데이터웨어하우스, OLAP, 데이터마이닝을 적용하려는 기업의 요구가 많아졌다. 그래서 기초 데이터의 이해, 선별, 수집, 가공, 정제가 매우 중요한 과정이나 테이블명 및 속성명이 표준화되어있지 않고 코드나 시스템 카탈로그와 같은 기본 데이터는 부정확하고 부족하다. 본 논문에서는 거의 스키마 정보에만 의존하여 테이블의 의미적 연관성에 근거한 유사한 특성을 가진 집단끼리 분류하는 대략적인 군집분석 방법을 제안한다. 질의 수행시 사용자가 설정한 임계 거리에 ㄸ라 관련된 군집만 검색함으로써 신속한 응답시간을 보장하고, 분석시점에서 다양한 질의에 유연하게 대처할 수 있다는 장점이 있다. 또한 실제 데이터에 본 연구를 적용하여 산출한 군집결과와 사람이 매뉴얼하게 그룹핑한 군집결과와 비교한다.

  • PDF

Similarity Pattern Analysis of Web Log Data using Multidimensional FCM (다차원 FCM을 이용한 웹 로그 데이터의 유사 패턴 분석)

  • 김미라;조동섭
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.190-192
    • /
    • 2002
  • 데이터 마이닝(Data Mining)이란 저장된 많은 양의 자료로부터 통계적 수학적 분석방법을 이용하여 다양한 가치 있는 정보를 찾아내는 일련의 과정이다. 데이터 클러스터링은 이러한 데이터 마이닝을 위한 하나의 중요한 기법이다. 본 논문에서는 Fuzzy C-Means 알고리즘을 이용하여 웹 사용자들의 행위가 기록되어 있는 웹 로그 데이터를 데이터 클러스터링 하는 방법에 관하여 연구하고자 한다. Fuzzv C-Means 클러스터링 알고리즘은 각 데이터와 각 클러스터 중심과의 거리를 고려한 유사도 측정에 기초한 목적 함수의 최적화 방식을 사용한다. 웹 로그 데이터의 여러 필드 중에서 사용자 IP, 시간, 웹 페이지 필드를 WLDF(Web Log Data for FCM)으로 가공한 후, 다차원 Fuzzy C-Means 클러스터링을 한다. 그리고 이를 이용하여 샘플 데이터와 임의의 데이터간의 유사 패턴 분석을 하고자 한다.

  • PDF

Research on text mining based malware analysis technology using string information (문자열 정보를 활용한 텍스트 마이닝 기반 악성코드 분석 기술 연구)

  • Ha, Ji-hee;Lee, Tae-jin
    • Journal of Internet Computing and Services
    • /
    • v.21 no.1
    • /
    • pp.45-55
    • /
    • 2020
  • Due to the development of information and communication technology, the number of new / variant malicious codes is increasing rapidly every year, and various types of malicious codes are spreading due to the development of Internet of things and cloud computing technology. In this paper, we propose a malware analysis method based on string information that can be used regardless of operating system environment and represents library call information related to malicious behavior. Attackers can easily create malware using existing code or by using automated authoring tools, and the generated malware operates in a similar way to existing malware. Since most of the strings that can be extracted from malicious code are composed of information closely related to malicious behavior, it is processed by weighting data features using text mining based method to extract them as effective features for malware analysis. Based on the processed data, a model is constructed using various machine learning algorithms to perform experiments on detection of malicious status and classification of malicious groups. Data has been compared and verified against all files used on Windows and Linux operating systems. The accuracy of malicious detection is about 93.5%, the accuracy of group classification is about 90%. The proposed technique has a wide range of applications because it is relatively simple, fast, and operating system independent as a single model because it is not necessary to build a model for each group when classifying malicious groups. In addition, since the string information is extracted through static analysis, it can be processed faster than the analysis method that directly executes the code.

Performance of one batch type and multi functional pre-treatment agent for CPB process (CPB용 다기능성 일욕형 전처리 조제의 성능)

  • Park, Beob;Cho, Yeon-Jeong;Koo, Kang
    • Proceedings of the Korean Society of Dyers and Finishers Conference
    • /
    • 2012.03a
    • /
    • pp.61-61
    • /
    • 2012
  • 현재 기능성 의류 섬유시장에서도, 요구하는 주요 기능들의 퍼포먼스 수준을 보여주는 과학적 수치들과 함께 기능성 섬유제작 과정에서 얼마나 친환경적인 제조과정을 거쳤는가에 대한 정보들도 요구하고 있는 중이다. 섬유에 인간과 환경에 유해한 성분이 최대한 배제됐으며 생산 과정에서의 자연자원의 낭비가 이뤄지지 않았음을 증명해야한다. CPB 전처리 공정은 혼방직물과 같이 서로 다른 물성을 가지는 직물에 대한 저온 처리로 섬유 손상을 최소화하고, $CO_2$ 발생량 및 에너지 소비량을 감소시킬 수 있는 이점이 있다. CPB 전처리는 호발, 정련, 표백을 포함하는 공정으로 일욕으로 처리 시 패딩, 수세, 와인딩 공정을 단축시키기 때문에 약품 소비량 감소와 에너지 사용 절감 효과가 있어 전 세계적으로 확산되고 있는 Green Technology이다. 본 연구에서는 CPB용 전처리 조제(4~5종)을 일욕화 하여 가공업체 생산성 향상 및 원가절감, 환경유해성 감소를 목표로 하여 CPB 전처리의 최적 가공조건을 확립하는 것이 목표이다. 첨가 용제의 종류 및 첨가량을 변화시켜 각 조성비에 따른 sample을 제조하여 정련성, 호발성, 알칼리 안정성, Whiteness를 측정하여 전처리 성능을 분석하고, 과수안정성, 금속이온 봉쇄력을 비교하여 최적 조성비 및 중합조건을 확립하였다.

  • PDF

Downtime tracking for small-medium sized manufacturing company using shop floor monitoring (생산현장 모니터링을 이용한 중소 제조기업용 비가동 시간 수집 및 분석)

  • Lee, Jai-Kyung;Lee, Seung-Woo
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.19 no.4
    • /
    • pp.65-72
    • /
    • 2014
  • To improve the productivity of manufacturing company, the analysis of loss in shop floor has to be conducted and validated. This paper introduces the downtime tracking module using the pre-developed shop floor information acquisition system. To collect the downtime, it utilized shop floor monitoring information, user-registered downtime event, equipment diagnosis algorithm and operator's input. Also, it provided the user interface for the analysis of downtime. From the results of a pilot study, the usability of developed system was validated.

Study on Data Broadcast Specifications for Interactive Services (대화형 서비스를 위한 데이터 방송 규격에 관한 연구)

  • 김정화;김환철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10c
    • /
    • pp.638-640
    • /
    • 1999
  • 디지털 방송의 시작으로 TV를 통한 디지털 데이터의 저장과 가공 및 전송이 가능해졌다. 이러한 데이터 방송은 디지털 방송의 활성화에 중요한 역할을 하게 된다. 본 논문에서는 국내외의 디지털 방송의 표준화 현황 및 기술 동향을 살펴본다. 또한 현재 세계적으로 주류를 이루고 있는 미국의 ATSC 데이터 방송 규격과 유럽의 DVB 데이터 방송 규격을 비교 분석하여 향후 국내의 데이터 방송 모델 정립에 이용하고자 한다.

  • PDF