• Title/Summary/Keyword: 데이터 수요

Search Result 40,277, Processing Time 0.067 seconds

Scheme for Preventing Attacks in ID-based Proxy Re-Encryption Environments (ID 기반 프록시 재암호화 환경에서 공모공격 방지를 위한 기술)

  • Kim, Won-Bin;Lee, Im-Yeong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.192-193
    • /
    • 2019
  • 클라우드 스토리지는 다양한 영역에서 이용가능하다. 일반적으로 데이터 저장, 이용에 사용되지만 추가적으로 데이터의 공유에 이용될 수도 있다. 이를 활용하여 단순 데이터 공유 및 데이터 구독 서비스 등 다양한 영역에 이용될 수 있다. 프록시 재암호화는 이러한 환경에서 데이터를 제 3자에게 안전하게 전달하기 위해 제안되었다. 프록시 재암호화는 데이터 소유자가 데이터를 암호화 한 뒤, 프록시에 보관하고, 위임자의 요청에 따라 데이터 소유자가 재암호화 키를 생성하여 프록시가 암호화된 데이터를 재차 암호화 할 수 있도록 한다. 프록시 재암호화는 암호화된 데이터를 제 3자에게 전달하기 위해 복호화 할 필요가 없기 때문에 데이터 원본을 노출 없이 안전하게 전달할 수 있다. 하지만 이러한 과정에서 프록시와 위임자가 결탁하여 데이터 소유자의 개인키를 복구하거나 재암호화 키를 위조하는 등의 위협이 발생할 수 있다. 이를 공모(결탁)공격이라 한다. 본 연구에서는 프록시 재암호화 기술에서 발생할 수 있는 공모공격을 방지하여, 보다 안전하게 이용할 수 있는 방법을 제시한다.

Discovery of Multiple-Level Association Rules using Relative Support of Data (데이터의 상대 지지도를 이용한 다단계 연관 규칙 탐사 기법)

  • 하단심;황부현
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.195-197
    • /
    • 2000
  • 데이더는 다양한 빈도 형태와 속성을 가지고 있으며 데이터의 연관 규칙 탐사 시 이러한 데이터의 빈도수를 고려할 수 있는 방법이 필요하다. 그러나 기존의 연관 규칙 탐사 알고리즘은 지지도와 신뢰도만을 가지고 데이터의 연관성을 발견하며 데이터들의 발생 빈도는 고려하지 않는다. 본 논문에서는 하위 단계의 데이터나 동일한 단계지만 상대적으로 발생 빈도가 적은 데이터들의 연관 규칙을 탐사할 수 있는 방법을 제안한다. 제안하는 방법은 데이터의 상대 지지도를 이용한 다단계 연관 규칙 탐사 기법을 수행함으로써 데이터의 발생 빈도를 고려한 연관 규칙을 탐사할 수 있다. 그리고 탐사된 연관 규칙은 마케팅 분야 등의 여러 응용에서 유용하게 이용될 수 있다.

  • PDF

Load Forecasting for the Holidays Using a Data mining with the Coefficient of Determination (결정계수 기반의 데이터 마이닝을 이용한 특수일 최대 전력 수요 예측)

  • Wi, Young-Min;Song, Kyung-Bin;Joo, Sung-Kwan
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.552-553
    • /
    • 2008
  • 본 논문에서는 특수일 전력 수요 예측을 위한 알고리즘을 제시하였다. 논문에서 제안하는 전력 수요 예측 알고리즘은 데이터 마이닝을 이용한 데이터 전처리 부분과 전처리된 데이터를 사용하여 특수일 수요를 예측하는 다항 회귀분석 부분으로 나누어진다. 데이터 전처리에서는 전력 수요 예측을 위한 과거 데이터 중에 과거 특수일 수요의 패턴을 잘 보여주는 데이터를 찾기 위해 온도와 수요의 관계를 이용한다. 데이터 마이닝의 기준으로 결정계수를 사용하였으며, 알고리즘은 k-nearest neighbor 절차를 사용하였다. 또한 제안된 기법은 2006년 특수일 전력 수요 예측을 통하여 기존 논문의 결과와 비교 분석하여 기존 방식 대비 특수일 전력 수요예측 관련 우수성을 검증하였다.

  • PDF

재난정보관리를 위한 재난안전데이터 표준화 기술 개발

  • Kim, Byeong-Sik;Lee, Dong-Seop
    • Water for future
    • /
    • v.52 no.1
    • /
    • pp.40-51
    • /
    • 2019
  • 본 연구를 통해 재난안전데이터의 공동활용을 위해 다양한 관점에서의 데이터 표준화가 필요하다는 것을 확인하였다. 향후 4차 산업혁명에서의 데이터의 위치와 빅데이터에서의 데이터 융합, 공공데이터 이용에 대한 패러다임의 변화에서도 볼 수 있듯이 재난안전정보 뿐만 아니라 데이터는 수요자 중심의 활용과 이용으로 새로운 데이터의 가치를 얻을 수 있음을 알 수 있다. 이러한 재난안전정보의 효율적이고 체계적인 공동활용을 위해 재난안전정보 관점에서 비정형 자료의 데이터 수집, 데이터베이스의 관리 및 데이터의 표준(안), 재난안전정보의 교환 표준(안) 및 공동활용 전략을 제시하였다. 이러한 연구를 통해 재난안전정보의 공동활용 체계를 구축하여 정보공유 및 재난안전정보의 추적, 활용이 가능하게 하여 신속하게 대국민 재난정보를 제공할 수 있는 체계를 구축하여 경험기반의 재난관리 및 지능형 재난관리의 의사결정을 지원할 수 있는 시스템으로 확장할 수 있을 것으로 기대한다.

Forecasting Open Government Data Demand Using Keyword Network Analysis (키워드 네트워크 분석을 이용한 공공데이터 수요 예측)

  • Lee, Jae-won
    • Informatization Policy
    • /
    • v.27 no.4
    • /
    • pp.24-46
    • /
    • 2020
  • This study proposes a way to timely forecast open government data (OGD) demand(i.e., OGD requests, search queries, etc.) by using keyword network analysis. According to the analysis results, most of the OGD belonging to the high-demand topics are provided by the domestic OGD portal(data.go.kr), while the OGD related to users' actual needs predicted through topic association analysis are rarely provided. This is because, when providing(or selecting) OGD, relevance to OGD topics takes precedence over relevance to users' OGD requests. The proposed keyword network analysis framework is expected to contribute to the establishment of OGD policies for public institutions in the future as it can quickly and easily forecast users' demand based on actual OGD requests.

A Study on Calculating Over-sampling Ratio using Classification Complexity (분류 복잡도를 활용한 오버 샘플링 비율 산출 알고리즘 개발)

  • Lee, Do-Hyeon;Kim, Kyoungok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.591-594
    • /
    • 2020
  • 불균형 데이터는 범주에 따른 데이터의 분포가 불균형한 데이터를 의미한다. 이런 데이터를 활용해 기존 분류 알고리즘으로 분류기를 학습하면 성능이 저하되는 문제가 발생한다. 오버 샘플링은 이를 해결하기 위한 기법 중 하나로 수가 적은 범주[이하 소수 범주]에 속한 데이터 수를 임의로 증가시킨다. 기존 연구들에서는 수가 많은 범주[이하 다수 범주]에 속한 데이터 수와 동일한 크기만큼 증가시키는 경우가 많다. 이는 증가시키는 샘플의 수를 결정할 때 범주 간 데이터 수 비율만 고려한 것이다. 그런데 데이터가 동일한 수준의 불균형 정도를 갖더라도 범주별 데이터 분포에 따라서 분류 복잡도가 다르며, 경우에 따라 데이터 분포에서 존재하는 불균형 정도를 완전히 해소하지 않아도 된다. 이에 본 논문은 분류 복잡도를 활용해 데이터 셋 별 적정 오버 샘플링 비율을 산출하는 알고리즘을 제안한다.

Design and Implementation of an XML-based Translator for Metadata Interchange in RDBs (RDB 대상 메타데이터 교환을 위한 XML기반 번역기 설계 및 구현)

  • Lee, Wol-Yeong;Lee, Gi-Ho
    • Journal of KIISE:Databases
    • /
    • v.28 no.1
    • /
    • pp.48-56
    • /
    • 2001
  • XML은 여러 분야에서 다양한 타입의 데이터를 효과적으로 관리하기 위한 표준으로 사용되고 있다. 이러한 XML의 한 응용으로서 데이터베이스 시스템, 파일 시스템, OLTP시스템, OLAP시스템, 데이터웨어하우징을 위한 ETL 시스템, 데이터마이닝 시스템 등을 포함하는 다양한 타입의 데이터 처리 시스템 사이에서 메타데이터를 교환하기 위하여 XML을 이용하여 메타데이터를 표준화하는 것이다. 본 연구는 MDC(MetaData Coalition)에 제안한 일반적인 데이터 처리 시스템을 위한 메타데이터 교환 스펙인 MDIS(Metadata Interchange Specification)를 따르도록 설계한 관계형 데이터베이스 시스템의 메타데이터 교환을 위한 사양으로서 R-MDIS(MetaData Interchange Specification for RDBs) 모델을 제안하고 이에 따라 표현된 자료를 상호 데이터베이스 시스템 사이에서 교환할 수 있는 Export 함수와 Import 함수를 포함하는 번역기를 개발한다. 이 번역기는 메타데이터의 일관성을 유지하면서도 메타데이터의 양방향 흐름을 지원할 수 있도록 하는 정보를 포함하고 있다. 본 연구는 구체적인 관계형 데이터베이스 시스템에서의 메타데이터 교환을 위한 실제적인 번역기를 구현함으로써 다양한 종류의 데이터 처리 시스템들 사이에서 메타데이터 불일치 문제를 해결할 수 있는 근거를 제시하였다. 둘째, XML을 이용하여 메타데이터 교환 사양을 설정함으로서 구도화된 데이터나 구조화되지 않은 데이터 모두에 대하여 일관된 방법으로 데이터 교환이 가능하도록 하여 효율적인 정보 교환을 할 수 있다는 것을 보여 주었다. 셋째, 본 연구에서 개발한 번역기는 메타데이터 교환에 의해 데이터들을 공유하게 함으로서 효율적으로 관리하지 못하던 데이터들을 효율적으로 사용할 수 있게 함으로서 데이터 관리 문제에 해결책이 될 것이다.

  • PDF

A Study on the Compression and Major Pattern Extraction Method of Origin-Destination Data with Principal Component Analysis (주성분분석을 이용한 기종점 데이터의 압축 및 주요 패턴 도출에 관한 연구)

  • Kim, Jeongyun;Tak, Sehyun;Yoon, Jinwon;Yeo, Hwasoo
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.19 no.4
    • /
    • pp.81-99
    • /
    • 2020
  • Origin-destination data have been collected and utilized for demand analysis and service design in various fields such as public transportation and traffic operation. As the utilization of big data becomes important, there are increasing needs to store raw origin-destination data for big data analysis. However, it is not practical to store and analyze the raw data for a long period of time since the size of the data increases by the power of the number of the collection points. To overcome this storage limitation and long-period pattern analysis, this study proposes a methodology for compression and origin-destination data analysis with the compressed data. The proposed methodology is applied to public transit data of Sejong and Seoul. We first measure the reconstruction error and the data size for each truncated matrix. Then, to determine a range of principal components for removing random data, we measure the level of the regularity based on covariance coefficients of the demand data reconstructed with each range of principal components. Based on the distribution of the covariance coefficients, we found the range of principal components that covers the regular demand. The ranges are determined as 1~60 and 1~80 for Sejong and Seoul respectively.

A Review of the Methodology for Sophisticated Data Classification (정교한 데이터 분류를 위한 방법론의 고찰)

  • Kim, Seung Jae;Kim, Sung Hwan
    • Journal of Integrative Natural Science
    • /
    • v.14 no.1
    • /
    • pp.27-34
    • /
    • 2021
  • 전 세계적으로 인공지능(AI)을 구현하려는 움직임이 많아지고 있다. AI구현에서는 많은 양의 데이터, 목적에 맞는 데이터의 분류 등 데이터의 중요성을 뺄 수 없다. 이러한 데이터를 생성하고 가공하는 기술에는 사물인터넷(IOT)과 빅데이터(Big-data) 분석이 있으며 4차 산업을 이끌어 가는 원동력이라 할 수 있다. 또한 이러한 기술은 국가와 개인 차원에서 많이 활용되고 있으며, 특히나 특정분야에 집결되는 데이터를 기준으로 빅데이터 분석에 활용함으로써 새로운 모델을 발견하고, 그 모델로 새로운 값을 추론하고 예측함으로써 미래비전을 제시하려는 시도가 많아지고 있는 추세이다. 데이터 분석을 통한 결론은 데이터가 가지고 있는 정보의 정확성에 따라 많은 변화를 가져올 수 있으며, 그 변화에 따라 잘못된 결과를 발생시킬 수도 있다. 이렇듯 데이터의 분석은 데이터가 가지는 정보 또는 분석 목적에 맞는 데이터 분류가 매우 중요하다는 것을 알 수 있다. 또한 빅데이터 분석결과 통계량의 신뢰성과 정교함을 얻기 위해서는 각 변수의 의미와 변수들 간의 상관관계, 다중공선성 등을 고려하여 분석해야 한다. 즉, 빅데이터 분석에 앞서 분석목적에 맞도록 데이터의 분류가 잘 이루어지도록 해야 한다. 이에 본 고찰에서는 AI기술을 구현하는 머신러닝(machine learning, ML) 기법에 속하는 분류분석(classification analysis, CA) 중 의사결정트리(decision tree, DT)기법, 랜덤포레스트(random forest, RF)기법, 선형분류분석(linear discriminant analysis, LDA), 이차선형분류분석(quadratic discriminant analysis, QDA)을 이용하여 데이터를 분류한 후 데이터의 분류정도를 평가함으로써 데이터의 분류 분석률 향상을 위한 방안을 모색하려 한다.

Meta-Modeling for XML Based Cyber Learning Management System (XML 기반의 사이버강좌 관리시스템을 위한 메타 모델링)

  • 김혜영;김화선;김흥식;최흥국
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.11b
    • /
    • pp.673-676
    • /
    • 2002
  • XML은 모든 분야의 데이터를 저장하고 다른 형태의 데이터로 변화될 수 있는 강한 힘을 지니고 있다. 웹에서의 가상 교육에 대한 데이터도 XML로 저장한다면 한번 저장된 데이터는 어떤 사이트에서든 조금의 수정없이 바로 사용할 수 있다. 물론 이 데이터 구조가 미리 정의되어 모든 사이트에서 이 구조대로 XML 데이터를 만들어야 가능하다. 현재 사이버 교육 사이트들의 강좌 데이터는 데이터베이스에, 데이터베이스에서 데이터를 가져오는 것은 ASP, 가져온 데이터를 사용자에게 서비스하는 최종 산출물은 HTML로 구성되어 있어 이 데이터는 더 이상 가공을 할 수 없게 된다. 즉 각각의 사이버 교육 사이트들의 데이터는 서로 공유될 수 없다. 본 논문은 현재 사이버스쿨의 한계를 벗어날 수 있도록 새로운 표준으로 제안되어진 XML을 이용하여 사이버 강좌 관리시스템을 위한 통일된 XML 데이터 구조를 정의하고 웹에서 어떻게 사용해야 하는지 모델을 제시하였다.

  • PDF