• 제목/요약/키워드: 데이터 수요

검색결과 39,799건 처리시간 0.058초

ID 기반 프록시 재암호화 환경에서 공모공격 방지를 위한 기술 (Scheme for Preventing Attacks in ID-based Proxy Re-Encryption Environments)

  • 김원빈;이임영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.192-193
    • /
    • 2019
  • 클라우드 스토리지는 다양한 영역에서 이용가능하다. 일반적으로 데이터 저장, 이용에 사용되지만 추가적으로 데이터의 공유에 이용될 수도 있다. 이를 활용하여 단순 데이터 공유 및 데이터 구독 서비스 등 다양한 영역에 이용될 수 있다. 프록시 재암호화는 이러한 환경에서 데이터를 제 3자에게 안전하게 전달하기 위해 제안되었다. 프록시 재암호화는 데이터 소유자가 데이터를 암호화 한 뒤, 프록시에 보관하고, 위임자의 요청에 따라 데이터 소유자가 재암호화 키를 생성하여 프록시가 암호화된 데이터를 재차 암호화 할 수 있도록 한다. 프록시 재암호화는 암호화된 데이터를 제 3자에게 전달하기 위해 복호화 할 필요가 없기 때문에 데이터 원본을 노출 없이 안전하게 전달할 수 있다. 하지만 이러한 과정에서 프록시와 위임자가 결탁하여 데이터 소유자의 개인키를 복구하거나 재암호화 키를 위조하는 등의 위협이 발생할 수 있다. 이를 공모(결탁)공격이라 한다. 본 연구에서는 프록시 재암호화 기술에서 발생할 수 있는 공모공격을 방지하여, 보다 안전하게 이용할 수 있는 방법을 제시한다.

데이터의 상대 지지도를 이용한 다단계 연관 규칙 탐사 기법 (Discovery of Multiple-Level Association Rules using Relative Support of Data)

  • 하단심;황부현
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (1)
    • /
    • pp.195-197
    • /
    • 2000
  • 데이더는 다양한 빈도 형태와 속성을 가지고 있으며 데이터의 연관 규칙 탐사 시 이러한 데이터의 빈도수를 고려할 수 있는 방법이 필요하다. 그러나 기존의 연관 규칙 탐사 알고리즘은 지지도와 신뢰도만을 가지고 데이터의 연관성을 발견하며 데이터들의 발생 빈도는 고려하지 않는다. 본 논문에서는 하위 단계의 데이터나 동일한 단계지만 상대적으로 발생 빈도가 적은 데이터들의 연관 규칙을 탐사할 수 있는 방법을 제안한다. 제안하는 방법은 데이터의 상대 지지도를 이용한 다단계 연관 규칙 탐사 기법을 수행함으로써 데이터의 발생 빈도를 고려한 연관 규칙을 탐사할 수 있다. 그리고 탐사된 연관 규칙은 마케팅 분야 등의 여러 응용에서 유용하게 이용될 수 있다.

  • PDF

결정계수 기반의 데이터 마이닝을 이용한 특수일 최대 전력 수요 예측 (Load Forecasting for the Holidays Using a Data mining with the Coefficient of Determination)

  • 위영민;송경빈;주성관
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 제39회 하계학술대회
    • /
    • pp.552-553
    • /
    • 2008
  • 본 논문에서는 특수일 전력 수요 예측을 위한 알고리즘을 제시하였다. 논문에서 제안하는 전력 수요 예측 알고리즘은 데이터 마이닝을 이용한 데이터 전처리 부분과 전처리된 데이터를 사용하여 특수일 수요를 예측하는 다항 회귀분석 부분으로 나누어진다. 데이터 전처리에서는 전력 수요 예측을 위한 과거 데이터 중에 과거 특수일 수요의 패턴을 잘 보여주는 데이터를 찾기 위해 온도와 수요의 관계를 이용한다. 데이터 마이닝의 기준으로 결정계수를 사용하였으며, 알고리즘은 k-nearest neighbor 절차를 사용하였다. 또한 제안된 기법은 2006년 특수일 전력 수요 예측을 통하여 기존 논문의 결과와 비교 분석하여 기존 방식 대비 특수일 전력 수요예측 관련 우수성을 검증하였다.

  • PDF

재난정보관리를 위한 재난안전데이터 표준화 기술 개발

  • 김병식;이동섭
    • 물과 미래
    • /
    • 제52권1호
    • /
    • pp.40-51
    • /
    • 2019
  • 본 연구를 통해 재난안전데이터의 공동활용을 위해 다양한 관점에서의 데이터 표준화가 필요하다는 것을 확인하였다. 향후 4차 산업혁명에서의 데이터의 위치와 빅데이터에서의 데이터 융합, 공공데이터 이용에 대한 패러다임의 변화에서도 볼 수 있듯이 재난안전정보 뿐만 아니라 데이터는 수요자 중심의 활용과 이용으로 새로운 데이터의 가치를 얻을 수 있음을 알 수 있다. 이러한 재난안전정보의 효율적이고 체계적인 공동활용을 위해 재난안전정보 관점에서 비정형 자료의 데이터 수집, 데이터베이스의 관리 및 데이터의 표준(안), 재난안전정보의 교환 표준(안) 및 공동활용 전략을 제시하였다. 이러한 연구를 통해 재난안전정보의 공동활용 체계를 구축하여 정보공유 및 재난안전정보의 추적, 활용이 가능하게 하여 신속하게 대국민 재난정보를 제공할 수 있는 체계를 구축하여 경험기반의 재난관리 및 지능형 재난관리의 의사결정을 지원할 수 있는 시스템으로 확장할 수 있을 것으로 기대한다.

키워드 네트워크 분석을 이용한 공공데이터 수요 예측 (Forecasting Open Government Data Demand Using Keyword Network Analysis)

  • 이재원
    • 정보화정책
    • /
    • 제27권4호
    • /
    • pp.24-46
    • /
    • 2020
  • 본 연구는 키워드 네트워크 분석을 이용하여 공공데이터 수요(즉, 공공데이터 제공신청, 검색 질의 등)를 적시에 예측하는 방법을 제안한다. 분석 결과에 따르면, 수요가 높은 토픽에 속하는 공공데이터는 대부분 국내 공공데이터 포털(data.go.kr)에서 제공되고 있지만, 토픽 연관 분석을 통해 예측된 이용자의 실제 요구와 관련된 공공데이터는 거의 제공되지 않고 있다. 공공데이터를 제공(또는 선정)할 때, 이용자의 공공데이터 제공신청과의 관련성보다 공공데이터 토픽과의 관련성이 우선시되기 때문이다. 제안된 키워드 네트워크 분석 프레임워크는 실제 공공데이터 제공신청을 바탕으로 이용자들의 수요를 빠르고 쉽게 예측할 수 있으므로, 향후 공공기관(중앙부처·지방자치단체·산하기관)의 공공데이터 정책 수립에 이바지할 수 있을 것으로 기대된다.

데이터 오너 관리를 통한 데이터 품질 향상 (Improving data quality through Data Owners management)

  • 박지수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.278-281
    • /
    • 2007
  • 데이터 품질 기준은 반드시 현업의 입장에서 바라봐야 하며, 현업의 마인드가 데이터 품질에 가장 결정적인 영향을 미친다. 이에 따라 데이터 품질을 향상시키기 위해서는 현업이 데이터 품질 관리에 직접 참여할 수 있는 연구가 필요하다. 본 연구에서는 데이터 값(Data Value)에 대한 데이터 오너 (Owner)를 부여하여 데이터 품질 오류 시 현업이 직접 데이터 품질 관리 프로세스에 참여 할 수 있는 방안을 제시하였다. 데이터 품질 관리 프로세스는 데이터 품질 대상 및 기준을 정의하고 측정, 분석, 개선하는 방법이다. 본 연구에서 제시한 데이터 오너 관리 방안은 보다 효율적인 데이터 품질 관리 프로세스를 개선 시킬 수 있을 것이다.

  • PDF

분류 복잡도를 활용한 오버 샘플링 비율 산출 알고리즘 개발 (A Study on Calculating Over-sampling Ratio using Classification Complexity)

  • 이도현;김경옥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.591-594
    • /
    • 2020
  • 불균형 데이터는 범주에 따른 데이터의 분포가 불균형한 데이터를 의미한다. 이런 데이터를 활용해 기존 분류 알고리즘으로 분류기를 학습하면 성능이 저하되는 문제가 발생한다. 오버 샘플링은 이를 해결하기 위한 기법 중 하나로 수가 적은 범주[이하 소수 범주]에 속한 데이터 수를 임의로 증가시킨다. 기존 연구들에서는 수가 많은 범주[이하 다수 범주]에 속한 데이터 수와 동일한 크기만큼 증가시키는 경우가 많다. 이는 증가시키는 샘플의 수를 결정할 때 범주 간 데이터 수 비율만 고려한 것이다. 그런데 데이터가 동일한 수준의 불균형 정도를 갖더라도 범주별 데이터 분포에 따라서 분류 복잡도가 다르며, 경우에 따라 데이터 분포에서 존재하는 불균형 정도를 완전히 해소하지 않아도 된다. 이에 본 논문은 분류 복잡도를 활용해 데이터 셋 별 적정 오버 샘플링 비율을 산출하는 알고리즘을 제안한다.

RDB 대상 메타데이터 교환을 위한 XML기반 번역기 설계 및 구현 (Design and Implementation of an XML-based Translator for Metadata Interchange in RDBs)

  • 이월영;이기호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제28권1호
    • /
    • pp.48-56
    • /
    • 2001
  • XML은 여러 분야에서 다양한 타입의 데이터를 효과적으로 관리하기 위한 표준으로 사용되고 있다. 이러한 XML의 한 응용으로서 데이터베이스 시스템, 파일 시스템, OLTP시스템, OLAP시스템, 데이터웨어하우징을 위한 ETL 시스템, 데이터마이닝 시스템 등을 포함하는 다양한 타입의 데이터 처리 시스템 사이에서 메타데이터를 교환하기 위하여 XML을 이용하여 메타데이터를 표준화하는 것이다. 본 연구는 MDC(MetaData Coalition)에 제안한 일반적인 데이터 처리 시스템을 위한 메타데이터 교환 스펙인 MDIS(Metadata Interchange Specification)를 따르도록 설계한 관계형 데이터베이스 시스템의 메타데이터 교환을 위한 사양으로서 R-MDIS(MetaData Interchange Specification for RDBs) 모델을 제안하고 이에 따라 표현된 자료를 상호 데이터베이스 시스템 사이에서 교환할 수 있는 Export 함수와 Import 함수를 포함하는 번역기를 개발한다. 이 번역기는 메타데이터의 일관성을 유지하면서도 메타데이터의 양방향 흐름을 지원할 수 있도록 하는 정보를 포함하고 있다. 본 연구는 구체적인 관계형 데이터베이스 시스템에서의 메타데이터 교환을 위한 실제적인 번역기를 구현함으로써 다양한 종류의 데이터 처리 시스템들 사이에서 메타데이터 불일치 문제를 해결할 수 있는 근거를 제시하였다. 둘째, XML을 이용하여 메타데이터 교환 사양을 설정함으로서 구도화된 데이터나 구조화되지 않은 데이터 모두에 대하여 일관된 방법으로 데이터 교환이 가능하도록 하여 효율적인 정보 교환을 할 수 있다는 것을 보여 주었다. 셋째, 본 연구에서 개발한 번역기는 메타데이터 교환에 의해 데이터들을 공유하게 함으로서 효율적으로 관리하지 못하던 데이터들을 효율적으로 사용할 수 있게 함으로서 데이터 관리 문제에 해결책이 될 것이다.

  • PDF

주성분분석을 이용한 기종점 데이터의 압축 및 주요 패턴 도출에 관한 연구 (A Study on the Compression and Major Pattern Extraction Method of Origin-Destination Data with Principal Component Analysis)

  • 김정윤;탁세현;윤진원;여화수
    • 한국ITS학회 논문지
    • /
    • 제19권4호
    • /
    • pp.81-99
    • /
    • 2020
  • 기종점 데이터는 수요 분석 및 서비스 설계를 위해서 대중교통, 도로운영 등 다양한 분야에서 저장 및 활용되고 있다. 최근 빅데이터의 활용성이 증대되면서 기종점 데이터의 분석 및 활용에 대한 수요도 함께 증가하고 있다. 기존의 일반적인 교통 정보 데이터가 수집장비 수(n)에 비례하여 데이터양이 증가(α·n)하는 것과는 다르게, 기종점 데이터는 수집지점 수(n)의 증가에 따라 수집 데이터의 양이 기하급수적으로 증가(α·n2)하는 경향이 있다. 이로 인하여 기종점 데이터를 원시 데이터의 형태로 장기간 저장하고 빅데이터 분석에 활용하는 것은 대용량의 저장 공간이 필요하다는 것을 고려할 때 실용적 대안으로 여겨지지 않고 있다. 이와 함께 기종점 데이터는 0~10 사이의 작은 수요 부분에 패턴화된 형태와 무작위 적인 형태의 데이터가 섞여있어 작은 수요가 그룹화되어 발생하는 주요 패턴을 추출하기에 어려움이 있다. 이러한 기종점 데이터의 저장용량의 한계와 패턴화 분석의 한계를 극복하고자 본 연구에서는 주성분 분석을 활용한 대중교통 기종점 데이터의 압축 및 분석 방법을 제안하였다. 본 연구에서는 서울시와 세종시의 대중교통 이용 데이터를 활용하여 모빌리티 데이터를 분석하고, 모빌리티 기종점 데이터에 포함된 무작위 성향이 높은 데이터를 제거하기 위해 주성분분석 기반의 데이터 압축 및 복원에 관한 연구를 수행하였다. 주성분분석으로 분해된 기종점 데이터와 원데이터를 비교하여 주요한 수요 패턴을 찾고 이를 통해 압축률과 복원율을 높일 수 있는 주성분 범위를 제안하였다. 본 연구에서 분석한 결과, 서울시 기준 1~80, 세종시 기준 1~60까지의 주성분을 사용할 경우 주요 이동 데이터의 손실 없이 기종점 데이터에 포함되어있는 노이즈를 제거하고 데이터를 압축 및 복원이 가능하였다.

정교한 데이터 분류를 위한 방법론의 고찰 (A Review of the Methodology for Sophisticated Data Classification)

  • 김승재;김성환
    • 통합자연과학논문집
    • /
    • 제14권1호
    • /
    • pp.27-34
    • /
    • 2021
  • 전 세계적으로 인공지능(AI)을 구현하려는 움직임이 많아지고 있다. AI구현에서는 많은 양의 데이터, 목적에 맞는 데이터의 분류 등 데이터의 중요성을 뺄 수 없다. 이러한 데이터를 생성하고 가공하는 기술에는 사물인터넷(IOT)과 빅데이터(Big-data) 분석이 있으며 4차 산업을 이끌어 가는 원동력이라 할 수 있다. 또한 이러한 기술은 국가와 개인 차원에서 많이 활용되고 있으며, 특히나 특정분야에 집결되는 데이터를 기준으로 빅데이터 분석에 활용함으로써 새로운 모델을 발견하고, 그 모델로 새로운 값을 추론하고 예측함으로써 미래비전을 제시하려는 시도가 많아지고 있는 추세이다. 데이터 분석을 통한 결론은 데이터가 가지고 있는 정보의 정확성에 따라 많은 변화를 가져올 수 있으며, 그 변화에 따라 잘못된 결과를 발생시킬 수도 있다. 이렇듯 데이터의 분석은 데이터가 가지는 정보 또는 분석 목적에 맞는 데이터 분류가 매우 중요하다는 것을 알 수 있다. 또한 빅데이터 분석결과 통계량의 신뢰성과 정교함을 얻기 위해서는 각 변수의 의미와 변수들 간의 상관관계, 다중공선성 등을 고려하여 분석해야 한다. 즉, 빅데이터 분석에 앞서 분석목적에 맞도록 데이터의 분류가 잘 이루어지도록 해야 한다. 이에 본 고찰에서는 AI기술을 구현하는 머신러닝(machine learning, ML) 기법에 속하는 분류분석(classification analysis, CA) 중 의사결정트리(decision tree, DT)기법, 랜덤포레스트(random forest, RF)기법, 선형분류분석(linear discriminant analysis, LDA), 이차선형분류분석(quadratic discriminant analysis, QDA)을 이용하여 데이터를 분류한 후 데이터의 분류정도를 평가함으로써 데이터의 분류 분석률 향상을 위한 방안을 모색하려 한다.