• 제목/요약/키워드: 비안전데이터

Search Result 584, Processing Time 0.03 seconds

Algorithm for Determining Whether Work Data is Normal using Autoencoder (오토인코더를 이용한 작업 데이터 정상 여부 판단 알고리즘)

  • Kim, Dong-Hyun;Oh, Jeong Seok
    • Journal of the Korean Institute of Gas
    • /
    • v.25 no.5
    • /
    • pp.63-69
    • /
    • 2021
  • In this study, we established an algorithm to determine whether the work in the gas facility is a normal work or an abnormal work using the threshold of the reconstruction error of the autoencoder. This algorithm do deep learning the autoencoder only with time-series data of a normal work, and derives the optimized threshold of the reconstruction error of the normal work. We applied this algorithm to the time series data of the new work to get the reconstruction error, and then compare it with the reconstruction error threshold of the normal work to determine whether the work is normal work or abnormal work. In order to train and validate this algorithm, we defined the work in a virtual gas facility, and constructed the training data set consisting only of normal work data and the validation data set including both normal work and abnormal work data.

Reproduction of drought index using news big data analysis (뉴스 빅데이터 분석을 활용한 가뭄지수 재생산)

  • Jung, Jin Hong;Park, Dong Hyeok;Ahn, Jae Hyun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2020.06a
    • /
    • pp.386-386
    • /
    • 2020
  • 가뭄은 강수, 증발산, 대기온도, 토양수분 등 다양한 수문기상학적 인자들이 복합적으로 작용하여 발생되기 때문에 가뭄의 정확한 사상을 분석하는 것은 매우 어렵다. 또한 어떤 요인을 중심으로 고려하느냐에 따라 가뭄은 다양한 시각으로 정의되고 있다. 일정기간 평균 강수량보다 적은 강수로 인해 건조한 날이 지속되는 것, 즉 기상요소를 중심으로 가뭄을 정의하는 것을 기상학적 가뭄이라 하며, 작물의 생육에 필요한 수분을 중심으로 고려하는 것을 농업적 가뭄이라 한다. 또한 하천유량, 댐 저수량 등 전반적인 수자원 공급원의 부족을 수문학적 가뭄이라 한다. 이와 같이 다양하게 나타는 가뭄의 발생특성을 정량적으로 해석하기 위해 다양한 가뭄지수가 개발되어 왔다. 그러나 현재까지 개발된 가뭄지수들은 공통적으로 정형데이터를 활용하여 산정한다. 하지만 최근에는 비정형데이터를 활용하여 지수(Index)를 산정하거나, 재난관리에 적용하는 등 비정형 데이터의 활용이 급증하고 있다. 따라서 본 연구에서는 비정형 데이터(뉴스 데이터)를 활용하여 가뭄지수를 산정하고 기존의 가뭄지수들과의 상관성 분석을 실시 한 뒤, 지수결합을 통해 가뭄사상 분석의 새로운 방안을 제시하고자 하였다. 본 연구의 공간적범위는 2014~2015 충남서북부가뭄 지역 중 가장 큰 피해를 입었던 보령지역으로 선정하였으며 시간적범위는 2013~2016년으로 설정하였다. 비정형 데이터의 구축은 크롤링(Crawling)을 활용하여 네이버 뉴스의 기사를 수집하였으며 자료의 신뢰성을 위해 URL이 동일한 중복기사 및 '보령', '가뭄' 단어가 없는 기사는 제거하였다. 구축된 데이터를 기반으로 월별 빈도를 산출하고 표준점수(Z-score)로 환산하여 가뭄지수를 산정하였다. 산정된 가뭄지수가 어떤 가뭄의 유형(기상학적, 농업적, 수문학적)을 보이는지 확인하기 위해 기존의 가뭄지수들과 상관성분석을 실시하였으며, 가장 높은 상관성을 보이는 가뭄지수와 결합을 통해 새로운 가뭄 사상을 분석하였다. 본 연구에서 진행한 가뭄사상 분석은 향후 가뭄만이 아니라 다양한 재난분야에서 비정형 데이터를 활용한 분석의 기초로자료로 활용될 수 있을 것이다.

  • PDF

Analysis of k Value from k-anonymity Model Based on Re-identification Time (재식별 시간에 기반한 k-익명성 프라이버시 모델에서의 k값에 대한 연구)

  • Kim, Chaewoon;Oh, Junhyoung;Lee, Kyungho
    • The Journal of Bigdata
    • /
    • v.5 no.2
    • /
    • pp.43-52
    • /
    • 2020
  • With the development of data technology, storing and sharing of data has increased, resulting in privacy invasion. Although de-identification technology has been introduced to solve this problem, it has been proved many times that identifying individuals using de-identified data is possible. Even if it cannot be completely safe, sufficient de-identification is necessary. But current laws and regulations do not quantitatively specify the degree of how much de-identification should be performed. In this paper, we propose an appropriate de-identification criterion considering the time required for re-identification. We focused on the case of using the k-anonymity model among various privacy models. We analyzed the time taken to re-identify data according to the change in the k value. We used a re-identification method based on linkability. As a result of the analysis, we determined which k value is appropriate. If the generalized model can be developed by results of this paper, the model can be used to define the appropriate level of de-identification in various laws and regulations.

Fast Detection of Abnormal Data in IIoT with Segmented Linear Regression (분할 선형 회귀 분선을 통한 IIoT의 빠른 비정상 데이터 탐지)

  • Lee, Tae-Ho;Kim, Min-Woo;Lee, Byung-Jun;Kim, Kyung-Tae;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.07a
    • /
    • pp.101-102
    • /
    • 2019
  • 산업용 IoT (IIoT)는 최근들어 제조 시스템의 중요한 구성 요소로 간주된다. IIoT를 통해 시설에서 감지된 데이터를 수집하여 작동 조건을 적절하게 분석하고 처리한다. 여기서 비정상적인 데이터는 전체 시스템의 안전성 및 생산성을 위해 신속하게 탐지되어야한다. 기존 임계 값 기반 방법은 임계 값 미만의 유휴 오류 또는 비정상적인 동작을 감지 할 수 없으므로 IIoT에 적합하지 않다. 본 논문에서는 예측 구간과 우선 순위기반 스케줄링을 이용한 분할 선형 회귀 분석을 기반으로 비정상적인 데이터를 검출하는 새로운 방법을 제안한다. 시뮬레이션 결과 제안한 기법은 비정상적인 데이터 검출 속도에서 임계치, 일반 선형 회귀 또는 FCFS 정책을 사용하는 기존의 기법보다 우수함을 알 수 있었다.

  • PDF

A Study on Secure Searchable Encryption Considering Index Stucture (색인 구조를 고려한 안전한 검색가능암호기술에 관한 연구)

  • Lee, Sun-Ho;Lee, Im-Yeong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.738-739
    • /
    • 2013
  • 네트워크 및 컴퓨팅 기술의 발달로 데이터를 위탁 저장하고 이를 언제어디서든 다양한 단말로 처리할 수 있는 클라우드 스토리지 서비스가 활성화되고 있다. 하지만, 위탁 저장된 민감한 정보가 암호화 없이 저장된다면 서버에 저장된 데이터를 데이터 소유주의 동의 없이 공격자 및 비윤리적인 서버관리자가 열람할 수 있어 저장된 데이터의 암호화 및 이를 검색하는 검색 가능한 암호시스템(Searchable Encryption System)이 등장하게 되었다. 기존의 검색가능 암호 시스템은 같은 키워드를 검색하기 위해 생성된 트랩도어가 동일한 형태를 가지게 되어 공격자가 검색 쿼리를 통해 사용자가 어떤 데이터를 저장하고 검색하는지 학습이 가능하다. 본 논문은 사용자가 같은 키워드를 검색하더라도 매번 다른 트랩도어가 생성되도록 하여 비윤리적인 서버관리자가 검색 쿼리를 통해 검색 내용 및 데이터를 유추할 수 없도록 하는 일회용 트랩도어를 이용한 검색가능 암호 시스템을 제안한다.

A Design of the Social Disasters Safety Platform based on the Structured and Unstructured Data (정형/비정형 데이터 기반 사회재난 안전 플랫폼 설계)

  • Lee, Chang Yeol;Park, Gil Joo;Kim, Junggon;Kim, Taehwan
    • Journal of the Society of Disaster Information
    • /
    • v.18 no.3
    • /
    • pp.609-621
    • /
    • 2022
  • Purpose: Natural Disaster has well formed framework more than social disaster, because natural disaster is controlled by one department, such as MOIS, but social disaster is distributed. This study is on the design of the integrated service platform for the social diaster data. and then, apply to the local governments. Method: Firstly, we design DB templates for the incident cases considering the incident investigation reports. For the risk management, life-damage oriented social disaster risk assessment is defined. In case of the real-time incident data from NDMS, AI system provides the prediction information in the life damage and the cause of the incident. Result: We design the structured and unstructured incident data management system, and design the integrated social disaster and safety incident management system. Conclusion: The integrated social disaster and safety incident management system may be used in the local governments

Provable Security of 3GPP Integrity Algorithm f9 (3GPP 무결성 알고리즘 f9의 증명가능 안전성)

  • Hong, Do-won;Shin, Sang-Uk;Ryu, Heui-su;Chung, Kyo-Il
    • The KIPS Transactions:PartC
    • /
    • v.9C no.4
    • /
    • pp.573-580
    • /
    • 2002
  • Within the security architecture of the 3GPP system there is a standardised integrity algorithm f9. The integrity algorithm f9 computes a MAC to authenticate the data integrity and data origin of signalling data over a radio access link of W-CDMA IMT-2000. f9 is a variant of the standard CBC MAC based on the block cipher KASUMI. In this paper we provide the provable security of f9 We prove that f9 is secure by giving concrete bound on an adversary's inability to forge in terms of her inability to distinguish the underlying block cipher from a pseudorandom permutation.

Automatic Monitoring for Structural Response of a Large-Scale Irregular Building under Construction (대형 비정형 건축물의 시공 중 구조반응 자동 모니터링)

  • Choe, Se-Un;Park, Hyo-Seon
    • Computational Structural Engineering
    • /
    • v.29 no.2
    • /
    • pp.12-17
    • /
    • 2016
  • 본 기사에서 대형 비정형 건축물의 시공 중 자동 모니터링 사례를 소개하였다. 소개한 사례에서는 무선 자동 계측 시스템을 이용하여 변형률계, 경사계, 변위계 등이 총 88개 설치되어 약 13개월 동안 장기 모니터링이 수행되었다. 무선 자동 계측시스템은 장기간의 데이터를 확보하고 데이터 간의 상관성 및 이력분석을 용이하게 하였다. 이를 통해 대상 구조물의 시공 중 안전성 및 안정성을 확보하고, 정밀 시공을 구현하는데 기여할 수 있었다.

A Study on the Correlation between the Building Perimeter and Safety Management Cost (건물의 외주길이와 안전관리비의 상관관계 분석에 관한 연구)

  • Han, Bum-Jin
    • Journal of the Korea Institute of Building Construction
    • /
    • v.22 no.4
    • /
    • pp.359-370
    • /
    • 2022
  • Despite continuous efforts to reduce on-site safety accidents, the construction industry remains a high-risk sector with a high rate of fatal accidents. Design for Safety(DFS), which manages safety risk factors at the design stage, is being used as a method to lower the construction safety accident rate. However, due to limited knowledge, designers are unaware of the design-results risks during the different of the project lifecycle, including construction, operation, and maintenance. Effective DFS can be conducted if the designer understands the effect of the building shape on the safety accident rate and corresponding safety management cost(SMC). The cost of safety facilities such as fall prevention nets and safety fences will vary depending on the shape of the building. This study analyzes the outer perimeter length's impact on SMC. Following the data collection from 21 projects for this study, an analysis was conducted using the independent variables of the building perimeter(BP), building shape factor(BSF), and building area(BA), the dependent variable of SMC. The correlation R2 was found to be 0.876, 0.801 and 0.792 between the BP and SMC, BSF and SMC, BA and SMC, respectively, indicating that these factors were closely related.

Secure and Efficient Client-side Deduplication for Cloud Storage (안전하고 효율적인 클라이언트 사이드 중복 제거 기술)

  • Park, Kyungsu;Eom, Ji Eun;Park, Jeongsu;Lee, Dong Hoon
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.25 no.1
    • /
    • pp.83-94
    • /
    • 2015
  • Deduplication, which is a technique of eliminating redundant data by storing only a single copy of each data, provides clients and a cloud server with efficiency for managing stored data. Since the data is saved in untrusted public cloud server, however, both invasion of data privacy and data loss can be occurred. Over recent years, although many studies have been proposed secure deduplication schemes, there still remains both the security problems causing serious damages and inefficiency. In this paper, we propose secure and efficient client-side deduplication with Key-server based on Bellare et. al's scheme and challenge-response method. Furthermore, we point out potential risks of client-side deduplication and show that our scheme is secure against various attacks and provides high efficiency for uploading big size of data.