• 제목/요약/키워드: Hash Data

검색결과 334건 처리시간 0.029초

결합키 생성항목의 갱신에 강건한 결합키 생성 기법 (Combination Key Generation Scheme Robust to Updates of Personal Information)

  • 장호빈;노건태;정익래;천지영
    • 정보보호학회논문지
    • /
    • 제32권5호
    • /
    • pp.915-932
    • /
    • 2022
  • 개인정보 보호법과 가명정보 처리 가이드라인에 따르면, 서로 다른 결합신청자들이 결합을 희망할 때 Salt값을 포함한 결합키 생성항목의 해시값으로 매핑을 진행한다. 결합키 생성항목의 예시로는 성명, 전화번호, 생년월일, 주소 등의 개인정보가 될 수 있으며, 해시 함수의 특성상 서로 다른 결합신청자들이 이들의 항목을 정확히 동일한 형태로 저장하고 있을 때 문제없이 결합을 진행할 수 있다. 하지만 이러한 기법은 서로 다른 결합신청자들의 데이터베이스 갱신 시점이 달라서 발생하는 주소 변경, 개명 등의 시나리오에서의 결합은 취약하다. 따라서 본 연구에서 우리는 주소 변경, 개명 등의 결합키 생성항목이 갱신된 시나리오에서도 개인정보보호를 만족하는 강건한 결합키 생성기법을 확률적 자료 연계를 통한 임계값을 바탕으로 제안하며, 본 연구 결과를 활용한 국내 빅데이터 및 인공지능 사업의 발전에 기여하고자 한다.

맵리듀스 잡을 사용한 해시 ID 매핑 테이블 기반 대량 RDF 데이터 변환 방법 (Conversion of Large RDF Data using Hash-based ID Mapping Tables with MapReduce Jobs)

  • 김인아;이규철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.236-239
    • /
    • 2021
  • AI 기술의 성장과 함께 지식 그래프의 크기는 지속적으로 확장되고 있다. 지식 그래프는 주로 트리플이 연결된 RDF로 표현되며, 많은 RDF 저장소들이 RDF 데이터를 압축된 형태의 ID로 변환한다. 그러나 RDF 데이터의 크기가 특정 기준 이상으로 클 경우, 테이블 탐색으로 인한 높은 처리 시간과 메모리 오버헤드가 발생한다. 본 논문에서는 해시 ID 매핑 테이블 기반 RDF 변환을 분산 병렬 프레임워크인 맵리듀스에서 처리하는 방법을 제안한다. 제안한 방법은 RDF 데이터를 정수 기반 ID로 압축 변환하면서, 처리 시간을 단축하고 메모리 오버헤드를 개선한다. 본 논문의 실험 결과, 약 23GB의 LUBM 데이터에 제시한 방법을 적용했을 때, 크기는 약 3.8배 가량 줄어들었으며 약 106초의 변환 시간이 소모되었다.

  • PDF

불특정 위협으로부터 데이터를 보호하기 위한 보안 저장 영역의 생성 및 접근 제어에 관한 연구 (A Study on Creation of Secure Storage Area and Access Control to Protect Data from Unspecified Threats)

  • 김승용;황인철;김동식
    • 한국재난정보학회 논문집
    • /
    • 제17권4호
    • /
    • pp.897-903
    • /
    • 2021
  • 연구목적: 최근 국내외에서 해킹으로 피해자의 데이터를 암호화하고 이를 풀어주는 대가로 금전적 대가를 요구하는 랜섬웨어 피해가 증가하고 있다. 이에 다양한 방식의 대응기술과 솔루션에 대한 연구개발이 진행되고 있으며, 본 연구에서는 데이터를 저장하는 저장장치에 대한 보안 연구개발을 통해 근본적인 대응방안을 제시하고자 한다. 연구방법: 동일한 가상환경에 보안 저장영역과 일반 저장영역을 생성하고 접근 프로세스를 등록하여 샘플 데이터를 저장하였다. 저장된 샘플 데이터의 침해 여부를 확인하기 위해 랜섬웨어 샘플을 실행하여 침해 여부를 해당 샘플 데이터의 Hash 함수를 확인하였다. 접근 제어 성능은 등록된 접근 프로세스와 동일한 이름과 저장위치를 통해 샘플 데이터의 접근 여부를 확인하였다. 연구결과: 실험한 결과 보안 저장 영역의 샘플 데이터는 랜섬웨어 및 비인가된 프로세스로부터 데이터의 무결성을 유지하였다. 결론: 본 연구를 통해 보안 저장영역의 생성과 화이트리스트 기반의 접근 제어 방법이 중요한 데이터를 보호하는 방안으로 적합한 것으로 평가되며, 향후 기술의 확장성과 기존 솔루션과의 융합을 통해 보다 안전한 컴퓨팅 환경을 제공할 수 있을 것으로 기대된다.

SSD 기반 서버급 스토리지를 위한 지역성 기반 청킹 정책을 이용한 데이터 중복 제거 기법 (Data Deduplication Method using Locality-based Chunking policy for SSD-based Server Storages)

  • 이승규;김주경;김덕환
    • 전자공학회논문지
    • /
    • 제50권2호
    • /
    • pp.143-151
    • /
    • 2013
  • 낸드 플래시 기반 SSD(Solid State Drive)는 빠른 입출력 성능, 저전력 등의 장점을 가지고 있어, 타블릿, 데스크탑 PC, 스마트폰, 서버 등의 저장장치로 널리 사용되고 있다. 하지만 SSD는 쓰기 횟수에 따라서 마모도가 증가하는 단점이 있다. SSD의 수명을 향상시키기 위해 다양한 데이터 중복제거 기법이 도입되었으나, 일반적인 고정 크기 분할방식은 데이터의 지역성을 고려하지 않고 청크크기를 할당함으로써, 불필요한 청킹 및 해시값 생성을 수행하는 문제점이 있으며, 가변 크기 분할방식은 중복제거를 위해 바이트 단위로 비교하여 과도한 연산량을 유발한다. 본 논문에서는 SSD 기반 서버급 스토리지에서 쓰기 요청된 데이터의 지역성에 기반한 적응형 청킹 정책을 제안한다. 제안한 방법은 중복데이터가 가지는 응용프로그램 및 파일 이름 기반 지역성에 따라 청크 크기를 4KB 또는 64KB로 적응적으로 분할하여, 청킹 및 해시값 생성에 따른 오버헤드를 감소시키고, 중복 쓰기를 방지한다. 실험결과, 제안하는 기법이 기존의 가변 크기 분할 및 4KB의 고정 크기 분할을 이용한 중복제거기법보다 SSD의 쓰기 성능이 향상되고 전력 소모 및 연산시간을 감소시킬 수 있음을 보여준다.

비디오 감시 장치 무결성 검증을 위한 랜덤 해시 방법 (Ramdomg Hash for Integrity Verification Method of Multimedia Data in Surveillance System)

  • 사랄라 기미레;이범식
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.165-168
    • /
    • 2019
  • The advancement in technology has led to the enormous use of multimedia applications. The video/image recorded by such applications provides critical information that can be used as a visual evidence. However, owing to the adequacy in using different editing tools, it is susceptible to malicious alterations. Thus, the reliability or the integrity of the visual information should be verified before using it as an evidence. In this paper, we propose an integrity verification method for the surveillance system using randomized hashing. The integrity value of the surveillance data is generated using the randomized hashing and elliptic curve cryptography (ECC), which is used later for the validation. The experimental results obtained from the embedded accident data recorder (ADR) system shows that the proposed method is very efficient and provides a high level of security.

  • PDF

블록체인 기반 접근제어 기술 동향 (Analysis of Blockchain-based Access Control Technology)

  • 김승현;김수형
    • 전자통신동향분석
    • /
    • 제34권4호
    • /
    • pp.117-128
    • /
    • 2019
  • As companies use increasing amounts of data more and more, people are more concerned about protecting their privacy. Many researches studies have been conducted with a to securely view of manage managing and share sharing private information securely using the Bblockchain technology. These studies have suggested a Bblockchain-based approaches to provide efficiency, scalability, data ownership, and systematic data lifecycles that were are the limitations of lacking in traditional access controls. More Sspecifically, these studies have introduced a new access control models, distributed hash tables, trusted execution environments, and hierarchical ID-based cryptographic mechanisms to provide reliable access control even in complex environments such as IoT Internet of Things. In this paperstudy, we present the criteria to for classifying the functional characteristics of the Bblockchain-based access control methods and derive the differentiateion between of each the several methods.

서로 다른 시계열 데이터들간 통합 활용을 고려한 해시 함수 기반 학습 모델 관리 플랫폼 (Learning model management platform based on hash function considering for integration from different timeseries data)

  • 유미선;문재원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.45-48
    • /
    • 2022
  • IoT 기술의 발전 및 확산으로 다양한 도메인에서 서로 다른 특성의 시계열 데이터가 수집되고 있다. 이에 따라 단일 목적으로 수집된 시계열 데이터만 아니라, 다른 목적으로 수집된 시계열 데이터들 또한 통합하여 분석활용하려는 수요 또한 높아지고 있다. 본 논문은 파편화된 시계열 데이터들을 선택하여 통합한 후 딥러닝 모델을 생성하고 활용할 수 있는 해시함수 기반 학습 모델 관리 플랫폼을 설계하고 구현하였다. 특정되지 않은 데이터들을 기반하여 모델을 학습하고 활용할 경우 생성 모델이 개별적으로 어떤 데이터로 어떻게 생성되었는지 기술되어야 향후 활용에 용이하다. 특히 시계열 데이터의 경우 학습 데이터의 시간 정보에 의존적일 수밖에 없으므로 해당 정보의 관리도 필요하다. 본 논문에서는 이러한 문제를 해결하기 위해 해시 함수를 이용해서 생성된 모델을 계층적으로 저장하여 원하는 모델을 쉽게 검색하고 활용할 수 있도록 하였다.

  • PDF

무선센서노드의 센싱 데이터 필터링을 사용한 메모리 관리 기법에 대한 연구 (A Study on the memory management techniques using Sensing Data Filtering of Wireless sensor nodes)

  • 강연이;김황래
    • 한국산학기술학회논문지
    • /
    • 제11권5호
    • /
    • pp.1633-1639
    • /
    • 2010
  • 최근 무선센서 네트워크가 다양한 용도로 활용되고 있고 이에 대한 연구가 활발히 진행되고 있다. 무선센서 네트워크의 여러 가지 제약 사항 중에서도 에너지 소모를 줄이기 위한 방법들이 활발하게 연구되고 있는데 대표적인 예로 에너지 소모를 줄이고 전송 효율을 높이기 위한 클러스터를 이용한 연구 방법을 볼 수 있다. 클러스터방식의 연구는 센서노드를 클러스터로 구성하여 그 중에서 클러스터 헤드를 뽑아서 주변노드가 가지고 있는 센싱 정보를 모아서 싱크노드에 전송을 한다. 클러스터 헤드로 뽑힌 센서노드의 에너지 소모가 너무 많게 되어 클러스터 헤드로 사용된 센서노드는 수명이 짧아지게 되어 다른 센서노드로 대체를 해야 하다. 본 논문에서는 클러스터-메쉬 방식의 단점을 보완할 수 있으면서, 메모리를 효율적으로 관리할 수 있는 센싱 데이터 필터링하는 방식에 대하여 제안한다. 필터링 방식은 센싱 데이터를 그대로 보관하는 기존방식과 달리 센싱 데이터를 필터링 시스템에 먼저 보내서 해싱 알고리즘에 의해 직접 해싱 테이블에 저장할 주소를 계산을 하고 계산된 주소에 센싱 데이터를 저장하도록 하는 방식으로 중복 발생한 센싱 데이터는 저장되지 않도록 하고 중복되지 않은 데이터만 해싱 테이블에 필터링하여 저장하도록 하는 방식이다.

데이터 마이닝을 적용한 기업형 클라우드 컴퓨팅 기반 데이터 처리 기법 (Data processing techniques applying data mining based on enterprise cloud computing)

  • 강인성;김태호;이홍철
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권8호
    • /
    • pp.1-10
    • /
    • 2011
  • 최근 클라우드 컴퓨팅은 인터넷 접속을 통해 언제어디서든 사용할 수 있는 높은 이용편리성과 동시에 스마트폰, 넷북, PDA 등과 같은 각종 정보통신 기기로 데이터를 손쉽게 공유할 수 있는 사용환경을 제공하기 때문에 산업적 파급효과가 커 디지털혁명을 주도할 서비스로 주목받고 있다. 이와 같은 클라우드 컴퓨팅 기반의 협업 시스템을 통해 비즈니스 실무부서 간의 업무 통합이 점차적으로 이루어지면, 관련 부서 간 공유하게 되는 데이터가 더욱 많아지기 때문에 실무자가 필요한 데이터를 보다 쉽게 찾아 사용할 수 있는 방법이 필요하다. 기존 연구에서는 군집화를 통해 탐색과정을 단순화했지만, 본 논문에서는 관련 부서 간에 자주 발생하는 데이터 중복을 제거하고 시스템 성능을 향상시키기 위해 해쉬함수를 사용하고, 변경된 데이터에 대한 정보가 동적으로 반영되어 실무자에게 적합한 데이터가 분류될 수 있도록 데이터 마이닝 기법 중 베이지안 네트워크를 사용한 시스템을 제안하였다. 본 시스템은 기존 방법과 비교하여 탐색기능이 향상된 결과를 나타내었을 뿐만 아니라, CPU, Network Bandwidth 사용량 등의 시스템 성능에도 효율적인 것을 확인하였다.

Hot Data Identification For Flash Based Storage Systems Considering Continuous Write Operation

  • Lee, Seung-Woo;Ryu, Kwan-Woo
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권2호
    • /
    • pp.1-7
    • /
    • 2017
  • Recently, NAND flash memory, which is used as a storage medium, is replacing HDD (Hard Disk Drive) at a high speed due to various advantages such as fast access speed, low power, and easy portability. In order to apply NAND flash memory to a computer system, a Flash Translation Layer (FTL) is indispensably required. FTL provides a number of features such as address mapping, garbage collection, wear leveling, and hot data identification. In particular, hot data identification is an algorithm that identifies specific pages where data updates frequently occur. Hot data identification helps to improve overall performance by identifying and managing hot data separately. MHF (Multi hash framework) technique, known as hot data identification technique, records the number of write operations in memory. The recorded value is evaluated and judged as hot data. However, the method of counting the number of times in a write request is not enough to judge a page as a hot data page. In this paper, we propose hot data identification which considers not only the number of write requests but also the persistence of write requests.