• 제목/요약/키워드: 중복검증

검색결과 313건 처리시간 0.023초

공공도서관 목록데이터의 중복검증에 관한 연구 - 부산 지역 G도서관 사례를 중심으로 - (A Study on Duplication Verification of Public Library Catalog Data: Focusing on the Case of G Library in Busan)

  • 송민건;이수상
    • 한국도서관정보학회지
    • /
    • 제55권1호
    • /
    • pp.1-26
    • /
    • 2024
  • 본 논문은 아이템 기반으로 작성된 공공도서관의 목록데이터에 대해 중복검증 알고리즘을 적용하여 서지레코드의 통합방안을 도출하고자 하였다. 이를 위하여 부산 지역에서 비교적 최근에 개관한 G도서관을 선정하였다. G도서관의 OPAC 데이터를 웹 크롤링을 통해 수집한 다음, 한국문학(KDC 800) 다권본 도서를 선별하고 KERIS의 중복검증 알고리즘을 적용하였다. 검증 결과를 바탕으로 2차에 걸친 데이터 교정 작업을 진행한 이후, 중복검증률은 95.53%에서 98.27%로 총 2.74% 상승하였다. 데이터 교정 후에도 유사/불일치 판정을 받은 24권은 개정판, 양장본 등 별도의 ISBN을 부여받고 출판된 다른 판본의 자료로 확인되었다. 이를 통해 목록데이터 교정 작업을 통해 중복검증률의 개선이 가능함을 확인하였으며, 공공도서관의 중복된 아이템 레코드들을 구현형 레코드로 전환하기 위한 도구로서 KERIS 중복검증 알고리즘의 활용 가능성을 확인하였다.

P2P 컴퓨팅에서 중복 수행 결과의 정확성 검증 기법 (A Verification of Replicated Operation In P2P Computing)

  • 박찬열
    • 컴퓨터교육학회논문지
    • /
    • 제7권3호
    • /
    • pp.35-43
    • /
    • 2004
  • 인터넷을 기반으로 독립적인 장치들이 참여하는 P2P 컴퓨팅은 원하는 목적을 달성하는데 있어서 참여 장치들의 이탈, 고장, 네트워크 상태, 익명성 등으로 인해 잦은 접속단절과 보안 공격을 겪는다. 여러 연구와 구현에서 이러한 문제들을 해결하기 위해 공유되는 자원의 중복 기법을 사용한다. 이 논문에서는 컴퓨팅 자원의 공유를 목적으로 하는 P2P 컴퓨팅에서 수행되는 작업의 중복 수행을 통해 접속단절과 보안 공격에도 올바른 결과를 얻어내는 정확성 검증 기법을 제안한다. 제안하는 기법에서는 종속성이 존재하는 단위작업들에 대해 시스템 전체의 전역적인 메시지 교환 없이 주기적으로 정확성을 검증하고, 검증된 결과는 검사점이 되어 복귀 회복이 가능한 결함 포용이 가능하다.

  • PDF

부하감소를 위한 분산 OCSP 서버 그룹화 모델 제안 (A Proposal on Grouping Model of Distributed OCSP Server for Reduced Load)

  • 최선묵;서동린;이금석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (A)
    • /
    • pp.190-192
    • /
    • 2005
  • PKI(Public Key Infrastructure)에서 인증서 상태 검증은 네트워크 환경에서의 거래에 신뢰성과 안전성 및 기밀성, 무결성 등의 서비스를 제공한다. 인증서 검증 방식은 CRL, OCSP, SCVP, DVCS 등이 있다. CRL은 시간이 지남에 따라 CRL의 크기가 증가하여 검증 시간이 지연되고 실시간 검증을 할 수 없는 단점을 가지고 있다. OCSP는 CRL을 이용하지 않고 거의 실시간에 가깝게 인증서를 검증하지만 서버의 부하 증가와 느린 검증 등의 단점을 가지고 있다. 분산 OCSP는 OCSP 서버를 분산시킨 후 CRL을 중복하여 보관하거나 분개하여 보관한 상태에서 검증하는 방식으로 대리검증에 따른 느린 검증과 CA의 부하부담 등의 단점을 가지고 있다. 본 논문에서는 제기된 단점들을 해결하여 빠른 검증과 부하 분산 효과를 얻을 수 있도록 분산된 OCSP 서버를 그룹으로 분류하고, 그룹 내의 각 서버에 인증서 폐지 정보를 중복 저장하여 부하분산, 빠른 검증, CRL을 Delta CRL 방식으로 OCSP 서버에 전송하여 네트워크 부하를 감소할 수 있도록 그룹 분산 OCSP 방식을 제안하고자 한다.

  • PDF

클라우드 스토리지 환경을 위한 안전하고 효율적인 암호데이터 중복제거 기술 (A Safe and Efficient Secure Data Deduplication for Cloud Storage Environment)

  • 김원빈;이임영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.714-717
    • /
    • 2015
  • 기존의 암호데이터 중복제거 기술은 데이터의 중복 여부를 판단하기 위해 다양한 방식으로 데이터를 전송하고 이를 기존에 저장된 데이터와 비교하여 중복여부를 판단하게 된다. 이러한 데이터 중복제거 기술의 중복제거 효율성을 높이기 위해 최근 블록 단위의 중복제거 기술이 사용되고 있다. 하지만 블록 단위 중복제거 기술의 적용 과정에서 다양한 보안 위협이 발생하는데, 이 중 포이즌 어택은 무결성 및 데이터 저장 시 저장되는 데이터에 대한 검증이 이루어지지 않는 시스템에서 발생하는 위협 중 하나이다. 이러한 위협을 해결하기 위해 암호화 기술을 적용한 여러 기술들이 연구되어 제안되었지만 과도하게 많은 통신 횟수와 연산이 발생되어 효율성이 떨어지는 문제가 존재한다. 따라서 본 논문에서는 클라우드 스토리지에 저장되는 데이터의 기밀성과 무결성을 보장하며, 연산량과 통신량에서 보다 효율적인 암호데이터 중복제거 기술을 제안한다.

중복 데이터 관리 기법을 통한 저장 시스템 성능 개선 (Performance Improvement of Storage System Using De-duplication)

  • 정호민;김병기;김진;고영웅
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.909-912
    • /
    • 2009
  • 기존의 저장 방식은 대용량의 데이터를 비효율적으로 처리해 왔지만 데이터 중복 제거 기법을 이용하면서 저장 공간과 네트워크 대역폭을 효율적으로 사용할 수 있게 되었다. 그러나 기존의 데이터 중복 제거 알고리즘들은 수행시간이 길고 중복 데이터를 효율적으로 제거하지 못하는 문제가 있다. 본 논문에서는 개선된 중복 검색 및 제거 메커니즘을 제공하는 저장 시스템을 제안하고 있다. 제안하는 알고리즘은 저장 공간을 최소화하고 네트워크 대역폭을 줄일 수 있다. 주요 아이디어는 스트라이드 방식의 중복 검색 메커니즘이며 중복된 데이터 블록을 발견하는데 있어서 계산 시간을 줄여주고 있다. 제안하는 시스템의 성능을 검증하기 위하여 리눅스 배포 데이터를 저장하는 실험을 수행하였으며 실험 결과 스트라이드 방식이 저장 공간을 줄이고 중복된 데이터 블록을 효율적으로 관리할 수 있음을 보였다.

부분 중복 데이터베이스에서 사본 트리를 이용한 중복 제어 (The Replication Control using the Replica Tree in the Partially Replicated Databases)

  • 배미숙;황부현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 추계학술발표논문집 (하)
    • /
    • pp.1453-1456
    • /
    • 2003
  • 데이터의 중복은 데이터의 가용성과 시스템의 성능을 향상시키기 위해 사용한다. 대규모 부분 중복 데이터베이스에서 효율적인 중복 관리를 위해서는 정확한 수행을 보장하기 위한 정확성 검증방법과 효율적인 갱신 전파 방법이 필요하다. 이 논문에서는 부분 중복 환경에서 각 주사본 사이트의 중복 데이터에 대한 트리 구조를 기반으로 한 갱신 전파 방법을 제시하며, 갱신 지연 전파로 인해 갱신 전파도중에 발생할 수 있는 전파 트랜잭션과 주 트랜잭션의 충돌로 인한 비직렬성 문제를 타임스탬프와 상태 데이터베이스를 이용하여 해결한다. 이것은 판독 가용성을 증가시키면서 비직렬성으로 인한 재수행을 회피하게 되어 트랜잭션의 완료율을 증가시킨다.

  • PDF

원격 저장소 데이터 아웃소싱에서 발생하는 중복 식별 과정에서의 부채널 분석 및 제거 (Analysis and Elimination of Side Channels during Duplicate Identification in Remote Data Outsourcing)

  • 구동영
    • 정보보호학회논문지
    • /
    • 제27권4호
    • /
    • pp.981-987
    • /
    • 2017
  • 클라우드 컴퓨팅의 대중화로 개인 및 기업의 로컬 저장소에서 관리되던 데이터가 클라우드 스토리지 등 제 3의 공간에 아웃소싱 되면서 유지, 관리 비용의 절감 효과를 얻을 수 있게 됨과 동시에, 다수의 원격저장 서비스 제공자는 공간 자원의 효율화를 위하여 아웃소싱된 데이터의 중복제거 기법을 도입하고 있다. 동일 데이터의 중복성 판단에 해시 트리가 사용되는 경우에는 검증 데이터의 크기 및 트리의 일부 정보에 대한 부채널이 존재하게 되는데, 이로부터 특정 데이터에 대한 정보 수집 및 검증의 우회 가능성이 증가하게 된다. 이러한 부채널로 인한 검증의 유효성 문제를 개선하기 위하여, 본 논문에서는 멀티 셋 해시함수를 이용한 동일성 검증 기법을 제시한다.

연속간행물 종합목록의 중복레코드 최소화 방안 연구 (A Study on the Duplicate Records Detection in the Serials Union Catalog)

  • 이혜진;김순영;김완종;최호남
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2007년도 추계 종합학술대회 논문집
    • /
    • pp.445-448
    • /
    • 2007
  • 연속간행물 종합목록은 국내 여러 기관에 산재한 연속간행물의 정보를 통합하여 공유하고, 정보자원화하기 위한 필수 도구로서 최적화된 목록 및 소장 정보를 생성하여 이용자에게 학술지에 대한 신뢰성 있는 정보를 제공하는 것이 목적이다. 이를 위해서는 데이터의 일관성이 무엇보다 중요하며 레코드의 중복성은 종합목록 품질평가에 있어 중요한 척도 중에 하나가 된다. 본 연구는 연속간행물 기반의 종합목록 데이터의 품질을 개선하기 위하여 오류 데이터로 인한 중복레코드를 최소화하기위한 방안을 마련하는데 있다. 이를 위하여 연속간행물의 중복레코드 검증 요소를 분석하고 검증 프로세스를 제안하였다.

  • PDF

키 발급 서버를 이용한 암호데이터 중복제거 기술 (Encrypted Data Deduplication Using Key Issuing Server)

  • 김현일;박철희;홍도원;서창호
    • 정보과학회 논문지
    • /
    • 제43권2호
    • /
    • pp.143-151
    • /
    • 2016
  • 데이터 중복제거 기술은 클라우드 스토리지를 절약하기 위해 반드시 필요한 기술이다. 평문데이터 중복제거 기술은 기본적으로 데이터의 기밀성을 유지하지 못하므로 암호데이터 중복제거 기술이 필요함은 당연하다. 본 논문은 키 발급 서버의 도움을 받는 암호데이터 중복제거 기술에 대해 연구하며 그 중 Bellare 등이 제안한 기법에 대한 분석 및 구현을 수행하였으며 키 발급 서버를 이용한 기술에 대한 효율성 측정을 위해 상용 클라우드 서비스 상에 Bellare 등이 제안한 기법과 평문 및 ConvergentEncryption에 대한 성능 측정을 수행하였다. 또한 상용 클라우드 서비스인 Dropbox 및 공개 클라우드 서비스 중 하나인 Openstack의 Swift상에 구현 및 효율성 측정을 수행함으로써 키 발급 서버를 이용한 암호데이터 중복제거 기술에 대한 범용성을 검증하였다.

중복 다치논리를 이용한 20 Gb/s CMOS 디멀티플렉서 설계 (Design of a 20 Gb/s CMOS Demultiplexer Using Redundant Multi-Valued Logic)

  • 김정범
    • 정보처리학회논문지A
    • /
    • 제15A권3호
    • /
    • pp.135-140
    • /
    • 2008
  • 본 논문은 중복 다치논리(redundant multi-valued logic)를 이용하여 초고속 디멀티플렉서(demultiplexer)를 CMOS 회로로 설계하였다. 설계한 회로는 중복 다치논리를 이용하여 직렬 이진 데이터를 병렬 다치 데이터로 변환하고 이를 다시 병렬 이진 데이터로 변환한다. 중복 다치논리는 중복된 다치 데이터 변환으로써 기존 방식 보다 더 높은 동작속도를 얻을 수 있다. 구현한 디멀티플렉서는 8개의 적분기로 구성되어 있으며, 각 적분기는 누적기, 비교기, 디코더, D 플립플롭으로 구성된다. 설계한 회로는 0.18um 표준 CMOS 공정으로 구현하였으며 HSPICE 시뮬레이션을 통해 검증하였다. 본 논문의 디멀티플렉서의 최대 데이터 전송률은 20 Gb/s이고 평균 전력소모는 58.5 mW이다.