• 제목/요약/키워드: 캐싱 알고리즘

검색결과 57건 처리시간 0.024초

침입 탐지를 위한 효율적인 퍼지 분류 규칙 생성 (Generation of Efficient Fuzzy Classification Rules for Intrusion Detection)

  • 김성은;길아라;김명원
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권6호
    • /
    • pp.519-529
    • /
    • 2007
  • 본 논문에서는 효율적인 침입 탐지를 위해 퍼지 규칙을 이용하는 방법을 제안한다. 제안한 방법은 퍼지 의사결정 트리의 생성을 통해 침입 탐지를 위한 퍼지 규칙을 생성하고 진화 알고리즘을 사용하여 최적화한다. 진화 알고리즘의 효율적인 수행을 위해 지도 군집화를 사용하여 퍼지 규칙을 위한 초기 소속함수를 생성한다. 제안한 방법의 진화 알고리즘은 적합도 평가시 퍼지 규칙(퍼지 의사결정 트리)의 성능과 복잡성을 고려하여 평가한다. 또한 데이타 분할을 이용한 평가와 퍼지 의사결정 트리의 생성과 평가 시간을 줄이는 방법으로 소속정도 캐싱과 zero-pruning을 사용한다. 제안한 방법의 성능 평가를 위해 KDD'99 Cup의 침입 탐지 데이타로 실험하여 기존 방법보다 성능이 향상된 것을 확인하였다. 특히, KDD'99 Cup 우승자에 비해 정확도가 1.54% 향상되고 탐지 비용은 20.8% 절감되었다.

대규모 병렬 시스템에서 캐시와 공유메모리를 이용한 유한 차분법 성능 (Performance of the Finite Difference Method Using Cache and Shared Memory for Massively Parallel Systems)

  • 김현규;이효종
    • 전자공학회논문지
    • /
    • 제50권4호
    • /
    • pp.108-116
    • /
    • 2013
  • 최근 GPU 시스템과 같은 수백 개의 프로세서로 구성된 대규모 병렬 시스템을 이용하여 성능을 향상시키는 방법들이 많이 개발 되었다. 대표적으로 GPU에서 캐싱(Caching)과 유사한 개념으로 공유 메모리가 사용되었다. 출력 값을 얻기 위해서 이웃 값을 참조하는 이미지 필터와 같은 알고리즘들의 경우 이웃 값의 참조가 빈번하게 발생되므로 공유 메모리를 사용할 경우 성능이 향상되었다. 그러나 공유 메모리를 사용하기 위해서는 기존 코드를 재 구현해야만 하고 이는 코드의 복잡도를 증가시키는 원인이 된다. 최근 GPU 시스템에서는 공유 메모리 뿐 아니라 L1과 L2 캐시 메모리를 지원하도록 하였다. L1 캐시 메모리는 공유 메모리와 동일한 하드웨어에 위치하여 캐시의 사용이 성능향상을 도와줄 것으로 예측된다. 따라서 본 논문에서는 캐시 메모리와 공유 메모리의 성능을 비교하였다. 연구결과 성능 면에서 캐시 메모리를 사용한 알고리즘과 공유메모리를 사용한 알고리즘은 유사하였다. 특히 캐시 메모리를 사용하는 경우 공유메모리 사용 프로그래밍에서 나타나는 코드 복잡도의 증가 문제도 동시에 해결할 수 있었다.

분산 디렉토리 환경 하에서 효율적인 캐시 메카니즘 설계 (Design of cache mechanism in distributed directory environment)

  • 이강우;이재호;임해철
    • 한국통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.205-214
    • /
    • 1997
  • 본 논문에서는 분산 디렉토리 환경에서 질의 처리 속도를 향상 시키기 위하여 원격지의 객체에 대한 질의와 결과를 요청지의 캐시에 저장하는 캐싱 메카니즘을 설계하였으며, 설계 단계는 다음과 같이 6단계로 나누어 진행하였다. 첫째, 분산 디렉토리 시스템에 저장되는 캐시 정보를 응용 데이타 정보, 시스템 데이타 정보, 메타 데이타 정보로 분류하였다. 둘째, 분류된 캐시 정보를 기반으로 캐시 시스템 구조를 설계하였다. 셋째, 각각의 캐시 정보에 대한 저장 구조를 설계하였다. 넷째, 데이타 캐시(응용 데이타 캐시, 시스템 데이타 캐시)의 대체 알고리즘으로 거리 정보와 접근 회수를 가중치로 부여한 최소-TTL 대체 알고리즘을 제안하였다. 다섯째, 질의에 대한 탐색 공간의 범위를 좁힘으로써 질의 처리 속도를 향상시키기위해 이전 질의를 재구성한 메타 데이타 트리를 저장하는 메타 데이타 캐시의 운영 알고리즘을 개발하였다. 마지막으로, 제안된 캐시 메카니즘과 타 메카니즘과 성능 평가를 수행하여 제안된 메카니즘의 우수성을 입증하였다.

  • PDF

T-Cache: 시계열 배관 데이타를 위한 고성능 캐시 관리자 (T-Cache: a Fast Cache Manager for Pipeline Time-Series Data)

  • 신제용;이진수;김원식;김선효;윤민아;한욱신;정순기;박세영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권5호
    • /
    • pp.293-299
    • /
    • 2007
  • 지능형 배관 검사체(PIG)는 가스나 기름 배관 안을 지나가며 검사체에 장착된 여러 센서로부터 신호(센서 데이타로 불림)들을 취합하는 장치이다. PIG로부터 취합된 센서데이타들을 분석함으로써, 배관의 구멍, 뒤틀림 또는 잠재적으로 가스 폭발의 위험을 가지고 있는 결함들을 발견할 수 있다. 배관의 센서 데이타를 분석가가 분석을 할 때에는 주로 두 가지 분석 패턴을 사용한다. 첫 번째는 센서 데이터를 순차적으로 분석하는 순차적 분석 패턴이고, 두 번째는 특정한 구간을 반복해서 분석하는 반복적 분석 패턴이다. 특히, 센서 데이타를 분석할 때 반복적 분석 패턴이 많이 사용된다. 기존의 PIG 소프트웨어들은 사용자의 요청이 있을 때 마다 서버로부터 센서 데이타들을 오므로, 매 요청마다 네트워크 전송비용과 디스크 액세스 비용이 든다. 이와 같은 방법은 순차적 분석 패턴에는 효율적이지만, 분석 패턴의 대부분을 차지하는 반복적 분석 패턴에는 비효율적이다. 이와 같은 문제는 서버/클라이언트 환경에서 다수의 분석가가 동시에 분석을 할 경우에는 매우 심각해진다. 이러한 문제점을 해결하기 위해 본 논문에서는 배관 센서 데이타들을 여러 개의 시계열 데이타로 생각하고, 효율적으로 시계열 데이타를 캐싱 하는 T-Cache라 부르는 주기억장치 고성능 캐시 관리자를 제안한다. 본 연구는 클라이언트 측에서 시계열 데이타를 캐싱하는 최초의 연구이다. 먼저, 고정된 거리의 시계열 데이타들의 집합을 캐싱 단위로 생각하는 신호 캐시 라인이라는 새로운 개념을 제안하였다. 다음으로, T-Cache에서 사용되는 스마트 커서와 여러 알고리즘을 포함하는 여러 가지 자료구조를 제안한다. 실험 결과, 반복적 분석 패턴의 경우 T-Cache를 사용하는 것이 디스크 I/O측면과 수행 시간 측면에서 월등한 성능 향상을 보였다. 순차적 분석 패턴의 경우에도 T-Cache를 사용하지 않은 경우와 거의 유사한 성능을 보였다. 즉, 캐시를 사용함으로써 발생하는 추가비용은 무시할 수 있음을 보였다.

2-레벨 디스크 캐쉬 시스템에서 디스크 블록 중복 저장을 최소화하는 효율적인 캐싱 알고리즘 (An Efficient Caching Algorithm to Minimize Duplicated Disk Blocks in 2-level Disk Cache System)

  • 류갑상;정수목
    • 한국컴퓨터산업학회논문지
    • /
    • 제5권1호
    • /
    • pp.57-64
    • /
    • 2004
  • 처리기와 디스크의 속도 차가 커지고 있어 I/O subsystem이 컴퓨터 시스템의 성능향상에 병목 현상을 일으키게 된다. 이러한 처리기와 디스크와의 속도 차를 극복하기 위한 한 방법으로 캐쉬가 사용되고 있다. 캐쉬를 사용하면 디스크 블록에 대한 접근 횟수를 줄일 수 있어 전체 시스템의 성능을 향상시킬 수 있다. 본 논문에서는 버퍼 캐쉬와 디스크 캐쉬를 가지는 시스템에서 서로 독립적으로 캐쉬가 관리되어 다수의 디스크 블록이 중복되게 유지되는 문제를 해결하기 위하여 디스크 블록의 중복을 최소화함으로 시스템의 성능을 개선하는 캐쉬 관리 기법을 제안하였다 시뮬레이션을 통하여 제안된 기법을 적용하였을 경우 디스크 블록에 대한 평균 접근 지연시간이 감소됨을 확인하였다.

  • PDF

버퍼와 디스크 캐시 사이의 중복 캐싱을 제한하는 효율적인 알고리즘 (An Efficient Algorithm for Restriction on Duplication Caching between Buffer and Disk Caches)

  • 정수목
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제10권1호
    • /
    • pp.95-105
    • /
    • 2006
  • 기계적인 동작에 기반을 둔 디스크의 동작 특성 때문에 디스크의 속도는 처리기에 비하여 매우 느리다. 반도체기술의 발전으로 처리기의 속도 향상이 비약적으로 이루어지는 반면 디스크의 속도향상은 기계적인 동작특성 때문에 속도향상이 매우 제한적으로 이루어지고 있다. 따라서 컴퓨터시스템 전체의 성능향상을 이루이기 위하여 병목현상을 일으키는 디스크 입출력시스템의 성능을 개선할 수 있는 연구가 필수적이다. 처리기와 I/O subsystem의 속도차이를 해결하기 위한 하나의 기법으로 버퍼 캐시와 디스크 캐시를 두는 기법들이 사용되고 있다. 본 논문에서는 버퍼캐시와 디스크 캐시사이에 디스크 블록 중복을 제한하고, 재 참조 될 가능성이 높은 디스크 블록을 오랫동안 캐시에 유지하게 함으로 캐시 hit ratio를 높여 디스크 접근을 줄이고 신속하게 처리기에 디스크 블록을 서비스하여 시스템의 성능을 개선하는 효율적인 버퍼 캐시 및 디스크 캐시 관리기법을 제안하였고 시뮬레이션을 통하여 제안된 기법의 성능을 평가하였다.

  • PDF

콘텐츠 딜리버리 네트워크에서 미디어 콘텐츠 제공을 위한 향상된 암호화 알고리즘 연구 (The Improved Encryption Algorithm to Delievry Media content for Contents Delivery Network.)

  • 박철우;김우빈;김기천
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.404-407
    • /
    • 2014
  • CDN(Content Delivery Network)은 사용자의 콘텐츠 요청에 대해 캐쉬 서버의 부하를 줄이기 위해 사용자와 가장 인접한 캐쉬 서버를 통하여 사용자에게 보다 빠르게 콘텐츠를 제공 하도록 되어있다. 현재까지의 연구는 대용량 콘텐츠 스트리밍 서비스를 위한 속도적 측면만 고려하고 있으며 콘텐츠를 빠르게 제공하기 위하여 같은 콘텐츠를 여러 캐싱서버로 분산하여 보안성이 충분하지 못한 단점이 있다. 하지만 사용자에게 충분한 보안성을 갖춘 대용량 콘텐츠를 제공하려면 암호화 연산의 증가로 인하여, 속도적 측면이 감소하므로 CDN의 본연의 기능을 잃을 수 있다. 그러므로 본 논문에서는 해시기반 스크램블링을 이용한 암호화 기법의 보안의 취약성을 분석하고 이를 극복하기 위해 보안성을 향상시킨 RECOS(Robust Encryption for COntent Secure)기법을 제안한다. 제안 기법은 시뮬레이션에서 기존 기법과 제안 기법의 속도를 비교하였으며, 기존 기법의 취약성 분석을 통하여 제안 기법의 향상된 보안성을 보였다. 결과적으로 기존의 해시기반 암호화 기법과 비교하여 속도에 차이가 거의 없음에도 불구하고 향상된 보안성을 보였다.

주사본 권한을 이용한 동적 트랜잭션 분배 알고리즘 (A Dynamic Transaction Routing Algorithm with Primary Copy Authority)

  • 김기형;조행래;남영환
    • 정보처리학회논문지D
    • /
    • 제10D권7호
    • /
    • pp.1067-1076
    • /
    • 2003
  • 데이터베이스 공유 시스템(Database Sharing System: DSS)은 고성능 트랜잭션 처리를 위해 제안된 시스템이다. DSS에서 고속의 통신망으로 연결된 노드들은 별도의 메모리와 운영체제를 가지며, 데이터베이스를 저장하고 있는 디스크는 모든 노드에 의해 공유된다. 그리고 빈번한 디스크 액세스를 피하기 위해 각 노드는 자신의 메모리 버퍼에 최근에 액세스한 페이지들을 캐싱한다. 본 논문에서는 DSS를 구성하고 있는 각 노드의 부하를 효과적으로 분산한 수 있는 동적 트랜잭션 분배 알고리즘을 제안한다. 제안한 알고리즘은 각 노드에 할당된 주사본 권한을 이용함으로써 노드별 참조 지역성을 지원하고, 그 결과 캐쉬 이용률을 증가하여 디스크 액세스 수를 최소화한다. 뿐만 아니라, 노드의 현재 부하를 고려하여 트랜잭션 분배 정책을 결정함으로써 특정 노드에 트랜잭션이 집중되는 것을 피한다. 제안된 알고리즘의 성능평가를 위해 시뮬레이션 실험을 수행하였으며, 실험결과 제안된 알고리즘이 기존 알고리즘들보다 트랜잭션 처리율에서 높은 성능을 보였다. 특히 트랜잭션 부하량이 높은 경우와 편중된 데이터 참조를 보이는 경우에 좋은 성능을 보였다.

디스크 입출력 서브시스템을 위한 개선된 디스크 블록 캐싱 알고리즘 (Advanced Disk Block Caching Algorithm for Disk I/O sub-system)

  • 정수목;노경택
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.139-146
    • /
    • 2007
  • 컴퓨터시스템에서 메모리시스템은 계층적인 구조를 갖는다. 외부기억장치에 해당하는 디스크는 용량이 크고 가격이 저렴하지만 동작은 기계적인 특성에 기반을 두고 있어 주기억장치에 비하여 매우 느리고 디스크의 성능 향상도 매우 느리게 이루어지고 있지만 처리기는 반도체기술의 발전으로 속도향상이 매우 빠르게 이루어지고 있다. 따라서 저속의 디스크 입출력서브시스템은 컴퓨터시스템의 전체 성능에 병목(bottle neck)을 일으키고 있다. 컴퓨터시스템내의 디스크 입출력 서브시스템의 성능을 개선함으로 컴퓨터시스템의 전체 성능개선을 실현하는 연구가 이루어지고 있다. 본 논문에서는 처리기가 필요로 할 가능성이 높은 디스크블록을 버퍼캐시와 디스크 캐시에 효율적으로 유지하여 디스크블록 평균접근시간을 줄임으로 컴퓨터시스템의 성능을 향상시키는 개선된 알고리즘인 multi-level LRU 기법을 제안하였고 이를 버퍼캐시와 디스크 캐시를 가지는 시스템에 적용하였다. 시뮬레이션을 통하여 제안된 방안의 성능을 평가하였다.

  • PDF

데이타베이스 공유 시스템에서 버전 캐싱을 이용한 단일 노드 고장 회복 기법 (A Recovery Scheme of Single Node Failure using Version Caching in Database Sharing Systems)

  • 조행래;정용석;이상호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권4호
    • /
    • pp.409-421
    • /
    • 2004
  • 데이타베이스 공유 시스템(DSS)은 고성능 트랜잭션 처리를 위하여 여러 개의 처리 노드를 연결한 구조로서, 각 노드는 데이타베이스를 저장한 디스크를 공유한다. DSS를 구성하는 노드들이 고장날 경우 데이타베이스를 정확한 상태로 복구하기 위한 회복 과정이 필요한데 DSS에서 회복 작업은 하나의 노드로 구성된 일반적인 데이타베이스 시스템보다 많은 시간이 소요된다. 그 이유는 데이타베이스를 회복하기 위해 여러 노드에 나누어 저장된 로그들을 병합하여야 하며, 병합된 로그들을 이용하여 REDO 작업을 수행하여야 하기 때문이다. 본 논문에서는 Oracle 9i Real Application Cluster (ORAC)에서 제안된 캐쉬 연합 알고리즘의 성능을 개선한 2VC(Two Version Caching) 알고리즘을 제안한다. 2VC는 단일 노드 고장에 대한 회복 작업에서 로그 병합 과정을 생략할 수 있으므로 빠른 데이타베이스 회복을 지원할 수 있다는 장점을 갖는다. 뿐만 아니라, ORAC에서 발생하는 불필요한 디스크 기록 오버헤드를 줄임으로써 정상적인 트랜잭션 처리의 성능을 향상시킬 수 있다.