• 제목/요약/키워드: Cache Update

검색결과 61건 처리시간 0.022초

Bitmap-based Prefix Caching for Fast IP Lookup

  • Kim, Jinsoo;Ko, Myeong-Cheol;Nam, Junghyun;Kim, Junghwan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권3호
    • /
    • pp.873-889
    • /
    • 2014
  • IP address lookup is very crucial in performance of routers. Several works have been done on prefix caching to enhance the performance of IP address lookup. Since a prefix represents a range of IP addresses, a prefix cache shows better performance than an IP address cache. However, not every prefix is cacheable in itself. In a prefix cache it causes false hit to cache a non-leaf prefix because there is possibly the longer matching prefix in the routing table. Prefix expansion techniques such as complete prefix tree expansion (CPTE) make it possible to cache the non-leaf prefixes as the expanded forms, but it is hard to manage the expanded prefixes. The expanded prefixes sometimes incur a great deal of update overhead in a routing table. We propose a bitmap-based prefix cache (BMCache) to provide low update overhead as well as low cache miss ratio. The proposed scheme does not have any expanded prefixes in the routing table, but it can expand a non-leaf prefix using a bitmap on caching time. The trace-driven simulation shows that BMCache has very low miss ratio in spite of its low update overhead compared to other schemes.

비동기적 캐쉬 일관성 유지 기법 (Asynchronous Cache Consistency Technique)

  • 이찬섭
    • 한국컴퓨터정보학회논문지
    • /
    • 제9권2호
    • /
    • pp.33-40
    • /
    • 2004
  • 컴퓨터 성능과 정보통신 기술의 발달로 클라이언트/서버 환경이 보편화됨에 따라 서버는 제한된 대역폭의 절감과 빠른 응답시간, 그리고 확장성을 위해 클라이언트는 지역 캐쉬를 이용한다. 이때 서버와 클라이언트간에는 캐쉬된 데이타의 일관성 유지가 필요하며 이에 따라 많은 기법이 제안되고 있다. 이 논문은 기존의 갱신 빈도 캐쉬 일관성 기법을 개선한 것이다. 기존의 일관성 기법은 선언을 동기적으로 하여 응답시간이 늦거나 정확성 검사를 지연시켜 철회 단계가 증가하는 단점이 있다. 본 논문에서 제안된 기법은 이러한 문제점을 해결하기 위해 페이지 요청 또는 완료 시 갱신 연산이 일어난 객체에 대해 갱신 시간을 참조하여 수행하도록 하였다. 따라서, 갱신 연산이 이루어지는 경우 비동기적으로 선택 모드에 따라 갱신의도 선언 또는 갱신을 선택적으로 수행할 수 있어 응답이 빠르고 철회 단계가 감소하며 더 명확한 선택이 가능하다는 장점을 갖는다.

  • PDF

RAID를 위한 SSD 캐시: 데이터 캐싱과 패리티 갱신 지연 기법의 결합 (SSD Cache for RAID: Integrating Data Caching and Parity Update Delay)

  • 하성태;이동희
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권6호
    • /
    • pp.379-385
    • /
    • 2017
  • 디스크 기반 RAID와 SSD를 결합한 하이브리드 스토리지가 기업 환경에서 널리 이용되고 있다. RAID 상단의 SSD는 주로 데이터 캐시로 사용된다. 최근 SSD를 사용하여 패리티 갱신 비용을 감소시키는 LeavO 캐시 기법이 제안되었으며, 본 논문에서는 데이터 캐시와 LeavO 캐시를 결합한 혼합 캐시기법을 제안한다. 특히 SSD 공간을 데이터 캐시와 LeavO 캐시, 두 영역으로 최적으로 분할하기 위해 비용 모델을 도출하고, 워크로드에 따라 두 영역의 크기를 동적으로 조절하는 적응형 혼합 캐시 기법을 개발하였다. 실험 결과에 따르면 적응형 혼합 캐시 기법은 기존 데이터 캐시 기법에 비해 좋은 성능을 보이며, 오프라인 최적 기법과 대등한 성능을 보인다.

실시간 타일 지도 서비스를 위한 타일이미지 갱신 향상 기법 (Improvement of Partial Update for the Web Map Tile Service)

  • 조성환;가칠오;유기윤
    • 한국측량학회지
    • /
    • 제31권5호
    • /
    • pp.365-373
    • /
    • 2013
  • 타일 캐시 기술은 웹GIS의 효율성에 중요한 향상을 가져왔지만, 변경된 소스데이터의 해당 타일을 갱신하는 작업은 여전히 처리시간이 오래 걸리는 작업이고, 이로 인해 서비스 질에 영향을 미칠 수도 있다. 현재의 타일 캐시 서비스는 갱신되지 않거나 거의 갱신되지 않는 소스데이터에서 좋은 성능을 제공하지만, 변경이 자주 발생하는 소스데이터에 대해서는 매우 비효율적이다. 본 논문은 자주 변경되는 데이터 집합의 타일 지도 서비스에서 변경된 데이터를 타일이미지에 효율적으로 반영할 수 있는 부분영역캐시갱신 방법으로 PACU (Partial Area Cache Update)기법을 제안한다. 이 기법은 타일 지도 갱신 작업에서 가장 많은 처리 시간이 소요되는 디스크의 읽기/쓰기 횟수를 줄이는 방법으로 반복적으로 동일한 타일이 변경되는 작업을 제거하였다. PACU 기법은 타일 이미지 기반의 지도 서비스하고 있는 경기도부동산포털서비스에서 수시로 변경이 발생하는 지적도 서비스에 성공적으로 적용되었다. 경기도 평택시(331,594 필지)에서 하루 발생하는 변동 필지 3,100건에 대해 제안 기법을 적용하였다. 동일한 실험 환경에서 PACU 기법을 ESRI사의 ArcGIS SERVER$^{(r)}$의 처리 속도와 비교한 결과 약 6.6배의 처리속도 향상을 보였다. PACU 기법은 타일 지도의 갱신 처리 시간을 매우 획기적으로 감소시켰고, 그동안 기술적인 문제로 어려움이 있었던 수시로 갱신되는 데이터 집합에 대한 타일 지도 서비스를 제공할 수 있는 기틀을 마련하였다.

KDBcs-트리 : 캐시를 고려한 효율적인 KDB-트리 (KDBcs-Tree : An Efficient Cache Conscious KDB-Tree for Multidimentional Data)

  • 여명호;민영수;유재수
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권4호
    • /
    • pp.328-342
    • /
    • 2007
  • 본 논문에서는 데이타의 갱신이 빈번한 상황에서 데이타의 갱신을 효율적으로 처리하기 위한 색인 기법을 제안한다. 제안하는 색인구조는 대표적인 공간 분할 색인 기법 중 하나인 KDB-트리를 기반으로 하고 있으며, 캐시의 활용도를 높이기 위한 데이타 압축 기법과 포인터 제거 기법을 제안한다. 제안하는 기법의 우수성을 보이기 위해서 기존의 대표적인 캐시를 고려한 색인 구조중 하나인 CR-트리와 실험을 통해 성능을 비교하였으며, 성능평가 결과, 제안하는 색인 구조는 삽입 성능과 갱신 성능, 캐시 활용도 면에서 기존 색인 기법에 비해 각각 85%, 97%, 86% 의 성능이 향상되었다.

ORDBMS를 사용한 XML 질의 캐쉬의 효율적인 지연 갱신 (Efficient Deferred Incremental Refresh of XML Query Cache Using ORDBMS)

  • 황대현;강현철
    • 정보처리학회논문지D
    • /
    • 제13D권1호
    • /
    • pp.11-22
    • /
    • 2006
  • XML 문서의 생성 및 활용도가 증가함으로 인해 XML 문서를 데이터베이스에 저장하여 관리하는 기법이 활발히 연구되고 있다. 관계형 또는 객체 관계형 데이터베이스 관리 시스템(RDBMS/ORDBMS)을 XML 문서의 저장소로 사용하는 것은 현재 가장 실용적인 방법으로 받아들여지고 있다. 데이터베이스에 저장된 XML 문서에 대한 빠른 질의 처리를 위하여 XML 질의 캐쉬를 사용할 수 있다. 그러나 XML 질의 캐쉬의 사용은 하부 자료의 변경에 대한 일관성 유지비용이 든다. 본 논문에서는, ORDBMS를 XML 질의 캐쉬와 하부 XML 자료의 저장소로 사용하고 변경로그를 사용하여 XML 질의 캐쉬를 지연 갱신할 때, XML 질의 캐쉬에 대한 비효율적인 갱신의 원인인 변경로그에 저장된 동일한 XML 문서에 대한 중복 변경을 제거 또는 여과하는 알고리즘을 제시한다. 또한 이를 바탕으로 XML 질의 캐쉬의 갱신에 사용할 최적화된 SQL 문을 생성한다. 실험을 통해 본 논문에서 제안한 XML 질의 캐쉬의 지연 갱신 방법의 효율성을 보인다.

CL 트리: 낸드 플래시 시스템에서 캐시 색인 리스트를 활용하는 B+ 트리 (CL-Tree: B+ tree for NAND Flash Memory using Cache Index List)

  • 황상호;곽종욱
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권4호
    • /
    • pp.1-10
    • /
    • 2015
  • 낸드 플래시는 기존의 하드디스크와 다르게 지움 연산이 필요하고 제자리 갱신이 불가능한 특성을 가지고 있어 플래시 전환 계층(FTL: Flash Translation Layer)을 사용한다. 하지만 플래시 전환 계층을 이용하는 방법은 사상 테이블의 사용에 따른 메모리 소비량이 많은 단점이 있어서 최근에는 사상 테이블을 사용하지 않는 색인 구조에 대한 연구가 많이 이루어지고 있다. 하지만 이러한 연구들은 사상 테이블을 사용하지 않는 시스템에서 발생되고 있는 업데이트 파생문제를 해결하여야 한다. 논문에서는 이러한 업데이트 파생문제를 효과적으로 해결하고자 CL-트리(Cache List Tree)라 명명된 새로운 색인 구조를 제안한다. 제안하는 기법은 메모리상에 쓰기 연산이 이루어진 노드들의 주소를 다중 리스트로 이루어진 CL-트리에 저장함으로써, 추가적인 쓰기 연산을 줄일 뿐만 아니라 자주 접근되는 노드에 대하여 빠르게 접근할 수 있기 때문에 탐색 측면에서도 뛰어난 성능을 보인다. 성능평가 결과 제안하는 CL-트리 구조는 작업 수행 속도에서 기존의 B+ 트리와 주요 관련 연구에 비해 삽입 속도는 최대 173%, 탐색 속도는 179% 향상되었음을 보였다.

이동 컴퓨팅 환경에서 대기 시간을 감소시키는 갱신 빈도 캐쉬 일관성 기법 (Update Frequency Cache Consistency for Reducing Wait Time in Mobile Computing)

  • 이찬섭;김동혁;백주현;최의인
    • 정보처리학회논문지D
    • /
    • 제9D권6호
    • /
    • pp.1017-1024
    • /
    • 2002
  • 무선 네트워킹 기술과 통신기기의 발달로 이동 컴퓨팅 환경이 보편화됨에 따라 제한된 대역폭의 절감과 빠른 응답시간, 그리고 확장성을 위해 이동 호스트는 지역 캐쉬를 이용한다. 이때 이동 호스트와 지구국간에 캐쉬된 데이터의 일관성 유지가 필요하며 이에 따라 많은 기법이 제안되고 있다. 기존의 일관성 기법은 탐지기반의 기법들이 수로 사용되며 잦은 접속단절을 고려해 주기적인 무효화 메시지를 브로드캐스트 하여 캐쉬 일관성을 유지한다. 하지만 이러한 기법들은 데이터의 정확성 검사에 따른 전송 메시지 수의 증가나 지연을 통한 철회 단계를 증가시키며 이동 호스트에 캐쉬된 데이터를 삭제함에 따라 자치성과 확장성이 떨어진다. 본 논문에서 제안된 기법은 이러한 문제점을 해결하기 위해 페이지 요청 또는 완료시 갱신 연산이 일어난 객체에 대해 갱신 빈도를 참조하여 수행하도록 하였다. 따라서, 갱신 연산이 이루어지는 경우 비동기적으로 갱신 빈도에 따른 갱신의도 선언 또는 갱신을 선택적으로 수행할 수 있어 응답이 빠르고 철회 단계가 감소하는 장점을 갖는다. 또한 접속단절 이후 일괄적으로 진행되는 주기적인 무효화 메시지에 대해서도 갱신 빈도에 따라 선택적으로 삭제 또는 전파를 수행함으로써 자치성과 확장성을 높였다.

조선정보관리시스템에서의 갱신의 지역편중성을 갖는 XML문서를 위한 XML 프록시 캐쉬 시스템 (An XML Proxy Cache System for XML Documents with Update Locality in Shipbuilding Information Management System)

  • 김낙현;이동호;최일환;김형주
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제11권5호
    • /
    • pp.393-400
    • /
    • 2005
  • XML의 등장에 따라 기존에 서로 상이한 응용에 의해 처리되어 질의 처리가 어려웠던 많은 정보들이 XML로 새롭게 기술되어 정보들과 정보들 사이의 연관정보에 대한 질의 처리가 가능하게 되었다. 조선 정보 관리 시스템을 개발하여 운영한 결과, 기존의 응용들로써는 어려웠던 다양한 질의 처리가 가능하게 되었는데 하나의 선박을 구성하는 커다란 XML 문서를 XDBox에 넣어 처리함에 있어 여러 가지 비효율적인 부분이 들어나게 되었다. 이러한 비효율성을 개선하기 위해서 빠른 질의처리를 위한 XML 프록시 캐쉬 시스템을 도입하게 되었다. 본 논문에서는 작업 흐름을 기술하고 있는 문서에서는 실제 작업에 따라 문서에 대한 갱신이 일어나기 때문에 갱신의 지역편중성이라는 특징을 고려하여 갱신블럭을 유지하는 방법으로 보다 효율적인 XML 프록시 캐쉬 시스템을 제안하였다.

NAND 플래시 변환 계층에서 전력 소모에 영향을 미치는 페이지 캐싱 전략의 비교·분석 (A Comparative Analysis on Page Caching Strategies Affecting Energy Consumption in the NAND Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제13권3호
    • /
    • pp.109-116
    • /
    • 2018
  • SSDs that are not allowed in-place update within the allocated page cause another allocation of a new page that will replace the previous page at the moment data modification occurs. This intrinsic characteristic of SSDs requires many changes to the existing HDD-based IO theory. In this paper, we conduct a performance comparison of FTL caching strategy in perspective of cache hashing (Global vs. grouped) and caching algorithm (LRU vs. NUR) through a simulation. Experimental results show that in terms of energy consumption for flash operation the grouped management of cache is not suitable and NUR algorithm is superior to LRU algorithm. In particular, we found that the cache hit ratio of LRU algorithm is about 10% point higher than that of NUR algorithm while the energy consumption of LRU algorithm is about 32% high.