• 제목/요약/키워드: Caching Algorithm

검색결과 106건 처리시간 0.024초

Reducing Outgoing Traffic of Proxy Cache by Using Client-Cluster

  • Kim Kyung-Baek;Park Dae-Yeon
    • Journal of Communications and Networks
    • /
    • 제8권3호
    • /
    • pp.330-338
    • /
    • 2006
  • Many web cache systems and policies concerning them have been proposed. These studies, however, consider large objects less useful than small objects in terms of performance, and evict them as soon as possible. Even if this approach increases the hit rate, the byte hit rate decreases and the connections occurring over congested links to outside networks waste more bandwidth in obtaining large objects. This paper puts forth a client-cluster approach for improving the web cache system. The client-cluster is composed of the residual resources of clients and utilizes them as exclusive storage for large objects. This proposed system achieves not only a high hit rate but also a high byte hit rate, while reducing outgoing traffic. The distributed hash table (DHT) based peer-to-peer lookup protocol is utilized to manage the client-cluster. With the natural characteristics of this protocol, the proposed system with the client-cluster is self-organizing, fault-tolerant, well-balanced, and scalable. Additionally, the large objects are managed with an index based allocation method, which balances the loads of all clients well. The performance of the cache system is examined via a trace driven simulation and an effective enhancement of the proxy cache performance is demonstrated.

CCN에서 실시간 생성자 인기도 기반의 LFU 정책 (A LFU based on Real-time Producer Popularity in Concent Centric Networks)

  • 최종현;권태욱
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1113-1120
    • /
    • 2021
  • 콘텐츠 중심 네트워크(CCN)은 기존 위치(IP) 기반의 네트워크 방식을 콘텐츠 이름(Content Name) 중심의 네트워크 구조로 변모시킴으로써 네트워크 전반의 효율성을 높이고자 하는 시도이다. CCN에서는 네트워크 효율을 높이기 위해 라우터 저장공간을 활용한 캐싱을 수행하는데, 캐시 교체정책은 CCN의 전반적인 성능을 좌우하는 중요한 요소이다. 따라서 CCN 분야에서는 캐시 교체정책과 관련된 많은 선행 연구가 있었다. 본 논문에서는 CCN 기본 캐시 교체정책인 LFU를 개선한 실시간 생성자 인기도 기반의 캐시 교체정책을 제안하였다. 또한, 실험을 통해 제안한 캐시 교체정책이 대조군보다 우수함을 입증하였다.

대규모 병렬 시스템에서 캐시와 공유메모리를 이용한 유한 차분법 성능 (Performance of the Finite Difference Method Using Cache and Shared Memory for Massively Parallel Systems)

  • 김현규;이효종
    • 전자공학회논문지
    • /
    • 제50권4호
    • /
    • pp.108-116
    • /
    • 2013
  • 최근 GPU 시스템과 같은 수백 개의 프로세서로 구성된 대규모 병렬 시스템을 이용하여 성능을 향상시키는 방법들이 많이 개발 되었다. 대표적으로 GPU에서 캐싱(Caching)과 유사한 개념으로 공유 메모리가 사용되었다. 출력 값을 얻기 위해서 이웃 값을 참조하는 이미지 필터와 같은 알고리즘들의 경우 이웃 값의 참조가 빈번하게 발생되므로 공유 메모리를 사용할 경우 성능이 향상되었다. 그러나 공유 메모리를 사용하기 위해서는 기존 코드를 재 구현해야만 하고 이는 코드의 복잡도를 증가시키는 원인이 된다. 최근 GPU 시스템에서는 공유 메모리 뿐 아니라 L1과 L2 캐시 메모리를 지원하도록 하였다. L1 캐시 메모리는 공유 메모리와 동일한 하드웨어에 위치하여 캐시의 사용이 성능향상을 도와줄 것으로 예측된다. 따라서 본 논문에서는 캐시 메모리와 공유 메모리의 성능을 비교하였다. 연구결과 성능 면에서 캐시 메모리를 사용한 알고리즘과 공유메모리를 사용한 알고리즘은 유사하였다. 특히 캐시 메모리를 사용하는 경우 공유메모리 사용 프로그래밍에서 나타나는 코드 복잡도의 증가 문제도 동시에 해결할 수 있었다.

디스크 입출력 서브시스템을 위한 개선된 디스크 블록 캐싱 알고리즘 (Advanced Disk Block Caching Algorithm for Disk I/O sub-system)

  • 정수목;노경택
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.139-146
    • /
    • 2007
  • 컴퓨터시스템에서 메모리시스템은 계층적인 구조를 갖는다. 외부기억장치에 해당하는 디스크는 용량이 크고 가격이 저렴하지만 동작은 기계적인 특성에 기반을 두고 있어 주기억장치에 비하여 매우 느리고 디스크의 성능 향상도 매우 느리게 이루어지고 있지만 처리기는 반도체기술의 발전으로 속도향상이 매우 빠르게 이루어지고 있다. 따라서 저속의 디스크 입출력서브시스템은 컴퓨터시스템의 전체 성능에 병목(bottle neck)을 일으키고 있다. 컴퓨터시스템내의 디스크 입출력 서브시스템의 성능을 개선함으로 컴퓨터시스템의 전체 성능개선을 실현하는 연구가 이루어지고 있다. 본 논문에서는 처리기가 필요로 할 가능성이 높은 디스크블록을 버퍼캐시와 디스크 캐시에 효율적으로 유지하여 디스크블록 평균접근시간을 줄임으로 컴퓨터시스템의 성능을 향상시키는 개선된 알고리즘인 multi-level LRU 기법을 제안하였고 이를 버퍼캐시와 디스크 캐시를 가지는 시스템에 적용하였다. 시뮬레이션을 통하여 제안된 방안의 성능을 평가하였다.

  • PDF

멀티미디어를 위한 캐슁 기술 (Caching Framework for Multimedia)

  • 김백현;우요섭;김익수
    • 정보처리학회논문지B
    • /
    • 제8B권5호
    • /
    • pp.507-514
    • /
    • 2001
  • VOD(Video-On-Demand) 시스템에서 실시간 서비스 및 대화형 서비스의 제공 여부는 QoS(Suality of Service)를 결정하는 중요한 요소이다. 본 논문에서는 지연이나 단절 업서는 대화형 서비스를 제공하기 위하여 서버로부터 단지 하나의 비디오 스트림만을 수신하여 복수 사용자들에게 서비스를 제공하는 스위칭 에이전트(Switching Agent)의 종단노드(Head-End Node)로 구성된 종단시스템(Head-End System)을 제안한다. VCR 서비스는 클라이언트 및 종단노드의 버퍼가 동적으로 확장되어 비디오 데이터를 저장하기 때문에 사용자에게 제한 없이 제공되어진다. 또한 제안된 알고리듬은 버퍼의 사용 효율을 증대시키는 방법을 제공하며 모든 클라이언트들의 서비스 요청을 지연 없이 즉시 처리하므로 사용자들에게 진정한 대화형 VOD 서비스를 제공하게 된다. 본 논문에서는 종단시스템을 구현하여 서버로부터 단지 하나의 비디오 스트림만을 수신하여 지연이나 단절 없는 VCR 기능을 갖춘 VOD 시스템을 구현하였으며, 시뮬레이션 결과는 제안된 알고리듬이 VCR 서비스 요청수와 시간에 대하여 매우 우수한 성능을 갖고 있음을 보여주고 있다.

  • PDF

서비스워커와 해시를 이용한 통신 데이터 소모 감소를 위한 웹 콘텐츠 갱신 알고리즘 설계 (Design of Web Content Update Algorithm to Reduce Communication Data Consumption using Service Worker and Hash)

  • 김현국;박진태;최문혁;문일영
    • 한국항행학회논문지
    • /
    • 제23권2호
    • /
    • pp.158-165
    • /
    • 2019
  • 기존 웹 페이지는 사용자가 해당 페이지를 요청할 때 마다 새로운 페이지를 다운로드 받아 사용자에게 제공하였다. 따라서 동일한 페이지를사용자가 반복해서 요청할 경우 동일한 리소스에 대한 다운로드만을 반복하게 된다. 이는 불필요한 데이터의 소비를 발생시키는 요인이다. 본 논문에서는 사용자와 서버간의 불필요한 요청에 의해 발생하는 데이터의 소모를 감소시키고, 콘텐츠 제공 속도를 향상시키는 대에 초점을 맞추었다. 따라서 이를 방지하기 위하여 본 논문에서는 캐싱 시스템과 사용자가 요청하는 파일의 변경을 감지할 수있는 해시 함수를 이용한 해시 값의 비교를 통해 항상 최신 캐시를 유지하면서 데이터 소모를 줄일 수 있는 알고리즘에 대하여 논하고, 웹 콘텐츠의 속도 향상을 위한 서비스 워커 기반의 캐싱 시스템을 설계하고 성능을 평가하였다.

커널 쓰레드 웹가속기(SCALA-AX) 개발 (Development of a Kernel Thread Web Accelerator (SCALA-AX))

  • 박종규;민병조;임한나;박장훈;장휘;김학배
    • 정보처리학회논문지A
    • /
    • 제9A권3호
    • /
    • pp.327-332
    • /
    • 2002
  • 주로 캐싱서버로 사용되는 기존의 프록시웹캐시는 단순히 웹서버의 컨텐츠를 복사해서 서비스를 제공하는 시스템이다. 이 방법은 실제로 컨텐츠 서비스를 담당하는 웹서버의 성능 향상보다는 컨텐츠 전달 중간단계의 속도 향상에 초점을 맞추고 있다. 그러나, 과다한 동시 접속자로 인하여 웹서버에 과부하가 걸렸을 경우에는 많은 효과를 보지 못하고 있다. 본 논문에서는 웹서버의 성능을 극대화시켜 클라이언트에게 보다 빠른 서비스를 제공하기 위해서 웹가속기(SCALA-AX)를 제안한다. SCALA-AX는 리눅스 커널 모듈로 구현되어, 유저레벨 웹서버 어플리케이션과 함께 작동을 한다. SCALS-AX는 HTTP 요청을 커널쓰레드를 이용하여 처리 하기 때문에 전달 속도 향상뿐만 아니라 캐싱서버 설치로 인한 추가비용도 발생하지 않는다. SCALS-AX의 성능평가 결과, SCALA-AX가 구현된 웹서버는 기존의 웹서버보다 데이터 전달면에서 5배 이상의 속도 향상을 얻었다. 즉, 웹서버의 성능이 크게 향상되었음을 볼 수 있다.

실시간 타일 지도 서비스를 위한 타일이미지 갱신 향상 기법 (Improvement of Partial Update for the Web Map Tile Service)

  • 조성환;가칠오;유기윤
    • 한국측량학회지
    • /
    • 제31권5호
    • /
    • pp.365-373
    • /
    • 2013
  • 타일 캐시 기술은 웹GIS의 효율성에 중요한 향상을 가져왔지만, 변경된 소스데이터의 해당 타일을 갱신하는 작업은 여전히 처리시간이 오래 걸리는 작업이고, 이로 인해 서비스 질에 영향을 미칠 수도 있다. 현재의 타일 캐시 서비스는 갱신되지 않거나 거의 갱신되지 않는 소스데이터에서 좋은 성능을 제공하지만, 변경이 자주 발생하는 소스데이터에 대해서는 매우 비효율적이다. 본 논문은 자주 변경되는 데이터 집합의 타일 지도 서비스에서 변경된 데이터를 타일이미지에 효율적으로 반영할 수 있는 부분영역캐시갱신 방법으로 PACU (Partial Area Cache Update)기법을 제안한다. 이 기법은 타일 지도 갱신 작업에서 가장 많은 처리 시간이 소요되는 디스크의 읽기/쓰기 횟수를 줄이는 방법으로 반복적으로 동일한 타일이 변경되는 작업을 제거하였다. PACU 기법은 타일 이미지 기반의 지도 서비스하고 있는 경기도부동산포털서비스에서 수시로 변경이 발생하는 지적도 서비스에 성공적으로 적용되었다. 경기도 평택시(331,594 필지)에서 하루 발생하는 변동 필지 3,100건에 대해 제안 기법을 적용하였다. 동일한 실험 환경에서 PACU 기법을 ESRI사의 ArcGIS SERVER$^{(r)}$의 처리 속도와 비교한 결과 약 6.6배의 처리속도 향상을 보였다. PACU 기법은 타일 지도의 갱신 처리 시간을 매우 획기적으로 감소시켰고, 그동안 기술적인 문제로 어려움이 있었던 수시로 갱신되는 데이터 집합에 대한 타일 지도 서비스를 제공할 수 있는 기틀을 마련하였다.

Fips : 파일 접근 유형을 고려한 동적 파일 선반입 기법 (Fips : Dynamic File Prefetching Scheme based on File Access Patterns)

  • 이윤영;김재열;서대화
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권7호
    • /
    • pp.384-393
    • /
    • 2002
  • 병렬 파일시스템은 클러스터 시스템에서 과도한 입출력 요청을 원활하게 지원하기 위해 사용되며, 특히 파일 선반입은 병렬 파일시스템의 성능을 개선하는데 유용하게 사용된다. 본 논문은 과학계산용 병렬 응용과 멀티미디어 서버 응용에서 효과적인 파일 접근 유형을 고려한 새로운 동적 파일 선반입기법인 Fips를 제안한다. 본 논문이 제안하는 동적 파일 선반입 기법인 Fips는 파일의 접근 유형을 고려하여 동적으로 선반입 할 데이타 블록을 예측하고, 다양한 접근 유형에서도 데이타 블록의 선반입을 효율을 높였다. 그리고 현재의 가용 대역폭을 고려하여 선반입 시기를 결정하므로 선반입이 시스템에 과부하로 작용하는 것을 방지하도록 하였다. 병렬 파일시스템에 Fips를 적용하여 실험한 결과 다양한 작업부하에서 제안한 선반입 기법은 우수한 성능을 보여주었다.

분산 웹 서버 시스템에서의 DNS 기반 동적 부하분산 기법 (DNS-based Dynamic Load Balancing Method on a Distributed Web-server System)

  • 문종배;김명호
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권3호
    • /
    • pp.193-204
    • /
    • 2006
  • 대부분의 분산 웹 시스템은 Domain Name System(DNS)을 이용하여 사용자 요청을 분산한다. DNS 기반 부하분산 시스템은 구성하기 쉬운 장점이 있지만, 주소 캐싱 매커니즘에 의해 서버들 사이의 부하 불균형이 발생한다. 또한, 서버의 상태를 파악하기 위해서 DNS의 수정이 필요하다. 본 논문에서는 DNS의 동적 갱신(dynamic update)과 라운드로빈 방법을 이용한 새로운 부하분산 기법을 제안한다. 본 논문에서 제안하는 방법은 DNS의 수정 없이 동적인 부하분산을 한다. 본 논문에서 제안하는 시스템은 서버의 부하량에 따라 서버를 DNS 리스트에 동적으로 추가, 삭제한다. 부하가 많은 서버를 DNS 리스트에서 제거함으로써 사용자 응답시간이 빠르다. 동적인 부하분산을 위하여 CPU와 메토리 네트워크 자원의 사용률에 따른 부하분산 알고리즘을 제안한다. GUI 기반의 관리도구를 이용하여 손쉽게 제안하는 시스템을 관리할 수 있다. 실험을 통하여 본 논문에서 구현한 모듈들이 제안된 시스템의 성능에 많은 영향을 주지 않는다는 것을 보여준다. 또한 기존 라운드로빈 DNS와의 비교실험을 통하여 사용자 응답시간과 파일전송률이 더 빠르다는 것을 보여준다.