• 제목/요약/키워드: Cache Policy

검색결과 136건 처리시간 0.02초

모바일 환경에서의 협력작업을 하는 프록시 서버를 위한 캐쉬 교체정책 (The Cache Replacement Policy for Collaborative Proxy Servers in Mobile Environments)

  • 장해권;한종현;정흥기;박승규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.85-87
    • /
    • 2003
  • 무선환경과 모바일 기기의 발달되고, 모바일 단말기의 보편화로 인해 유선환경에서 제공되던 각종 멀티미디어 서비스가 무선환경으로 옮겨가고 있다. 기존의 웹캐쉬 정책은 그 성능을 이미 검증 받았다. 그러나 그런 정책들은 인기도와 네트워크의 상태만을 고려했기 때문에 무선환경에서는 적합하지 않다. 본 논문에서는 무선환경에서 모바일 호스트의 이동성과 미디어 스트림의 특성을 고려한 캐쉬 교체 정책인 M-LRU를 제안한다. 그리고, 시뮬레이션을 통하여 기존의 LRU정책과 제안한 M-LRU 정책을 비교하였으며, 8-9%의 성능향상이 되었다는 것을 보여준다.

  • PDF

가중치 윈도우 기반의 미디어 캐쉬 교체 정책 (A Media Cache Replacement Policy based on Weighted Window)

  • 오재학;차호정
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 가을 학술발표논문집 Vol.29 No.2 (1)
    • /
    • pp.409-411
    • /
    • 2002
  • 본 논문에서는 스트리밍 미디어 캐슁 서버의 효율적인 캐슁 구조를 위하여 참조 횟수, 참조량, 참조 시간 둥의 정량적인 인자들과 사용자 요구 주기를 적용하여 최근 참조 경향에 높은 가중치를 부여함으로써 변화하는 콘텐츠 선호 경향에 빠르게 적응하는 가중치 기반의 캐쉬 교체 정책을 제안한다. 성능 분석은 시뮬레이션 환경 구축을 통해 실험하였으며 LRU, LFU와 SEG 캐쉬 정책과 비교 분석하여 향상된 결과를 보였다.

  • PDF

딥러닝의 파일 입출력을 위한 버퍼캐시 성능 개선 연구 (A Study on Improvement of Buffer Cache Performance for File I/O in Deep Learning)

  • 이정하;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권2호
    • /
    • pp.93-98
    • /
    • 2024
  • 인공지능과 고성능 컴퓨팅 기술이 급속히 발전하면서 다양한 분야에 딥러닝 기술이 활용되고 있다. 딥러닝은 학습 과정에서 대량의 데이터를 무작위로 읽어 학습을 진행하고, 이 과정을 반복한다. 많은 수의 파일들이 무작위로 반복 참조되는 딥러닝의 파일 입출력은 시간적 지역성을 지닌 일반적인 응용과는 다른 특징을 보인다. 이로 인한 캐싱의 어려움을 극복하기 위해 본 연구에서는 딥러닝 데이터셋 읽기의 무작위성을 줄이고 기존의 버퍼 캐시 알고리즘에 적응적으로 동작하는 새로운 데이터 읽기 방안을 제안한다. 본 논문에서는 실험을 통해 제안하는 방식이 버퍼 캐시의 미스율을 기존의 방식에 비해 평균 16%, 최대 33% 감소시키고, 수행시간을 24%까지 개선함을 보인다.

연관 규칙을 이용한 이동 호스트의 선반입 알고리즘 (A Prefetch Algorithm for a Mobile Host using Association Rules)

  • 김호숙;용환승
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권2호
    • /
    • pp.163-173
    • /
    • 2004
  • 최근 이동 컴퓨팅 환경에서 위치 기반 서비스를 지원하는 다양한 응용이 증가하고 있다. 본 논문은 이동 컴퓨팅 환경에서 대량의 공간 데이타베이스를 기반으로 효율적인 정보 서비스를 제공하기 위한 새로운 연관성 기반 선반입 알고리즘인 STAP을 제안한다. STAP은 이동 환경에서의 위치 기반 질의가 갖는 시-공간적 연관성을 이용한다. 또한 사용자의 이동 특성과 공간 데이타의 중요도를 함께 고려한다. STAP은 기존의 캐쉬 정책에서 고려하지 못했던 서비스 사이의 연관성이라는 새로운 측면을 고려함으로써 캐쉬 정책의 차원을 한 단계 높이는 계기가 되었다. 또한 성능 평가를 통하여 제안된 선반입 알고리즘의 효율성을 입증하였다.

Enhancing Location Privacy through P2P Network and Caching in Anonymizer

  • Liu, Peiqian;Xie, Shangchen;Shen, Zihao;Wang, Hui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권5호
    • /
    • pp.1653-1670
    • /
    • 2022
  • The fear that location privacy may be compromised greatly hinders the development of location-based service. Accordingly, some schemes based on the distributed architecture in peer-to-peer network for location privacy protection are proposed. Most of them assume that mobile terminals are mutually trusted, but this does not conform to realistic scenes, and they cannot make requirements for the level of location privacy protection. Therefore, this paper proposes a scheme for location attribute-based security authentication and private sharing data group, so that they trust each other in peer-to-peer network and the trusted but curious mobile terminal cannot access the initiator's query request. A new identifier is designed to allow mobile terminals to customize the protection strength. In addition, the caching mechanism is introduced considering the cache capacity, and a cache replacement policy based on deep reinforcement learning is proposed to reduce communications with location-based service server for achieving location privacy protection. Experiments show the effectiveness and efficiency of the proposed scheme.

트랜스코딩 프록시에서 세그먼트 기반 캐쉬 교체 정책 (Segment-based Cache Replacement Policy in Transcoding Proxy)

  • 박유현;김학영;김경석
    • 정보처리학회논문지A
    • /
    • 제15A권1호
    • /
    • pp.53-60
    • /
    • 2008
  • 최근 스트리밍 미디어는 인터넷 상의 많은 트래픽을 유발하고 있다. 기존의 웹을 위한 객체와 마찬가지로 스트리밍 객체 또한 프록시 시스템을 사용하게 되면 여러 이점이 있긴 하지만, 스트리밍 미디어를 캐슁 하는 방법은 기존의 웹을 위한 객체보다 매우 크고 높은 대역폭을 요구하기 때문에 고려해야 할 점이 많다. 또한 많은 종류의 단말들의 다양한 대역폭을 적절히 서비스 하기 위해서 프록시 기능과 트랜스코딩 기능을 함께 할 수 있는 트랜스코딩 프록시가 유용하다. 기존의 프록시는 객체가 프록시 서버에 저장되어 있거나, 그렇지 않은 경우로만 고려되었으나, 트랜스코딩 프록시에서는 같은 객체의 다양한 버전에 대해서 종합적인 효과를 고려하여 최적의 버전 집합을 저장 해야 한다. 또한 최근의 멀티미디어 캐슁 시스템들은 접근 빈도가 높은 앞부분을 캐슁하여 지연 시간을 줄이고 높은 효율을 얻을 수 있도록 하는 방법을 사용한다. 한편 많은 연구에서 멀티미디어 데이터의 효율적인 저장 관리를 위해서 객체를 세그먼트로 나누어 관리하는 방법을 사용하고 있다. 본 논문에서는 부분 캐슁을 사용하는 트랜스코딩 프록시에서 사용자 요청에 따른 후속 작업을 결정하기 위해 4개의 기본 이벤트를 이용하여 9개의 이벤트로 정의한다. 또한 트랜스코딩 프록시 시스템을 위하여 세그먼트 기반의 관리정책을 제안한다. 실험결과는 제안하는 방법이 사용자 지연시간, BHR와 트랜스코딩 데이터의 양이 적음을 보여준다.

공유 버스상에서 프로그램 특성을 사용한 프로세서 할당 정책 (A Processor Allocation Policy using Program Characteristics on Shared Bus)

  • 정인범;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권9호
    • /
    • pp.1073-1082
    • /
    • 1999
  • 본 논문에서는 시스템 내의 프로세서들을 효과적으로 사용하기 위한 적응적 프로세서 할당 정책을 제안한다. 프로그램의 병렬성을 향상시키기 위하여 일반적으로 병렬 처리에 사용될 프로세서 개수를 증가시킨다. 그러나 증가된 프로세서들은 그레인 크기에 변화를 일으키며 이는 캐쉬 성능에 영향을 미친다. 특히 대역이 제한된 공유 버스를 사용하는 시스템에서는 프로세서 개수의 증가는 공유 버스에 대한 접근 경쟁을 크게 증가하므로 버스에서 대기하는 시간이 프로세서 증가에 의한 계산 능력 이득을 상쇄시키는 주요한 원인이 되고 있다. 본 논문에서 제안한 적응적 프로세서 할당 정책은 프로그램이 수행되는 도중에 임의의 기간동안 공유버스에 대기중인 프로세서 분포에 관한 정보를 얻는다. 그리고 이 정보를 바탕으로 프로세서 개수를 변경하는 방법이다. 모의 시험에서 적응적 프로세서 할당 정책은 프로그램들의 버스 트래픽 특성에 따른 최적의 적합한 프로세서 개수를 발견함을 보인다. 그리고 적응적 프로세서 할당 정책은 고정된 프로세서 개수를 사용한 가장 좋은 성능보다는 다소 떨어진 성능을 나타내었으나 시스템의 프로세서 활용성을 높여 효과적 시스템 사용에 기여함을 보인다. Abstract In this paper, the adaptive processor allocation policy is suggested to make effective use of processors in system. To enhance the parallelism, the number of processors used in the parallel computing may be increased. However, increasing the number of processors affects the grain size of the parallel program. Therefore, it affects the cache performance. In particular, when the shared bus is employed, since increasing the number of processors can result in a significant amount of contention to achieve the shared-bus, the increased computing power is offset by the bus waiting time due to these contentions. The adaptive processor allocation policy acquires the information about the distribution of waiting processors on shared bus for any execution period of programs. And it changes the number of processors working in parallel processing during the program's run. Our simulation results show that the adaptive processor allocation policy finds the optimum feasible number of processors based on the bus traffic characteristic of programs. Thus, it contributes to effective system utilization, even though it performs slightly less efficiently than using a fixed number of processors with the best performance.

스트리밍 데이터의 선인출에 사용되는 참조예측표의 스칼라 우선 교체 전략 (Scalar First Replacement Strategy for Reference Prediction Table Used in Prefetching Streaming Data)

  • 임철후;전영숙;김석일;전중남
    • 정보처리학회논문지A
    • /
    • 제11A권3호
    • /
    • pp.163-172
    • /
    • 2004
  • 멀티미디어 응용프로그램의 데이터는 주소 간격이 일정한 스트리밍 패턴으로 참조되는 특성이 있다. 이러한 특성을 선인출방법에 적용하여 멀티미디어 응용프로그램의 수행속도를 향상시킬 수 있다. 참조예측표에 의한 선인출방법은 메모리 참조명령어의 과거 기록을 이용하여 규칙적으로 참조되는 메모리주소를 예측한다. 이 논문은 참조예측표를 사용하는 하드웨어 기반의 규칙 선인출방법에서 효율적인 참조예측표 운영방법을 제안한다. 참조예측표에 입력되는 메모리 참조명령어는 스칼라데이터 참조명령어와 스트리밍데이터 참조명령어로 구성된다. 스칼라데이터 참조명령어는 선인출에 사용되지 않으므로 스칼라데이터 참조명령어를 우선적으로 교체함으로서, 참조예측표를 효과적으로 사용할 수 있다. 이방법은 기존 FIFO 방법과 비교할 때, 선인출에 사용되는 스트리밍데이터 참조명령어를 참조예측표에 더 오래 유지함으로써, 선인출 성능이 향상된다.

데이터 방송 환경에서의 효율적인 캐슁 정책 (An Efficient Caching Strategy in Data Broadcasting)

  • 김수연;최양희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권12호
    • /
    • pp.1476-1484
    • /
    • 1999
  • TV 방송 분야에서 다양한 정보와 상호 작용성을 제공하기 위해서 최근 기존 방송 내용인 A/V 스트림 외 부가정보 방송이 시도되고 있다. 데이타 방송에 대한 기존 연구는 대부분 고정된 내용의 데이타를 방송하는 환경을 가정하고 있어서 그 결과가 방송 내용의 변화가 많은 환경에 부적합하다. 본 논문에서는 데이타에 대한 접근이 반복되지 않을 가능성이 높고 사용자 접근 확률을 예상하기 어려운 상황에서 응답 시간을 개선하는 방안으로 수신 데이타를 무조건 캐쉬에 반입하고 교체가 필요한 경우 다음 방송 시각이 가장 가까운 페이지를 축출하는 사용자 단말 시스템에서의 캐슁 정책을 제안하였다. 제안된 캐쉬 관리 정책은 평균적인 캐쉬 접근 실패 비용을 줄임으로써 사용자 응답 시간을 개선하며, 서로 다른 스케줄링 기법을 사용하는 다양한 방송 제공자가 공존하는 환경에서 보편적으로 효과를 가져올 수 있다.Abstract Recently, many television broadcasters have tried to disseminate digital multimedia data in addition to the traditional content (audio-visual stream). The broadcast data need to be cached by a client system, to provide a reasonable response time for a user request. Previous studies assumed the dissemination of a fixed set of items, and the results are not suitable when broadcast items are frequently changed. In this paper, we propose a novel cache management scheme that chooses the replacement victim based on the remaining time to the next broadcast instance. The proposed scheme reduces response time, where it is hard to predict the probability distribution of user accesses. The caching policy we present here significantly reduces expected response time by minimizing expected cache miss penalty, and can be applied without difficulty to different scheduling algorithms.

인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책 (A novel page replacement policy associated with ACT-R inspired by human memory retrieval process)

  • 노홍찬;박상현
    • 정보처리학회논문지D
    • /
    • 제18D권1호
    • /
    • pp.1-8
    • /
    • 2011
  • 자주 접근되는 데이터에 대해서 빠른 접근을 보장하기 위해 사용되는 임시저장소인 캐쉬는 컴퓨터 시스템 내에서 다양한 계층에 존재하며, 이러한 캐쉬 저장 공간 내에서 효율적으로 데이터를 관리하기 위해 다양한 페이지 교체 알고리즘들이 연구되어 왔다. 대부분의 페이지 교체 알고리즘들은 얼마나 최근에 데이터가 접근 되었는가 또는 얼마나 자주 접근되었는가를 바탕으로 향후 다시 접근될 것 같은 데이터들을 캐쉬 안에 유지하는 휴리스틱 방법을 취하고 있다. 이러한 컴퓨터 내에서의 데이터의 인출 과정은 인간의 기억 인출 과정과 유사하며, 인간의 기억 인출 과정 역시 캐쉬 구조처럼 기억이 얼마나 최근에 그리고 자주 인출되었는가에 의해 그 기억 인출의 확률과 인출속도가 결정된다는 것이 최근 연구에 의해서 밝혀진바 있다. 본 연구에서는 인간의 기억 인출 과정에서의 과거 해당 기억에 대한 인출 기록들의 최근성과 빈도가 인출 확률에 영향을 미치는 관계를 분석하고 이를 페이지 교체 알고리즘에 응용하여 기존의 페이지 교체 알고리즘의 성능을 개선하였다. 또한, 실험을 통해 제안하는 페이지 교체 알고리즘이 기존에 데이터베이스 버퍼 캐쉬에서 가장 좋은 성능을 보이는 것으로 알려진 LRFU보다 파라미터에 민감하지 않고 우수한 성능을 보인다는 것을 입증하였다.