• 제목/요약/키워드: 캐시 적중률

검색결과 49건 처리시간 0.031초

데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계 (Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search)

  • 김광중;고현;김영자;이연식
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.153-166
    • /
    • 2005
  • 기존 단일 캐시 구조는 각기 사용되는 교체 전략에 따라 적중률의 차이를 보임으로써 보다 향상된 적중률을 제공하며 서버 및 네트워크 트래픽을 감소시키는 새로운 캐시 구조가 필요하다. 그러므로 본 논문에서는 지속적인 정보 제공 및 동일한 정보의 중복 요청으로 인한 서버 과부하 및 네트워크 트래픽을 감소시키며 적중률을 향상시키는 이중 캐시를 이용한 푸시 에이전트 모델을 설계한다. 제안된 푸시 에이전트 모델에서는 서버 및 네트워크 부하를 감소시키기 위해 두 개의 캐시 저장소를 이용하여 단계적인 캐시 교체를 수행하는 이중 캐시 구조를 제안하며, 또한 캐시 내 데이터들의 효용성을 증가시키기 위해 Log(Size)+LRU, LFU, PLC의 교체 정책을 기반으로 데이터 갱신과 삭제를 수행하는 새로운 캐시 교체기법 및 알고리즘을 제시한다. 그리고 실험을 통해 이중 캐시 푸시 에이전트 모델에 대한 성능을 평가한다.

  • PDF

무선 메쉬 네트워크를 위한 캐시 적중률 기반 파워 소모 모델 (A Cache Hit Ratio based Power Consumption Model for Wireless Mesh Networks)

  • 전승현;서용준
    • 산업융합연구
    • /
    • 제18권2호
    • /
    • pp.69-75
    • /
    • 2020
  • 산업용 IoT는 비용 효율적이고 넓은 커버리지를 제공하는 무선 메쉬 네트워크에 관심이 많았다. 하지만, 무선 메쉬 네트워크는 멀티홉 환경의 심각한 성능 절하를 겪는다. 이를 극복하기 위해 메쉬 라우터에 캐시를 장착하는 연구가 많았으나 캐시 파워 소모 모델 연구는 적었다. 최근 캐시 파워 효율 기반 모델은 캐시까지 콘텐츠 전달 파워를 모두 측정했기 때문에 무선 메쉬 네트워크에서 쓰기에 부적절합니다. 본 논문은 CPU의 동작속도가 캐시 크기에 비례한다는 사실을 이용하여 캐시 적중률 기반 파워 소모 모델을 제안하고, 기존 캐시 파워 효율 기반 소모 모델과 비교하여 정확하게 측정되었다. 제안된 캐시 적중률 기반 파워 소모 모델은 산업용 IoT에서 무선 메쉬 네트워크를 구성할 시 에너지 효율적인 캐시 운용을 위한 참조 모델로 활용되길 기대합니다.

파일 타입을 이용한 웹 캐싱 (Web Caching using File Type)

  • 임재현;이준연
    • 정보처리학회논문지C
    • /
    • 제9C권6호
    • /
    • pp.961-968
    • /
    • 2002
  • 본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다.

멀티미디어 웹 서비스를 위한 캐시 정책 (Cache Policies for Multimedia Web Server)

  • 최영주;임재현;김치수;이준연
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(상)
    • /
    • pp.379-382
    • /
    • 2003
  • 본 논문에서는 멀티미디어 웹 서버에 나타나는 통신량을 추적하여 사용자의 액세스 패턴을 분석하고 그에 따른 캐싱 모델을 수립하였다. 적중률과 바이트적중률을 동시에 향상시키기 위한 파일 타입 캐시 정책을 제안하였으며, 성능을 평가한 결과 캐시의 유용성을 개선하였다.

  • PDF

캐시 적중률 향상을 위한 웹 서버 클러스터의 협력적 캐싱 (Cooperative Caching of Web Server Cluster for Improving Cache Hit Rate)

  • 김희규;최창열;박기진;김성수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (C)
    • /
    • pp.563-565
    • /
    • 2003
  • 최근 클러스터에 대한 연구는 내용 기반 클러스터의 부하 분배와 캐시 정책에 집중되고 있다. 본 논문에서는 웹 서비스의 고가용성 및 확장성을 제공하는 클러스터 환경에서 힌트 기반 협력적 캐싱의 캐시 적중률을 향상시키기 위해 기존의 DFR 기법을 개선하였다. 서비스 접근 확률을 이용하여 주 복사본과 종속 복사본을 선택적으로 제거하는 메모리 교체 방법을 제시하였으며, DFR 방식과 성능을 비교, 분석한 결과 DFR 방식보다 적은 디스크 접근률을 얻을 수 있었다.

  • PDF

NAND 플래시 메모리 기반 파일시스템을 위한 더블 캐시 정책 설계 (A Design of Double Cache Policy for File System Based on NAND Flash Memory)

  • 박명규;김성조
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (B)
    • /
    • pp.366-370
    • /
    • 2008
  • NAND 플래시 메모리는 특성상 쓰기 횟수가 제한적이라는 단점을 가지고 있어 쓰기 연산이 빈번히 발생하게 되면 NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 지연 쓰기 기법이 연구되고 있다. 하지만 지연 쓰기를 하기 때문에 쓰기 횟수는 줄어들지만 캐시 적중률이 낮아진다. 이러한 문제해결을 위해 본 논문에서는 NAND 플래시 메모리 기반 파일 시스템을 위한 더블 캐시 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 요구 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Real Cache에서의 지연 쓰기를 하지 않고, Ghost Cache 공간에서 dirty페이지와 clean페이지를 활용하여 효율적인 지연 쓰기가 가능하도록 설계함으로써 쓰기 횟수를 줄이고, 적중률을 높인다.

  • PDF

2단계 디스크 캐시를 이용한 RAID 5 제어기 설계 (Designing a RAID 5 Controller with Two-Level Disk Cache)

  • 허정호;장태무
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.25-27
    • /
    • 2003
  • RAID 시스템에서 디스크 캐시는 시스템 성능 향상에 중요한 요소 중 하나이다. 2단계 캐시는 1단계 캐시에 비해 우수한 성능을 보이고 시간적, 공간적 지역성에도 효율적이다. 제안된 캐시 시스템은 2 단계로 구성되어 1단계 캐시는 작은 블록 크기로 구성되어 세트 연관 사상 방식을 이용하고 2단계 캐시는 큰 블록 크기로 구성되어 전 연관 사상 방식을 사용한다. 본 논문에서는 특히 대용량 디스크 캐시에서 디스크입출력 시간을 향상시키고 효율적으로 일관성을 유지할 수 있는 디스크 제어기 상에 위치하는 RAID 5 디스크 캐시의 모델을 제시하여 적중률을 향상시켜 수행속도를 개선시키고자 한다.

  • PDF

연속미디어 파일 시스템의 버퍼 캐시에서 데이터 참조 유형의 고려 (Considering Data Reference Pattern in Buffer Cache for Continuous Media File System)

  • 조경운;류연승;고건
    • 정보처리학회논문지A
    • /
    • 제9A권2호
    • /
    • pp.163-170
    • /
    • 2002
  • 연속미디어 파일을 위한 버퍼 캐시 기법들은 연속 미디어의 순차적 접근만을 고려하고 반복참조는 고려하지 않았다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 연속미디어 파일 시스템을 위한 새로운 버퍼 캐시 기법을 제안한다. 제안한 기법은 파일의 참조 유형을 탐지하고 파일 별로 적절한 교체 정책을 적용하여 버퍼 캐시 적중률을 높인다.

CCN에서 적중률 향상을 위한 지연감쇠 LFU(DA-LFU) 캐시 교체 정책 (Delay Attenuation LFU (DA-LFU) Cache Replacement Policy to Improve Hit Rates in CCN)

  • 반빈;권태욱
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권3호
    • /
    • pp.59-66
    • /
    • 2020
  • 현재 네트워크의 트래픽 부하 급증과 같은 문제를 해결하기 위해 기존의 호스트 기반 네트워크와 완전히 다른 아키텍처를 가진 콘텐츠 중심네트워크(CCN)가 등장하였다. 네트워크 상 모든 라우터가 캐시 한다는 특징을 가진 CCN의 성능을 향상시키기 위해 캐시 교체 정책에 대한 연구가 매우 활발하다. 따라서 본 논문에서는 실제 네트워크 상황을 고려하여 요청되는 콘텐츠의 인기도가 끊임없이 변화하는 상황에 적합한 캐시 교체 정책을 제안한다. 제안하는 알고리즘의 성능을 평가하기 위해 콘텐츠의 인기도가 지속적으로 변화하는 환경에서 실험하였고, 적중률 비교와 서버 부하분석을 통해 기존의 교체정책보다 우수함을 확인하였다.

소형셀 환경에서 사용자 컨텍스트 기반 무선 캐시 알고리즘 (Wireless Caching Algorithm Based on User's Context in Smallcell Environments)

  • 정현기;정소이;이동학;이승규;김재현
    • 한국통신학회논문지
    • /
    • 제41권7호
    • /
    • pp.789-798
    • /
    • 2016
  • 본 논문에서는 home 소형셀 대비 넓은 커버리지를 갖고 많은 사용자를 서비스 하는 enterprise/urban 소형셀 환경에서 적용할 수 있는 사용자 컨텍스트 기반 캐시 알고리즘을 제안한다. 소형셀 캐시 기법은 소형셀 사용자의 웹 트래픽을 소형셀 내부에 위치한 저장 공간에 저장하는 방법으로 코어망 트래픽을 감소시키는 효과가 있다. 본 논문에서는 기존의 알고리즘과 달리 Mobile Edge Computing(MEC)의 개념을 적용하여 소형셀 내부가 아닌 edge server에 사용자 트래픽을 캐시하며 사용자 특성을 반영하기 위해 사용자를 그룹화한다. 또한, 그룹별 저장 공간의 크기를 달리하고, 캐시 업데이트 주기를 캐시 적중률에 따라 변경하여 코어망으로부터 제공받는 트래픽을 감소하고자 하였다. 성능 분석 결과 기존 알고리즘 대비 캐시 적중률 측면에서 약 11%, cache efficiency 측면에서 약 5.5%의 성능 향상을 확인할 수 있었다.