• 제목/요약/키워드: Cache Policy

검색결과 136건 처리시간 0.021초

리눅스 상에서 멀티미디어 데이타를 고려한 지역 버퍼 할당 기법 (A Local Buffer Allocation Scheme for Multimedia Data on Linux)

  • 신동재;박성용;양지훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.410-419
    • /
    • 2003
  • 리눅스와 같은 범용 운영체제의 버퍼 캐시(buffer cache)는 전역적(global) 블록 교체 및 미리읽기(read ahead) 정책 등을 사용하여 파일 블록을 관리한다. 따라서, 참조의 지역성(locality)을 가지지 않고 다양한 소비율(consumption rate)을 갖고 있는 멀티미디어 데이타의 경우 캐시 시스템의 적중률이 낮을 뿐만 아니라 미리읽기의 특성으로 인하여 필요보다 과도하게 버퍼를 소비하기도 한다. 본 논문에서는 리눅스 상에서 멀티미디어 데이타를 위한 새로운 버퍼 할당 기법을 설계하고 구현하였다. 제안된 방법에서는 멀티미디어 파일마다 독립적인 미리읽기 캐시를 유지하며 미리읽기 그룹의 크기를 소비율에 비례하도록 동적으로 조절한다. 이는 공정한 자원 분배가 이루어지도록 하며, 버퍼의 소비량을 최적화되도록 한다. 본 논문에서는 구현된 시스템과 최신의 리눅스 커널 2.4.17 버전 상에서 각각 소비되는 버퍼 수와 캐시 적중률을 실험을 통하여 비교함으로써 시스템의 성능을 평가한다.

콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구 (A Comparison Study on Data Caching Policies of CCN)

  • 김대엽
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.327-334
    • /
    • 2017
  • 네트워크 성능 향상을 위하여 CDN/P2P와 같은 기술들은 이전에 사용자들 또는 프락시 시스템에 저장되어 있는 복사본을 사용하도록 설계 되었다. CCN 역시 이와 같은 기능을 구현한다. 그러나 CDN/P2P와 달리, CCN은 이와 같은 캐시 기능을 네트워크 노드에 구현하고, 네트워크 노드들이 콘텐츠 요청 메시지에 직접 응답할 수 있도록 설계 되었다. 그러므로 CCN의 성능에 가장 중요한 요소는 캐시 되는 콘텐츠와 노드를 결정하는 기술이다. 기본적으로, CCN은 콘텐츠가 전송될 때 경유하는 모든 네트워크 노드들에 해당 콘텐츠가 캐시 되도록 설계되었지만, 이와 같은 접근 방법은 중복 캐시 발생으로 인하여 매우 비효율적이라 할 수 있다. 이러한 문제를 해결하기 위하여 다양한 캐시 운영 방법이 제안되었다. 본 논문에서는 지금까지 제안된 캐시 운영 방안들을 살펴보고, 실제 운영을 위해 필요한 효과적인 캐시 운영을 위한 핵심 요구사항들을 제안한다.

임베디드 RISC 코어의 성능 및 전력 개선 (Performance and Power Consumption Improvement of Embedded RISC Core)

  • 정홍균;류광기
    • 한국정보통신학회논문지
    • /
    • 제14권2호
    • /
    • pp.453-461
    • /
    • 2010
  • 본 논문에서는 임베디드 RISC 코어의 성능 및 전력 소모 개선을 위해 동적 분기예측 구조, 4원 집합연관 캐쉬 구조, ODC 연산을 이용한 클록 게이팅 기법을 제시한다. 동적 분기 예측 구조는 분기 명령에 대해 다음에 실행될 명령에 대한 예측 주소를 저장하는 BTB (Branch Target Buffer)를 사용한다. 4원 집합연관 캐쉬는 네 개의 메모리 블록을 한 개의 캐쉬 블록에 사상되는 구조로서 직접사상 캐쉬에 비해 접근 실패율이 낮고 라인 교체 방식으로 Pseudo-LRU 방식을 채택하여 LRU 정보를 저장하는 비트 수를 감소시킨다. ODC를 이용한 클록게이팅 기법은 논리합성 개념인 무관조건의 입출력 ODC 조건을 찾아 클록 게이팅 로직을 삽입함으로써 동적 소비전력을 줄인다. 제시한 구조들을 임베디드 RISC 코어인 OpenRISC 코어에 적용하여 성능을 측정한 결과, 기존 OpenRISC 코어 대비 실행시간이 약 29% 향상 되었고, Chartered $0.18{\mu}m$ 라이브러리를 이용하여 동적 전력을 측정한 결과, 기존 OpenRISC 코어 대비 소비전력이 16% 이상 감소하였다.

무선 홈 네트워킹 서비스를 위한 스마트 캐싱 기법 (A Smart Caching Scheme for Wireless Home Networking Services)

  • 이종득
    • 디지털융복합연구
    • /
    • 제17권9호
    • /
    • pp.153-161
    • /
    • 2019
  • 무선 홈 프록시에서 미디어 객체 세그먼트들에 대한 식별은 캐싱 지연에 중요한 영향을 미치게 되며, 캐싱 지연은 프록시의 성능을 떨어뜨리는 원인을 제공한다. 본 논문에서는 홈 네트워크의 프록시 성능을 향상시키고 미디어 객체 세그먼트들에 대한 캐싱 성능을 향상시키기 위하여 SFSC(Single Fetching Smart Caching)전략과 MFSC(Multi-Fetching Smart Caching)전략을 제안한다. SFSC전략은 홈 노드가 요청한 객체 세그먼트를 한 번에 하나씩 순차적으로 패칭하여 캐싱을 수행하는 기법으로서 보다 빠른 캐시 히트율을 보장해 주는 기법이며, MFSC전략은 홈 노드가 요청한 객체 세그먼트를 한 번에 여러 개씩 block화하여 캐시하는 기법으로서 처리율을 향상시키기 위한 기법이다. 시뮬레이션 결과 SFSC기법은 MFSC기법에 비해서 캐시 히트율과 캐싱 지연이 보다 효율적임을 알 수 있었으며, 반대로 객체 세그먼트에 대한 처리율은 MFSC기법이 SFSC기법에 비해서 보다 효율적임을 알 수 있었다.

EXT3NS 파일 시스템을 위한 버퍼 캐시의 설계 및 구현 (Design and Implementation of Buffer Cache for EXT3NS File System)

  • 손성훈;정성욱
    • 한국정보통신학회논문지
    • /
    • 제10권12호
    • /
    • pp.2202-2211
    • /
    • 2006
  • EXT3NS 파일 시스템은 Network-Storage Card(NS 카드)라는 전용 하드웨어를 기반으로 하는 멀티미디어 스트리밍 서버를 위한 파일 시스템이다. EXT3NS는 NS 카드 상의 PCI memory(PMEM)를 이용, 스트리밍 시 디스크에 있는 데이터를 메인 메모리를 거치지 않고 바로 네트워크 카드로 내보냄으로써 스트리밍 서버의 성능을 향상시킨다. 본 논문에서는 NS 카드에 있는 PMEM을 기반으로 한 버퍼 캐시를 추가 설계, 구현하고, 이 버퍼 캐시가 EXT3NS 파일 시스템을 채용한 서버의 멀티미디어 스트리밍의 성능을 개선시킬 수 있음을 보인다. 또한, 제안된 버퍼 캐시 상에서 다수의 동시 사용자를 지원하는 멀티 미디어 스트리 밍 서버를 위한 버퍼 캐시 교체 정책인 Old New Section(ONS) 교체 기법을 제안한다. 제안된 OSN 교체 기법은 멀티미디어 스트리밍 환경에서 기존의 교체 정책들 보다 좋은 성능을 보인다. 성능 평가 결과, 다시 읽기동작과 무작위 읽기 동작에서 기존의 EXT3NS 파일 시스템 보다 PMEM에 캐시를 사용한 EXT3NS가 각각 평균 33MB/sec, 2.4MB/sec의 성능이 향상 되었다. 또한, 다시 읽기 동작의 경우 기존의 Least Frequently Used(LFU) 교체 정 책을 사용한 경우보다 ONS 교체 정책을 사용한 경우가 약 600KB/sec의 성능 증가를 보인다. 이러한 결과는 동시에 여러명의 사용자 요구를 처리해야 하는 대용량 멀티 미디어 스트리밍 서버에서 보다 효과적인 읽기 동작을 처리할 수 있음을 나타낸다.

저전력을 위한 버퍼 캐쉬 관리 기법 (Buffer Cache Management for Low Power Consumption)

  • 이민;서의성;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권6호
    • /
    • pp.293-303
    • /
    • 2008
  • 컴퓨팅 환경이 무선과 휴대용 시스템으로 변화하면서, 전력효율이 점점 중요해지고 있다. 특히 내장형 시스템일 경우에 더욱 그러한데 이중 메모리에서 소모되는 전력이 전체 전력소모의 두 번째 큰 요소가 되고 있다. 메모리 시스템에서의 전력소모를 줄이기 위해서 SDRAM의 저전력 모드를 활용할 수 있다. RDRAM의 경우 냅모드(nap mode)는 액티브 모드(active mode)의 5%이하의 전력만을 소모한다. 하지만 하드웨어 컨트롤러는 운영체제가 협조하지 않으면 이 기능을 효율적으로 활용하지 못한다. 이 논문에서는 SDRAM의 액티브 유닛(active unit)의 수를 최소화하는 방법에 초점을 맞춘다. 운영체제는 참조되지 않는 메모리를 저전력 모드에 놓음으로써 최소한의 유닛들만을 액티브 모드에 놓은 상태로 프로그램이 수행될 수 있도록 피지컬(physical) 페이지들을 할당한다. 이것은 PAVM(Power Aware Virtual Memory) 연구의 일반화된 시스템 전반에 대한 연구라고 할 수 있다. 우리는 모든 피지컬 메모리를 고려하고 있으며, 특히 평균적으로 전체 메모리의 절반을 사용하는 버퍼 캐시를 고려하고 있다. 버퍼 캐시의 용량과 그 중요성 때문에 PAVM 방식은 버퍼 캐시를 고려하지 않고는 완전한 해법이 되지 못한다. 이 논문에서 우리는 메모리의 사용처를 분석하고 저전력 페이지 할당 정책을 제안한다. 특히 프로세스의 주소공간에 매핑(mapping)된 페이지들과 버퍼 캐시가 고려된다. 이 두 종류의 페이지들간의 상호작용과 그 관계를 분석하고 저전력을 위해 이러한 관계를 이용한다.

이중 캐쉬 서버를 사용한 실시간 데이터의 좡대역 네트워크 대역폭 감소 정책 (A Strategy To Reduce Network Traffic Using Two-layered Cache Servers for Continuous Media Data on the Wide Area Network)

  • 박용운;백건효;정기동
    • 한국정보처리학회논문지
    • /
    • 제7권10호
    • /
    • pp.3262-3271
    • /
    • 2000
  • 연속형 미디어 데이터는 대용량이고 실시간으로 전송되어야 하므로 데이터 전송 시에 네트워크에 많은 부하를 주게 된다. 이러한 네트워크는 부하 문제를 해결하기 위하여 프락시 서버가 사용되며 프락시 서버에는 자주 접근되는 데이터가 저장되어 원래의 데이터가 존재하는 서버로의 네트워크 교통량을 줄이게 된다. 그러나 현재의 프락시 서버는 텍스트나 이미지 데이터등의 비 연속형 데이터만을 고려하여 설계되었으므로 연속형 미디어 데이터의 캐슁에는 적합하지 않다. 그러므로 본 연구에서는 연속형 미디어 데이터의 특징을 고려하여 프락시 서버를 두 계층으로 나누어 배치하여 데이터를 캐슁하고 데이터의 접근 패턴과 크기를 동시에 고려한 재할당 정책을 사용하여 캐쉬공간을 관리하는 프락시 서버 관리 정책을 제안한다. 제안된 정책에서는 각각의 LAN 마다 하나의 프락시 서버가 존재하며 각 LAN은 여러 개의 서브LAN으로 나뉘어 져서 이러한 각각의 서브 LAN에는 또한 하나의 서브 LAN 프락시가 존재한다. 이에 병행하여 각각의 데이터들도 각각 전방 분할(front-end partition)과 후방 분할(rear-end partition)로 나뉘어져서 해당 데이터의 참조 유형에 따라 하나의 프락시에 동시에 저장되기도 하고 LAN 캐쉬 서버와 서브 LAN 캐쉬 서버에 각각 따로 저장되기도 한다. 이러한 정책을 사용함으로써 전체 데이터를 단위로 캐슁할 경우보다 데이터공간의 할당과 재할당에 따른 오버헤드가 감소함으로써 궁극적으로는 원래의 저장 서버로의 네트워크 교통량을 보다 더 감소시킬 수 있다.

  • PDF

블록 참조 패턴의 특성 분석과 자동 발견 (Characteristics and Automatic Detection of Block Reference Patterns)

  • 최종무;이동희;노삼혁;민상렬;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권9호
    • /
    • pp.1083-1095
    • /
    • 1999
  • 최근 처리기와 입출력 시스템의 속도 차이가 점점 커짐에 따라 버퍼 캐쉬의 효율적인 관리가 더욱 중요해지고 있다. 버퍼 캐쉬는 블록 교체 정책과 선반입 정책에 의해 관리되며, 각 정책은 버퍼 캐쉬에서 블록의 가치 즉 어떤 블록이 더 가까운 미래에 참조될 것인가를 결정해야 한다. 블록의 가치는 응용들의 블록 참조 패턴의 특성에 기반하며, 블록 참조 패턴의 특성에 대한 정확한 분석은 올바른 결정을 가능하게 하여 버퍼 캐쉬의 효율을 높일 수 있다. 본 논문은 각 응용들의 블록 참조 패턴에 대한 특성을 분석하고 이를 자동으로 발견하는 기법을 제안한다. 제안된 기법은 블록의 속성과 미래 참조 거리간의 관계를 이용해 블록 참조 패턴을 발견한다. 이 기법은 2 단계 파이프라인 방법을 이용하여 온라인으로 참조 패턴을 발견할 수 있으며, 참조 패턴의 변화가 발생하면 이를 인식할 수 있다. 본 논문에서는 8개의 실제 응용 트레이스를 이용해 블록 참조 패턴의 발견을 실험하였으며, 제안된 기법이 각 응용의 블록 참조 패턴을 정확히 발견함을 확인하였다. 그리고 발견된 참조 패턴 정보를 블록 교체 정책에 적용해 보았으며, 실험 결과 기존의 대표적인 블록 교체 정책인 LRU에 비해 최대 57%까지 디스크 입출력 횟수를 줄일 수 있었다.Abstract As the speed gap between processors and disks continues to increase, the role of the buffer cache located in main memory is becoming increasingly important. The buffer cache is managed by block replacement policies and prefetching policies and each policy should decide the value of block, that is which block will be accessed in the near future. The value of block is based on the characteristics of block reference patterns of applications, hence accurate characterization of block reference patterns may improve the performance of the buffer cache. In this paper, we study the characteristics of block reference behavior of applications and propose a scheme that automatically detects the block reference patterns. The detection is made by associating block attributes of a block with the forward distance of the block. With the periodic detection using a two-stage pipeline technique, the scheme can make on-line detection of block reference patterns and monitor the changes of block reference patterns. We measured the detection capability of the proposed scheme using 8 real workload traces and found that the scheme accurately detects the block reference patterns of applications. Also, we apply the detected block reference patterns into the block replacement policy and show that replacement policies appropriate for the detected block reference patterns decreases the number of DISK I/Os by up to 57%, compared with the traditional LRU policy.

웹과 멀티미디어 요청이 혼재한 환경에서 네트워크 전송 비용을 고려한 프락시 캐시 교체 정책 (Proxy Cache Replacement Policy reflecting Network Transmission Costs in Web and Multimedia Environments)

  • 서진모;강지숙;남동훈;박승규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 봄 학술발표논문집 Vol.29 No.1 (A)
    • /
    • pp.10-12
    • /
    • 2002
  • 사용자의 요구와 인터넷 어플리케이션의 발달로 규모가 큰 미디어 오브젝트의 수가 급증하고 있다. 따라서 네트워크 전송비용은 반드시 고려해야 하는 중요한 요소이다. 본 논문에서는 기존 프락시 캐시 교체 정책들을 분석하고, 이를 개선한 G-N 및 L-N 정책을 제안한다. 이것은 프락시 캐시 소프트웨어인 'Squid'에서 채택하고있는 GDSF와 LFU-DA 정책에 네트워크 전송 비용을 추가하여 확장한 알고리즘이다. 시뮬레이션을 통하여 기존의 알고리즘과 비교해 본 결과, 평균 응답 시간을 10%이상 감소시킬 수 있었으며, 추가로 드는 비용(Processing Overhead)은 3게 증가하지 아니 하였음을 확인하였다.

  • PDF

VoIP에서 Q-SIP와 COPS-ODRA를 통한 정책결정과 QoS 지원

  • 조규철;한기준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 춘계학술발표논문집 (중)
    • /
    • pp.1453-1456
    • /
    • 2003
  • 인터넷의 발달로 인하여 기존 전화망을 인터넷 망으로 적은 비용으로 사용하고자 VoIP 가 연구되기 시작하였다. VoIP 의 기존전화망과의 품질의 차이에도 불구하고 대폭적인 통화비용의 절감과 다양한 이점으로 많은 연구가 되고 있다. 이에 통화품질의 향상을 위하여 QoS에 대한 연구가 활발히 진행되고 있다. 여기서는 QoS를 지원하는 Q-SIP 서버와 Policy Based 의 COPS 를 이용하여 Pre-COPS update message 와 Reservation COPS cache로 정책결정과 QoS를 지원하고자 한다.

  • PDF