• 제목/요약/키워드: Cache management

검색결과 212건 처리시간 0.219초

그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법 (Load Balancing Method for Query Processing Based on Cache Management in the Grid Database)

  • 신숭선;백성하;어상훈;이동욱;김경배;정원일;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제11권7호
    • /
    • pp.914-927
    • /
    • 2008
  • 그리드 컴퓨팅 환경에서 대용량 데이터의 처리와 가용성 향상, 데이터 통합을 위해 그리드 데이터베이스 관리 시스템이 사용된다. 그리드 데이터베이스 관리 시스템은 효율저인 질의처리를 위해 여러 노드로 질의를 분산하여 처리한다. 하지만 질의 처리가 임의의 노드에 집중되어 처리 성능이 감소되고, 작업 부하의 불균형이 발생한다. 본 논문에서는 그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법을 제안한다. 제안 기법에서는 여러 노드에 있는 캐쉬들을 관리하기 위해 캐쉬 관리자를 사용하며, 캐쉬 관리자는 노드를 지역별 그룹으로 연결하고 자신의 그룹 안에 있는 노드의 캐싱된 메타 정보를 관리한다. 노드는 캐쉬 관리자를 통해 질의를 전달 할 최적의 메타 정보를 캐싱한다. 노드에서 캐싱된 메타 정보를 통해 질의를 전달하여 노드의 부하를 분산한다. 제안 기법은 캐쉬 기반으로 부하가 적은 노드에서 질의를 처리하여 노드들의 부하를 분산하여 질의 처리시에 향상된 성능을 보인다.

  • PDF

렌더링 시스템을 위한 버퍼캐쉬 관리기법 (Management Technique of Buffer Cache for Rendering Systems)

  • 신동희;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.155-160
    • /
    • 2018
  • 본 논문에서는 범용 시스템에서 널리 사용되는 버퍼캐쉬가 렌더링 소프트웨어 수행시 비효율적으로 동작한다는 것을 분석하고 이를 해결하는 렌더링 시스템용 버퍼캐쉬 관리 기법을 제안한다. 이를 위해 본 논문은 먼저 다양한 렌더링 파일 입출력 트레이스를 추출하여 렌더링의 고유한 입출력 패턴을 분석하였다. 그 결과 렌더링 파일 입출력은 주기가 긴 반복참조와 주기가 짧은 반복참조, 임의참조, 그리고 1회성 쓰기참조로 구성된다는 것을 발견하였다. 본 논문은 이러한 렌더링의 파일참조 특성을 고려하여 버퍼캐쉬 공간을 참조별로 할당하고 그에 맞는 관리 기법을 제안하여 기존 버퍼캐쉬 대비 평균 19%, 최대 55%의 성능을 개선시켰다.

데이터 망각을 활용한 비휘발성 메모리 기반 파일 캐시 관리 기법 (Forgetting based File Cache Management Scheme for Non-Volatile Memory)

  • 강동우;최종무
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.972-978
    • /
    • 2015
  • 비휘발성 메모리는 바이트 단위 접근과 비휘발성을 지원한다. 이러한 특성들은 비휘발성 메모리를 캐시, 메모리, 디스크와 같은 메모리 계층 구조 가운데 하나의 영역으로 사용을 가능케 한다. 비휘발성 메모리의 흥미로운 특성은 데이터 보존 기간이 실제로는 제한적인 기간을 가지고 있다는 것이다. 게다가 데이터 보존 기간과 쓰기 지연간의 트레이드오프가 존재 한다. 본 논문에서는 이를 활용하여 비휘발성 메모리를 파일 캐시로 사용하는 새로운 관리 기법을 제안한다. 제안하는 기법은 기존의 캐시 관리 기법과는 반대로 짧은 데이터 보존 시간으로 데이터를 저장하고 쓰기 성능을 개선한다. 제안하는 기법은 LRU 대비 평균 접근 지연 시간을 최대 31%, 평균 24.4%로 감소시킴을 보인다.

캐시 이미지의 동적 관리 방법을 이용한 명령어 캐시 성능 개선 (Improving Instruction Cache Performance by Dynamic Management of Cache-Image)

  • 서효중
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권9호
    • /
    • pp.564-571
    • /
    • 2017
  • 프로세스 구동시마다 캐시 이미지를 메모리로부터 버스트 로딩하여 초기 캐시 실패를 줄이는 방법은 프로그램의 시작으로부터 초기화 부분의 지연을 줄이고 에너지 소모를 줄이는 데 효과적이다. 하지만 로딩에 사용하기 위한 적절한 캐시 이미지는 컴파일러와 인스톨러 등 소프트웨어적인 접근 방법을 이용하여 적절한 캐시 이미지를 생성하는 과정이 필요하며, 동적인 수행 특성을 보이는 프로세스의 경우 비효율적이다. 본 논문은 이러한 손실에 주목하여, 하드웨어를 부가하여 캐시 이미지를 동적으로 생성하고 관리하는 방법을 제안하고자 한다. 시뮬레이션 결과에 따르면 제안한 방법을 사용할 경우 프로그램의 캐시 필요량에 따른 적절한 이미지 크기를 유지할 수 있어 기존의 캐시 이미지 로딩 기법을 더욱 효율적으로 개선할 수 있었다.

분산 환경에서의 객체 캐슁 (DOC: A Distributed Object Caching System for Information Infrastructure)

  • 이태희;심준호;이상구
    • 한국전자거래학회:학술대회논문집
    • /
    • 한국전자거래학회 2003년도 종합학술대회 논문집
    • /
    • pp.249-254
    • /
    • 2003
  • Object caching is a desirable feature to improve the both scalability and performance of distributed application systems for information infrastructure, the information management system leveraging the power of network computing. However, in order to exploit such benefits, we claim that the following problems: cache server placement, cache replacement, and cache synchronization, should be considered when designing any object cache system. We are under developing DOC: a Distributed Object Caching, as a part of building our information infrastructures. In this paper, we show how each problem is inter-related, and focus to highlight how we handle cache server deployment problem

  • PDF

SAN 환경을 위한 효율적인 전역버퍼 관리 알고리즘 (IT-based Technology An Efficient Global Buffer Management ,algorithm for SAN Environments)

  • 이석재;박새미;송석일;유재수;이장선
    • 한국콘텐츠학회논문지
    • /
    • 제4권3호
    • /
    • pp.71-80
    • /
    • 2004
  • 분산파일시스템 환경에서는 디스크 접근 비용을 줄이기 위해 각 노드에 캐시된 데이터를 서로 공유하는 협력캐시 알고리즘이 사용된다. 협력캐시 알고리즘은 분산되어있는 시스템들의 캐시정보를 서로 공유하여 가상으로 더 큰 캐시를 형성함으로써 캐시 히트율을 높이고 디스크 접근을 줄이는 방법이다. 기존에 제안된 협력캐시 알고리즘들은 캐시에 대한 근사정보를 이용하여 메시지 비용을 줄이고, 로컬캐시영역과 글로벌캐시 영역을 가변적으로 사용하여 캐시 히트율을 높이고 있다. 또한 버퍼 교체 시 교체된 버퍼를 비활동적인 노드로 보내어 계속 캐시에 유지하도록 하여 전역 버퍼 히트율을 높이는 장점을 갖는다. 그러나 잘못된 근사정보가 성능을 저하시킬 수 있으며 일관성 유지를 위한 메시지교환 비용이 많이 든다는 단점을 갖고 있다. 또한 비활동적인 노드를 선정하기 위해 사용되는 각 노드의 에이지 정보 관리비용이 많이 드는 단점을 갖고 있다. 본 논문에서는 정확한 캐시정보를 유지하며 일관성 유지비용과 버퍼 에이지 정보 관리비용을 최소화시키는 협력캐시 알고리즘을 제안한다. 그리고 성능평가를 통해 기존의 협력캐시 알고리즘과 비교하여 제안하는 알고리즘의 우수성을 보인다.

  • PDF

효율적인 레이블 스위칭을 위한 캐쉬 테이블 관리 (Cache Table Management for Effective Label Switching)

  • 김남기;윤현수
    • 한국정보과학회논문지:정보통신
    • /
    • 제28권2호
    • /
    • pp.251-261
    • /
    • 2001
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에는 많은 부하가 걸리고 있으며 스위칭 기술은 라우팅 보다 빠르게 데이터를 전송하면서 라우터 병목 현상을 줄일수 있다. 따라서 IP 라우팅에 스위칭 기술을 접목한 레이블 스위칭 네트워크가 출현하게 되었다. 레이블 스위칭 기술 중 데이터 기반 레이블 스위칭에서는 흐름 분류와 캐쉬 테이블 관리가 중요하다. 흐름 분류는 패킷을 스위칭으로 전송할 것인지 그렇지 않으면 기존 라우팅으로 전송할 것인지를 결정하는 부분인데 이러한 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하는 곳이 캐쉬 테이블이다. 이런 캐쉬 테이블이 크면 클수록 많은 패킷을 스위칭 할 수 있고 스위칭 설정 비용을 줄일 수 있기 때문에 캐쉬 테이블은 클수록 좋으나 라우터 자원에 의해 제약을 받으므로 적절한 캐쉬 테이블 관리가 필요하다. 따라서 효율적인 캐쉬 테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 요구되어 진다. 본 논문에서는 레이블 스위칭을 위한 여러 캐쉬 대체 기법들을 소개하고 제안한다. 첫째로 스위칭 용량에 한계가 없을 경우 FIFO, LFC, LRU,기법을 평가하고 우선순위 LRU 가중치 우선순위 LRU 기법을 제안한다. 둘째로 스위칭 용량에 한계가 있을 경우 LFC-LFC, LFC-LRU, LRU-LFC, LRU-LRU 기법이 한계가있을 경우 LRU-가중치 LRU 기법이 가장 나은 성능을 보였다

  • PDF

스트리밍 미디어 캐쉬 서버를 위한 RTSP/RTP 스트림 제어 기법 (A RTSP/RTP Stream Control Mechanism for Streaming Cache Server)

  • 오재학;차호정;최영근
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권3호
    • /
    • pp.254-265
    • /
    • 2003
  • 본 논문은 효율적인 스트리밍 캐쉬 서버 개발에 필수적인 스트림 제어 기법의 설계와 구현에 대해 기술한다. 논문에서 사용한 스트리밍 프로토콜은 표준 프로토콜인 RTSP/RTP/RTCP이다. 스트림 제인 기법은 기존 스트리밍 환경에서 On-Demand 캐슁과 실시간 Splitting 기능등을 제공하며, 프로토콜 수준의 세션 관리와 캐쉬 관리 기능으로 구성된다. 프로토콜 수준의 세션 관리는 RTSP 세션 제어, RTP 송수신과 RTCP 세션 제어를 양방향으로 제공하고, 캐쉬 관리 기능은 RTP 패킷 수준의 캐슁과 패킷 미디어 일관성 유지를 제공한다. 스트리밍 캐쉬 서버는 Apple의 QTSS 서버와 QuickTime Player로 구성된 스트리밍 환경에서 리눅스 시스템을 기반으로 구현하였다. 구현된 시스템은 On-Demand 캐슁과 스트림 Splitting 서비스를 원활하게 제공하였다.

1회성 쓰기 참조 특성을 고려하는 스마트폰 버퍼캐쉬 관리 기법 (Buffer Cache Management of Smartphones Exploiting Write-Only-Once Characteristics)

  • 김도희;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.129-134
    • /
    • 2015
  • 본 논문에서는 스마트폰 앱의 파일 접근 중 상당 부분이 1회성 쓰기 참조라는 것을 분석하고 이러한 특성을 고려한 버퍼캐쉬 관리 기법을 제안한다. 버퍼캐쉬는 여러 번 참조되는 파일 데이터를 스토리지 접근 없이 메모리에서 처리하여 성능 개선을 도모하지만, 쓰기 참조가 발생한 경우에는 짧은 시간 내에 스토리지에 직접 반영하여 시스템 크래쉬에 대비한다. 제안하는 기법은 1회의 쓰기만 발생한 캐쉬 데이터의 경우 스토리지 반영 직후 버퍼캐쉬에서 쫓아내어 캐쉬의 공간 효율을 높인다. 다양한 스마트폰 앱에 적용한 시뮬레이션 실험 결과 제안하는 기법은 기존 버퍼캐쉬 관리 기법에 비해 캐쉬적중률을 5-33% 향상시키고, 전력소모를 27-92% 줄일 수 있음을 보인다.

낮은 쓰기 성능을 갖는 비휘발성 메인 메모리 시스템을 위한 성능 및 에너지 최적화 기법 (Performance and Energy Optimization for Low-Write Performance Non-volatile Main Memory Systems)

  • 정우순;이형규
    • 대한임베디드공학회논문지
    • /
    • 제13권5호
    • /
    • pp.245-252
    • /
    • 2018
  • Non-volatile RAM devices have been increasingly viewed as an alternative of DRAM main memory system. However some technologies including phase-change memory (PCM) are still suffering from relatively poor write performance as well as limited endurance. In this paper, we introduce a proactive last-level cache management to efficiently hide a low write performance of non-volatile main memory systems. The proposed method significantly reduces the cache miss penalty by proactively evicting the part of cachelines when the non-volatile main memory system is in idle state. Our trace-driven simulation demonstrates 24% performance enhancement, compared with a conventional LRU cache management, on the average.