• 제목/요약/키워드: Caching Management

검색결과 93건 처리시간 0.027초

STP-FTL: An Efficient Caching Structure for Demand-based Flash Translation Layer

  • Choi, Hwan-Pil;Kim, Yong-Seok
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권7호
    • /
    • pp.1-7
    • /
    • 2017
  • As the capacity of NAND flash module increases, the amount of RAM increases for caching and maintaining the FTL mapping information. In order to reduce the amount of mapping information managed in the RAM, a demand-based address mapping method stores the entire mapping information in the flash and some valid mapping information in the form of cache in the RAM so that the RAM can be used efficiently. However, when cache miss occurs, it is necessary to read the mapping information recorded in the flash, so overhead occurs to translate the address. If the RAM space is not enough, the cache hit ratio decreases, resulting in greater overhead. In this paper, we propose a method using two tables called TPMT(Translation Page Mapping Table) and SMT(Segmented Translation Page Mapping Table) to utilize both temporal locality and spatial locality more efficiently. A performance evaluation shows that this method can improve the cache hit ratio by up to 30% and reduces the extra translation operations by up to 72%, compared to the TPM scheme.

멀티미디어를 위한 개선된 프락시 캐싱 관리 기법 (An Improved Proxy Caching Management for Multimedia)

  • 홍병천;조경산
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 춘계학술발표논문집 (상)
    • /
    • pp.427-430
    • /
    • 2003
  • 멀티미디어 특히 비디오 데이터는 대용량 파일 단위의 저장 특성을 가지며 사용자 접근 패턴이 기존의 햄 객체인 이미지 또는 텍스트와 다르기 때문에 기존의 웹 캐슁 정책은 멀티미디어 프락시 서버에는 적절하지 않다. 본 연구에서는 멀티미디어를 위한 프락시 서버의 캐쉬 히트율을 높이고 파일 단위 캐쉬 관리 정책을 세그먼트 관리에 적용하여 세그먼트 관리의 과부하를 줄이는 고정 크기 세그먼트 기법과 개선된 캐쉬 제거 기법을 제안하였다. 또한 시뮬레이션을 통해 제안 기법의 성능 개선 정도를 분석 제시하였다.

  • PDF

고성능 대용량 플래시 메모리 저장장치의 효과적인 매핑정보 캐싱을 위한 적응적 매핑정보 관리기법 (Adaptive Mapping Information Management Scheme for High Performance Large Sale Flash Memory Storages)

  • 이용주;김현우;김희정;허태영;정상혁;송용호
    • 전자공학회논문지
    • /
    • 제50권3호
    • /
    • pp.78-87
    • /
    • 2013
  • 모바일 디바이스, PC, 서버 형 워크스테이션 시스템에서 널리 사용되고 있는 낸드 플래시 메모리는 기존의 하드 디스크에 비해 저 전력 소비, 높은 성능, 랜덤 접근 가능 등의 장점을 갖는 반면, 덮어쓰기가 불가능하여 데이터를 쓰기 전에는 항상 삭제 연산을 필요로 하는 구조적 약점을 지니고 있다. 이를 극복하기 위해 낸드 플래시 메모리의 제어기는 FTL을 사용하여 디바이스 내부 연산을 변형시킨다. 하지만 고성능 대용량 낸드 플래시 메모리 저장장치의 사용이 증가됨에 따라, 제한된 DRAM 크기에 비해 매핑 알고리즘에서 사용되는 매핑 테이블의 크기가 증가하는 문제가 발생한다. 본 논문은 이러한 DRAM의 용량 부족 문제를 해결하기 위해, 페이지 매핑 기법을 바탕으로한 적응적 매핑정보 캐싱 기법을 제안한다. 적응적 매핑정보 캐싱 알고리즘은 다양한 워크로드 분석을 기반으로 낸드 플래시 접근을 최소한으로 하는 매핑정보 캐싱 방식을 사용한다. 트레이스 기반 시뮬레이터를 통해 실험한 결과, 본 논문에서 제시하는 적응적 매핑정보 캐싱 알고리즘은 기존의 고정 매핑정보 캐싱 알고리즘에 비해 최소 7%에서 최대 70%의 성능향상을 보임을 확인할 수 있었다.

메타데이터 레지스트리 기반의 분산 정보 통합 시스템 설계 및 구현 (Design and Implementation of A Distributed Information Integration System based on Metadata Registry)

  • 김종환;박혜숙;문창주;백두권
    • 정보처리학회논문지D
    • /
    • 제10D권2호
    • /
    • pp.233-246
    • /
    • 2003
  • 중개기 기반 정보 통합 시스템은 서로 다른 지역 정보 시스템의 유연한 통합을 지원하나, 질의 처리시 최적화 측면과 지역 스키마 정보에 관한 메타데이터 표준화 측면에는 그리 큰 비중을 두지 않았다. 이러한 점을 개선하기 위해 제안된 분산 정보 통합 시스템은 질의 처리시 최적화 측면을 위해 질의 캐싱을 사용하며, 지역 스키마 정보에 관한 메타데이터 표준화 측면을 위해 ISO/IEC 11179 기반의 메타데이터 레지스트리를 사용한다. 이 시스템은 분산된 이기종의 비즈니스 정보 시스템들을 논리적으로 통합하여 사용자가 필요로 하는 통합된 정보를 웹 기반으로 제공한다. 이러한 시스템을 시스템 재사용성의 향상과 유지보수의 용이함을 위해 계층적 패턴을 사용하여 3계층 표현 방식 아키텍처로 표현하였고, 3계층 아키텍처의 핵심 요소들의 기능성과 흐름을 효과적으로 표현하기 위하여 UML 방법론을 확장한 EPEM 방법론을 이용하여 설계하였다. 또한 제안한 시스템의 구체적인 한 예로서, 공급망 관리 도메인에 적용하여 웹 기반으로 구현하였다. 따라서 분산 정보 통합 시스템은 질의 처리 속도 향상을 위해 질의 함수 관리기와 질의 함수 저장소를 통하여 질의 캐싱 기능을 제공하였고, 의미 이질성 해결을 위해 ISO/IEC 11179 기반의 메타데이터 레지스트리와 스키마 레파지토리를 이용함으로써 스키마 이질성과 데이터 이질성을 해결하였다.

Parallel Multithreaded Processing for Data Set Summarization on Multicore CPUs

  • Ordonez, Carlos;Navas, Mario;Garcia-Alvarado, Carlos
    • Journal of Computing Science and Engineering
    • /
    • 제5권2호
    • /
    • pp.111-120
    • /
    • 2011
  • Data mining algorithms should exploit new hardware technologies to accelerate computations. Such goal is difficult to achieve in database management system (DBMS) due to its complex internal subsystems and because data mining numeric computations of large data sets are difficult to optimize. This paper explores taking advantage of existing multithreaded capabilities of multicore CPUs as well as caching in RAM memory to efficiently compute summaries of a large data set, a fundamental data mining problem. We introduce parallel algorithms working on multiple threads, which overcome the row aggregation processing bottleneck of accessing secondary storage, while maintaining linear time complexity with respect to data set size. Our proposal is based on a combination of table scans and parallel multithreaded processing among multiple cores in the CPU. We introduce several database-style and hardware-level optimizations: caching row blocks of the input table, managing available RAM memory, interleaving I/O and CPU processing, as well as tuning the number of working threads. We experimentally benchmark our algorithms with large data sets on a DBMS running on a computer with a multicore CPU. We show that our algorithms outperform existing DBMS mechanisms in computing aggregations of multidimensional data summaries, especially as dimensionality grows. Furthermore, we show that local memory allocation (RAM block size) does not have a significant impact when the thread management algorithm distributes the workload among a fixed number of threads. Our proposal is unique in the sense that we do not modify or require access to the DBMS source code, but instead, we extend the DBMS with analytic functionality by developing User-Defined Functions.

2Q-CFP: 방송에 기초한 정보 시스템을 위한 클라이언트 캐쉬 관리 기법 (2Q-CFP: A Client Cache Management Scheme for Broadcast-based Information Systems)

  • 권혁민
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권6호
    • /
    • pp.561-572
    • /
    • 2003
  • 방송에 기초한 데이타 전달 방식은 방대한 규모의 클라이언트에게 데이타를 전파하기 위한 효과적인 기술로서 큰 관심을 끌고 있다. 방송에 기초한 정보 시스템(broadcast-based information system: BBIS)의 주된 동기는 자신이 지원하는 클라이언트의 수는 시스템의 성능에 전혀 영향을 미치지 않고 임의로 증가될 수 있다는 것이다. BBIS의 성능은 클라이언트 캐슁 전략과 데이타 방송 스케쥴링 기법에 크게 영향을 받는다. 본 논문은 전자의 문제를 취급하여 BBIS에 적합한 2Q-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안한다. 그리고 모의 실험 모델을 통하여 2Q-CFP 기법의 성능을 평가한다. 성능평가 결과에 의하면 2Q-CFP 기법은 GRAY, LRU, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

LRU-CFP: 데이터 방송 환경을 위한 클라이언트 캐쉬 관리 기법 (Client Cache Management Scheme For Data Broadcasting Environments)

  • 권혁민
    • 정보처리학회논문지D
    • /
    • 제10D권6호
    • /
    • pp.961-970
    • /
    • 2003
  • 데이타 방송 환경에서 서버는 방송 채널을 통하여 데이타베이스 내의 데이타들을 주기적으로 방송한다. 그리고 각 클라이언트가 어떤 데이타를 액세스하기 위해서는 방송 채널을 감시하여 해당 데이타가 방송되기를 기다려야 한다. 클라이언트 데이타 캐슁은 클라이언트가 액세스하려는 데이타가 방송되기를 기다리는 시간을 줄이기 위한 매우 효과적인 기술이다. 본 논문에서는 이 대기 시간을 줄이기 위하여 LRU-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안하고, 모의 실험을 통하여 새로이 제시된 기법의 성능을 평가한다. 성능 평가 결과에 의하면 LRU-CFP 기법은 LRU, GRAY, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

데이터 방송 환경에서의 효율적인 캐슁 정책 (An Efficient Caching Strategy in Data Broadcasting)

  • 김수연;최양희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권12호
    • /
    • pp.1476-1484
    • /
    • 1999
  • TV 방송 분야에서 다양한 정보와 상호 작용성을 제공하기 위해서 최근 기존 방송 내용인 A/V 스트림 외 부가정보 방송이 시도되고 있다. 데이타 방송에 대한 기존 연구는 대부분 고정된 내용의 데이타를 방송하는 환경을 가정하고 있어서 그 결과가 방송 내용의 변화가 많은 환경에 부적합하다. 본 논문에서는 데이타에 대한 접근이 반복되지 않을 가능성이 높고 사용자 접근 확률을 예상하기 어려운 상황에서 응답 시간을 개선하는 방안으로 수신 데이타를 무조건 캐쉬에 반입하고 교체가 필요한 경우 다음 방송 시각이 가장 가까운 페이지를 축출하는 사용자 단말 시스템에서의 캐슁 정책을 제안하였다. 제안된 캐쉬 관리 정책은 평균적인 캐쉬 접근 실패 비용을 줄임으로써 사용자 응답 시간을 개선하며, 서로 다른 스케줄링 기법을 사용하는 다양한 방송 제공자가 공존하는 환경에서 보편적으로 효과를 가져올 수 있다.Abstract Recently, many television broadcasters have tried to disseminate digital multimedia data in addition to the traditional content (audio-visual stream). The broadcast data need to be cached by a client system, to provide a reasonable response time for a user request. Previous studies assumed the dissemination of a fixed set of items, and the results are not suitable when broadcast items are frequently changed. In this paper, we propose a novel cache management scheme that chooses the replacement victim based on the remaining time to the next broadcast instance. The proposed scheme reduces response time, where it is hard to predict the probability distribution of user accesses. The caching policy we present here significantly reduces expected response time by minimizing expected cache miss penalty, and can be applied without difficulty to different scheduling algorithms.

모바일 통합 SNS 게이트웨이 통신 모듈 개발 (Development of Communication Module for a Mobile Integrated SNS Gateway)

  • 이신호;권동우;김현우;주홍택
    • 한국통신학회논문지
    • /
    • 제39B권2호
    • /
    • pp.75-85
    • /
    • 2014
  • 본 논문에서는 모바일 단말에서 실행되는 여러 종류의 모바일 애플리케이션 트래픽 중, 급격히 증가하고 있는 SNS 트래픽을 해결할 방안으로 모바일 통합 SNS 게이트웨이를 제안한다. 현재 모바일 SNS 애플리케이션들은 해당하는 SNS 서버에 각각 대응하여 개별적으로 접근하여 정보를 갱신한다. 우리가 제안하는 통합 SNS 게이트웨이는 다양한 SNS 애플리케이션들을 하나의 통합된 애플리케이션에서 반복되는 트래픽을 줄이고, 모바일 통신 성능을 개선한다. 본 논문에서 제안한 방법은 통신 성능을 개선하고, SNS 사용자에게 통합된 SNS를 제공하기 위해서 캐싱 엔진, 동기화 그리고 통합인증기능을 포함하고 있으며, 실제 통신 환경을 구축하여 제안한 설계를 바탕으로 모바일 통합 SNS 게이트웨이 통신 모듈과 프로토콜을 구현한 후, 게이트웨이의 캐시율 및 응답 시간에 대한 성능평가를 하였다.

동적 버퍼 분할을 이용한 클러스터 VOD 서버의 효율적 부하 분산 방법 (An Efficient Load Balancing Technique in Cluster Based VOD Servers using the Dynamic Buffer Partitioning)

  • 권춘자;김영진;최황규
    • 정보처리학회논문지C
    • /
    • 제9C권5호
    • /
    • pp.709-718
    • /
    • 2002
  • 클러스터 기반 VOD 서버는 동시에 여러 사용자에게 실시간으로 서비스하기 위해 정교한 부하 분산 기술과 버퍼 관리 기술을 요구한다. 본 논문에서는 클러스터 기반 VOD 서버에서의 동적 버퍼 분할을 이용한 새로운 부하 분산 방법을 제안한다 제안된 방법은 사용자 요구를 처리하는 VOD 서비스 노드간의 버퍼 성능과 디스크 접근 빈도를 고려하여 전체 부하를 고르게 분산하도록 한다. 또한 동적 버퍼 분할 방법은 동일한 연속미디어에 접근하려는 여러 사용자에게 평균 대기시간을 감소시킬 수 있도록 버퍼를 동적으로 분할한다. 시뮬레이션을 통해 제안된 방법이 기존의 방법보다 부하량을 적절히 조절하면서 평균 대기시간을 감소시키고, 각 노드의 처리량도 증가시킨다. 특히, VOD 서버 클러스터가 과부하 상태일 때 제안된 방법이 Generalized Interval Caching에 기반한 부하 분산 방법 보다 약 2배의 우수한 성능을 나타냄을 시뮬레이션을 통하여 입증한다.