• 제목/요약/키워드: Internal Caching

검색결과 8건 처리시간 0.022초

리눅스 SSD caching mechanism 의 성능 비교 및 분석 (An performance analysis on SSD caching mechanism in Linux)

  • 허상복;박진희;조희승
    • 스마트미디어저널
    • /
    • 제4권2호
    • /
    • pp.62-67
    • /
    • 2015
  • Hard disk drive(HDD)는 보조 저장장치로서 대부분의 컴퓨터 시스템에서 사용되고 있으나 기계적 특성으로 인하여 성능의 향상 측면에서는 한계점에 도달해 있는 상황이다. 반면, 플래시 메모리 기반인 solid state drive(SSD)는 고성능 저소음이라는 장점이 있지만, HDD에 비해 높은 가격으로 인해 아직 HDD를 완전 대체하기에는 부담이 크다. 따라서 SSD를 대용량인 HDD의 cache로 사용하는 SSD caching mechanism이 최근 주목을 받고 있다. SSD caching mechanism은 대표적으로 bcache, dm-cache, Flashcache, EnhanceIO 등이 있으며, 각 mechanism들은 구현상의 장단점과 차별성이 존재한다. 본 논문에서는 각 SSD caching mechanism들의 특정을 파악하고, 벤치마크를 통하여 성능을 비교 분석하였다. 이러한 연구를 기반으로 향후 더 성능이 좋은 SSD caching mechanism을 개발하는데 기여할 수 있을 것으로 예상된다.

내부 버퍼와 단일 엔트리 캐슁을 이용한 다단계 패킷 분류 가속화 구조 (Fast Multi-Phase Packet Classification Architecture using Internal Buffer and Single Entry Caching)

  • 강대인;박현태;김현식;강성호
    • 대한전자공학회논문지TC
    • /
    • 제44권9호
    • /
    • pp.38-45
    • /
    • 2007
  • 새로운 인터넷 서비스가 등장하면서 진보된 인터넷 응용 기능을 처리하기 위한 패킷 분류 기능은 라우터의 중요한 동작으로 요구되고 있다. 다수의 패킷 필드를 대상으로 하는 패킷 분류 동작은 복잡하며 상대적으로 많은 시간을 요구하기 때문에 빠른 패킷 분류를 위한 알고리즘과 하드웨어 구조에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 가속화된 패킷 분류기능을 제공하기 위해 내부 버퍼를 사용한 다단계 패킷 분류 구조를 제안한다. 주소 필드 검색기와 다음 필드 검색기 사이에 내부 버퍼를 사용함으로써 송신 주소와 수신 주소의 검색 시간 차이로 인해 발생하는 지연 시간을 줄일 수 있게 되었다. 또한 동일 IP 주소 헤더 정보를 갖는 연속된 패킷의 입력으로 인한 성능 개선의 저하를 방지하기 위해 단일 엔트리 캐슁을 사용하여 성능 개선을 보장하였다. 제안하는 구조는 간단하며 검색 알고리듬에 국한되지 않고 보편적으로 적용될 수 있는 일반성을 갖고 있다.

P2P 기반의 모바일 노드간의 전술 정보 공유 시스템 (A P2P Based Tactical Information Sharing System for Mobile Nodes)

  • 이현
    • 한국군사과학기술학회지
    • /
    • 제17권4호
    • /
    • pp.501-509
    • /
    • 2014
  • In NCW(Network Centric Warfare) environment, mobile nodes communicate through wireless link. But wireless link provides limited networking performance due to signal interferences or mobility of nodes. So it is quite challenge to acquire enough networking resources and use the resources efficiently. In this paper, we have proposed a P2P based tactical information sharing system which provides satisfactory visual information playout for mobile nodes(i.e., military personnel, vehicle,..) in NCW environment. Our proposed system consists of two components. One is caching-enabled switch which stores tactical information segments at its internal storage and then transports them to mobile nodes when require. Another is centralized scheduling algorithm which exploits networking resources more efficiently. To validate performance of proposed system, we performed series of experiments in wireless network testbed. Results show improved performance in terms of segment-missing ratio, networking resources usage, sharing time, and number of simultaneous playout mobile nodes with acceptable playout continuity(i.e., over 95%).

Parallel Multithreaded Processing for Data Set Summarization on Multicore CPUs

  • Ordonez, Carlos;Navas, Mario;Garcia-Alvarado, Carlos
    • Journal of Computing Science and Engineering
    • /
    • 제5권2호
    • /
    • pp.111-120
    • /
    • 2011
  • Data mining algorithms should exploit new hardware technologies to accelerate computations. Such goal is difficult to achieve in database management system (DBMS) due to its complex internal subsystems and because data mining numeric computations of large data sets are difficult to optimize. This paper explores taking advantage of existing multithreaded capabilities of multicore CPUs as well as caching in RAM memory to efficiently compute summaries of a large data set, a fundamental data mining problem. We introduce parallel algorithms working on multiple threads, which overcome the row aggregation processing bottleneck of accessing secondary storage, while maintaining linear time complexity with respect to data set size. Our proposal is based on a combination of table scans and parallel multithreaded processing among multiple cores in the CPU. We introduce several database-style and hardware-level optimizations: caching row blocks of the input table, managing available RAM memory, interleaving I/O and CPU processing, as well as tuning the number of working threads. We experimentally benchmark our algorithms with large data sets on a DBMS running on a computer with a multicore CPU. We show that our algorithms outperform existing DBMS mechanisms in computing aggregations of multidimensional data summaries, especially as dimensionality grows. Furthermore, we show that local memory allocation (RAM block size) does not have a significant impact when the thread management algorithm distributes the workload among a fixed number of threads. Our proposal is unique in the sense that we do not modify or require access to the DBMS source code, but instead, we extend the DBMS with analytic functionality by developing User-Defined Functions.

대규모 멀티미디어 서버에서 효율적인 데이터 이동/중복 기법 (An Efficient Data Nigration/Replication Scheme in a Large Scale Multimedia Server)

  • 김은삼
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권5호
    • /
    • pp.37-44
    • /
    • 2009
  • 최근 멀티미디어 데이터의 품질이 높아짐에 따라 서버는 더 큰 용량의 저장 공간과 더 높은 I/O 대역폭을 요구하고 있다. 이러한 대규모 멀티미디어 서버에서는 각 객체의 인기도에 따른 접근 빈도의 차이로 인한 디스크 간의 부하 균형 문제가 성능에 중요한 영향을 미친다. 따라서 이 문제를 해결하기 위해 여러 데이터 중복 기법들이 제안되었다. 본 논문에서는 멀티미디어 서버에서 사용되는 대표적인 데이터 중복 기법인 동적 중복 기법보다 저장 효율이 뛰어나고 성능이 우수한 이동/중복 기법을 제안한다. 이 기법은 기존 중복 기법의 단점인 각 객체의 복사본 수를 줄임으로써 중복으로 인해 추가로 요구되는 저장 공간을 크게 감소시킨다. 또한 각 객체에 대한 요청들 간의 간격을 줄임으로써 캐슁 효과를 높여서 기존 중복 기법에 비해 동시에 지원할 수 있는 최대 사용자 수를 증가시킨다.

Implementation of Memory Efficient Flash Translation Layer for Open-channel SSDs

  • Oh, Gijun;Ahn, Sungyong
    • International journal of advanced smart convergence
    • /
    • 제10권1호
    • /
    • pp.142-150
    • /
    • 2021
  • Open-channel SSD is a new type of Solid-State Disk (SSD) that improves the garbage collection overhead and write amplification due to physical constraints of NAND flash memory by exposing the internal structure of the SSD to the host. However, the host-level Flash Translation Layer (FTL) provided for open-channel SSDs in the current Linux kernel consumes host memory excessively because it use page-level mapping table to translate logical address to physical address. Therefore, in this paper, we implemente a selective mapping table loading scheme that loads only a currently required part of the mapping table to the mapping table cache from SSD instead of entire mapping table. In addition, to increase the hit ratio of the mapping table cache, filesystem information and mapping table access history are utilized for cache replacement policy. The proposed scheme is implemented in the host-level FTL of the Linux kernel and evaluated using open-channel SSD emulator. According to the evaluation results, we can achieve 80% of I/O performance using the only 32% of memory usage compared to the previous host-level FTL.

저전력과 응답시간 향상을 위한 하이브리드 하드디스크의 입출력 기법 (I/O Scheme of Hybrid Hard Disk Drive for Low Power Consumption and Effective Response Time)

  • 김정원
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.23-31
    • /
    • 2011
  • 최근 전력소모와 읽기 성능이 우수한 Solid state disk(SSD)가 많이 사용되고 있으나 가격이 고가이고 삭제 및 쓰기 연산의 효율이 낮은 것이 단점이다. 이것을 보완하기 위한 저장장치의 일종이 하이브리드 하드디스크 (H-HDD: Hybrid Hard disk drive)인데 하드디스크 내부에 플래시 메모리(NVCache: Non-volatile Cache)를 장착하여 디스크블록의 캐시로 사용한다. 본 논문에서는 H-HDD의 저전력과 응답시간을 향상시키기 위해 NVCache의 선반입 및 관리 기법을 제안한다. 제안하는 기법은 NVCache를 읽기 캐시를 위주로 사용하고 쓰기캐시는 디스크 헤드와 스핀들의 상황에 따라 쓰기 연산을 지원한다. 읽기 캐시의 경우 시간적, 지역적 지역성을 동시에 고려하여 선반입을 통해 응답시간과 전력 소모를 감소시키고 쓰기 캐시의 경우 디스크 스핀들의 동작 상태에 따라 NVCache에 쓰기를 실시하여 저전력과 응답성을 향상시키고자한다.

SSD FTL 캐시 알고리즘 분석 및 제언 (Analysis and Advice on Cache Algorithms of SSD FTL)

  • 이형봉;정태윤
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권1호
    • /
    • pp.1-8
    • /
    • 2023
  • SSD는 이미 할당된 페이지에 대한 제자리 덮어쓰기가 불가능하므로 쓰기 연산이 있을 때마다 새로운 클린 페이지로의 대체가 필요하다. 이 문제를 지원하기 위해 SSD는 운영체제의 파일시스템에서 관리하는 논리 페이지를 현재 할당된 물리 페이지로 매핑하는 플래시 변환 계층인 FTL을 내부에 둔다. 쓰기 연산으로 버려진 SSD 페이지는 초기화 작업을 거쳐 재활용되어야 하는데, 그 횟수에 제한이 있기 때문에 FTL은 기본인 페이지 매핑 기능 외에 쓰기 횟수를 줄일 수 있는 캐시 기능을 제공한다. 이 연구에서는 쓰기 횟수를 줄이기 위한 FTL의 캐시 방법론에 집중하여 관련된 알고리즘들을 분석하고, 쓰기 전용 캐시 전략을 제안한다. 시뮬레이터를 사용하여 쓰기 전용 캐시를 실험한 결과 최대 29%의 개선 효과를 보였다.