• Title/Summary/Keyword: 하이브리드 스토리지 시스템

Search Result 19, Processing Time 0.024 seconds

Adaptive Garbage Collection Technique for Hybrid Flash Memory (하이브리드 플래시 메모리를 위한 적응적 가비지 컬렉션 기법)

  • Im, Soo-Jun;Shin, Dong-Kun
    • The KIPS Transactions:PartA
    • /
    • v.15A no.6
    • /
    • pp.335-344
    • /
    • 2008
  • We propose an adaptive garbage collection technique for hybrid flash memory which has both SLC and MLC. Since SLC area is fast and MLC area has low cost, the proposed scheme utilizes the SLC area as log buffer and the MLC area as data block. Considering the high write cost of MLC flash, the garbage collection for the SLC log buffer moves a page into the MLC data block only when the page is cold or the page migration invokes a small cost. The other pages are moved within the SLC log buffer. Also it adjusts the parameter values which determine the operation of garbage collection adaptively considering I/O pattern. From the experiments, we can know that the proposed scheme provides better performance compared with the previous flash management schemes for the hybrid flash and finds the parameter values of garbage collection close to the optimal values.

Hierarchically Encoded Multimedia-data Management System for Over The Top Service (OTT 서비스를 위한 계층적 부호화 기반 멀티미디어 데이터 관리 시스템)

  • Lee, Taehoon;Jung, Kidong
    • Journal of KIISE
    • /
    • v.42 no.6
    • /
    • pp.723-733
    • /
    • 2015
  • The OTT service that provides multimedia video has spread over the Internet for terminals with a variety of resolutions. The terminals are in communication via a networks such as 3G, LTE, VDSL, ADSL. The service of the network has been increased for a variety of terminals giving rise to the need for a new way of encoding multimedia is increasing. SVC is an encoding technique optimized for OTT services. We proposed an efficient multimedia management system for the SVC encoded multimedia data. The I/O trace was generated using a zipf distribution, and were comparatively evaluated for performance with the existing system.

Hybrid Main Memory based Buffer Cache Scheme by Using Characteristics of Mobile Applications (모바일 애플리케이션의 특성을 이용한 하이브리드 메모리 기반 버퍼 캐시 정책)

  • Oh, Chansoo;Kang, Dong Hyun;Lee, Minho;Eom, Young Ik
    • Journal of KIISE
    • /
    • v.42 no.11
    • /
    • pp.1314-1321
    • /
    • 2015
  • Mobile devices employ buffer cache mechanisms, just as in computer systems such as desktops or servers, to mitigate the performance gap between main memory and secondary storage. However, DRAM has a problem in that it accelerates battery consumption by performing refresh operations periodically to maintain the stored data. In this paper, we propose a novel buffer cache scheme to increase the battery lifecycle in mobile devices based on a hybrid main memory architecture consisting of DRAM and non-volatile PCM. We also suggest a new buffer cache policy that allocates buffers based on process states to optimize the performance and endurance of PCM. In particular, our algorithm allocates each page to the appropriate position corresponding to the state of the application that owns the page, and tries to ensure a rapid response of foreground applications even with a small amount of DRAM memory. The experimental results indicate that the proposed scheme reduces the elapsed time of foreground applications by 58% on average and power consumption by 23% on average without negatively impacting the performance of background applications.

WAP-LRU: Write Pattern Analysis Based Hybrid Disk Buffer Management in Flash Storage Systems (WAP-LRU : 플래시 스토리지 시스템에서 쓰기 패턴 분석 기반의 하이브리드 디스크 버퍼 관리 기법)

  • Kim, Kyung Min;Choi, Jun-Hyeong;Kwak, Jong Wook
    • IEMEK Journal of Embedded Systems and Applications
    • /
    • v.13 no.3
    • /
    • pp.151-160
    • /
    • 2018
  • NAND flash memories have the advantages of fast access speed, high density and low power consumption, thus they have increasing demand in embedded system and mobile environment. Despite the low power and fast speed gains of NAND flash memory, DRAM disk buffers were used because of the performance load and limited durability of NAND flash cell. However, DRAM disk buffers are not suitable for limited energy environments due to their high static energy consumption. In this paper, we propose WAP-LRU (Write pattern Analysis based Placement by LRU) hybrid disk buffer management policy. Our policy designates the buffer location in the hybrid memory by analyzing write pattern of the workloads to check the continuity of the page operations. In our simulation, WAP-LRU increased the lifetime of NAND flash memory by reducing the number of garbage collections by 63.1% on average. In addition, energy consumption is reduced by an average of 53.4% compared to DRAM disk buffers.

Workload-Driven Adaptive Log Block Allocation for Efficient Flash Memory Management (효율적 플래시 메모리 관리를 위한 워크로드 기반의 적응적 로그 블록 할당 기법)

  • Koo, Duck-Hoi;Shin, Dong-Kun
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.37 no.2
    • /
    • pp.90-102
    • /
    • 2010
  • Flash memory has been widely used as an important storage device for consumer electronics. For the flash memory-based storage systems, FTL (Flash Translation Layer) is used to handle the mapping between a logical page address and a physical page address. Especially, log buffer-based FTLs provide a good performance with small-sized mapping information. In designing the log buffer-based FTL, one important factor is to determine the mapping structure between data blocks and log blocks, called associativity. While previous works use static associativity fixed at the design time, we propose a new log block mapping scheme which adjusts associativity based on the run-time workload. Our proposed scheme improves the I/O performance about 5~16% compared to the static scheme by adjusting the associativity to provide the best performance.

File-System-Level SSD Caching for Improving Application Launch Time (응용프로그램의 기동시간 단축을 위한 파일 시스템 수준의 SSD 캐싱 기법)

  • Han, Changhee;Ryu, Junhee;Lee, Dongeun;Kang, Kyungtae;Shin, Heonshik
    • Journal of KIISE
    • /
    • v.42 no.6
    • /
    • pp.691-698
    • /
    • 2015
  • Application launch time is an important performance metric to user experience in desktop and laptop environment, which mostly depends on the performance of secondary storage. Application launch times can be reduced by utilizing solid-state drive (SSD) instead of hard disk drive (HDD). However, considering a cost-performance trade-off, utilizing SSDs as caches for slow HDDs is a practicable alternative in reducing the application launch times. We propose a new SSD caching scheme which migrates data blocks from HDDs to SSDs. Our scheme operates entirely in the file system level and does not require an extra layer for mapping SSD-cached data that is essential in most other schemes. In particular, our scheme does not incur mapping overheads that cause significant burdens on the main memory, CPU, and SSD space for mapping table. Experimental results conducted with 8 popular applications demonstrate our scheme yields 56% of performance gain in application launch, when data blocks along with metadata are migrated.

Performance Evaluation of SSD Cache Based on DM-Cache (DM-Cache를 이용해 구현한 SSD 캐시의 성능 평가)

  • Lee, Jaemyoun;Kang, Kyungtae
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.3 no.11
    • /
    • pp.409-418
    • /
    • 2014
  • The amount of data located in storage servers has dramatically increased with the growth in cloud and social networking services. Storage systems with very large capacities may suffer from poor reliability and long latency, problems which can be addressed by the use of a hybrid disk, in which mechanical and flash memory storage are combined. The Linux-based SSD(solid-state disk) uses a caching technique based on the DM-cache utility. We assess the limitations of DM-cache by evaluating its performance in diverse environments, and identify problems with the caching policy that it operates in response to various commands. This policy is effective in reducing latency when Linux is running in native mode; but when Linux is installed as a guest operating systems on a virtual machine, the overhead incurred by caching actually reduces performance.

2013, 달라지는 클라우드 컴퓨팅

  • Yang, Hui-Dong;Hwang, Se-Un
    • Information and Communications Magazine
    • /
    • v.30 no.4
    • /
    • pp.23-28
    • /
    • 2013
  • 개념적으로 존재하던 클라우드 컴퓨팅의 사용이 본격적으로 심화되면서 기업들의 클라우드 컴퓨팅에 대한 개념과 생각에도 많은 변화가 생기게 되었다. 클라우드 컴퓨팅 구축이 더욱 가속화되는 가운데, 그로 인한 비용절감이나 투자수익 창출 효과에 대한 검증이 활발해질 것으로 예측됐다. 시대를 뒤바꾸는 혁신적인 기술도 잇달아 등장할 것이란 기대도 높다. 2013년은 클라우드 컴퓨팅의 발전에 또 한번의 변곡점이 될 것으로 전망된다. 본 고에서는 2013년 클라우드 컴퓨팅에 관한 예측 몇 가지를 살펴보고자 한다. 첫째, 중소기업에서의 클라우드 컴퓨팅 사용 및 정착이 가속화될 것으로 보인다. 대기업의 경우에는 기존에 구축되어 있는 IT 시스템에 대한 거버넌스 체계를 완성해 나가고 있는 상황 속에서 중앙집중형과 사용자 편의성이 강화된 클라우드 컴퓨팅을 도입하기 위해서는 아직 추구 해야 할 과제가 많다. 하지만 중소기업은 예산을 문제로 대기업과 같은 수준의 IT 인프라를 갖추지 못하고 있기 때문에 클라우드 컴퓨팅 도입으로 비용대비 고효율의 IT 인프라를 갖출 수 있다. 둘째, CSP, CSB와 통합허브가 성장할 것이다. 플랫폼 전쟁이 시장 점유율 '횡령' 싸움임을 CSP들이 깨닫게 됨에 따라 이러한 가격 경쟁들은 더 잦아질 것으로 전망된다. 그리고 2013년 클라우드 벤더들은 클라우드 가격 책정이 비용-수익 관리(costyield management)의 연장선에 있음도 알게 될 것이다. 핵심은 효율적 설계와 저비용 운영, 그리고 무엇보다 높은 사용률에 있다. 또한 기업들이 점점 많은 애플리케이션을 소프트웨어 형태로 구매하고 있기 때문에 애플리케이션 자체를 통합하는 문제, 애플리케이션에 대한 보안과 감사 프로세스개발 등의 문제가 제기되고 있다. 시스템 통합 서비스와 통합 허브는 이런 문제를 해결하기 위해 노력하게 될 것이다 셋째, 2013년은 하이브리드 클라우드 컴퓨팅이 급부상할 것으로 전망된다. 앞으로는 클라우드 컴퓨팅 시장에서 공급업체끼리 경쟁하는 것은 의미가 없으며 기업들은 절대 한 가지 클라우드 기술이나 공급자에 안주하지 않을 것이다. 이것은 곧 2013년에는 하이브리드 및 이종 클라우드 컴퓨팅이 각광 받을 것을 의미한다. 이러한 하이브리드 클라우드 컴퓨팅을 도입하기 위해서는 클라우드 컴퓨팅의 단점과 문제 해결을 위해 하나의 목적을 가지고 다양한 산업체들이 모여 경쟁업체이면서도 협력관계를 이루는 것이 중요하다. 넷째, 멀티 디바이스를 이용한 클라우드 사용이 폭발적으로 증가될 것으로 보인다. 1인당 여러 대의 단말 보유, 이동성 향상 요구, 4G 확산 등 모바일 시장을 중심으로 한 환경 변화로 인해 이전보다 한층 진화된 클라우드 기반의 서비스가 다양하게 등장할 것으로 예상된다. 또한 4G 시대가 본격적으로 개막되면서 데이터 및 앱을 저장하는 것뿐만 아니라 앱을 실행하는 프로세싱까지도 모두 인터넷 상의 서버에서 이루어지는 방식인 클라우드 스트리밍(Cloud Streaming)이라는 신기술이 상용화될 것으로 기대된다. 다섯째, 2013년에는 'XaaS(Everything as a Service)' 개념이 보다 확장될 것이다. 클라우드 컴퓨팅의 사용이 확산됨에 따라 하드웨어의 도입, 소프트웨어 및 데이터베이스 개발과 구축, IT 서비스 등 IT 인프라 스트럭처의 토대에 많은 변화가 생겼다. 인프라스트럭처는 더 이상 고정불변의 자산으로서가 아니라 유연성과 확장성을 강조하는 서비스로서의 특징으로 점점 부각되고 있다. 따라서 모든 IT 인프라스트럭처가 Ondemand화 서비스로 제공되는 비즈니스 모델들이 부상하고 있으며 플랫폼, 하드웨어 데이터베이스 등 모든 IT 요소를 서비스 형태로 제공하는 XaaS가 2013년 새로운 개념으로 떠오를 것으로 기대된다. 여섯번째로 스토리지를 둘러싼 가격 경쟁이 더욱 심화될 것으로 보인다. 업체들의 가격 인하는 앞으로도 계속될 것이며 사용자들에게도 큰 혜택으로 돌아갈 것이지만 사람들은 가격만으로 서비스를 선택하지 않을 것이기 때문에 가격보다는 차별화된 기능 및 서비스 전략이 필요할 것이다.

Improving the Read Performance of OneNAND Flash Memory using Virtual I/O Segment (가상 I/O 세그먼트를 이용한 OneNAND 플래시 메모리의 읽기 성능 향상 기법)

  • Hyun, Seung-Hwan;Koh, Kern
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.14 no.7
    • /
    • pp.636-645
    • /
    • 2008
  • OneNAND flash is a high-performance hybrid flash memory that combines the advantages of both NAND flash and NOR flash. OneNAND flash has not only all virtues of NAND flash but also greatly enhanced read performance which is considered as a downside of NAND flash. As a result, it is widely used in mobile applications such as mobile phones, digital cameras, PMP, and portable game players. However, most of the general purpose operating systems, such as Linux, can not exploit the read performance of OneNAND flash because of the restrictions imposed by their virtual memory system and block I/O architecture. In order to solve that problem, we suggest a new approach called virtual I/O segment. By using virtual I/O segment, the superior read performance of OneNAND flash can be exploited without modifying the existing block I/O architecture and MTD subsystem. Experiments by implementations show that this approach can reduce read latency of OneNAND flash as much as 54%.