• 제목/요약/키워드: 하이브리드 스토리지

검색결과 27건 처리시간 0.021초

WAP-LRU : 플래시 스토리지 시스템에서 쓰기 패턴 분석 기반의 하이브리드 디스크 버퍼 관리 기법 (WAP-LRU: Write Pattern Analysis Based Hybrid Disk Buffer Management in Flash Storage Systems)

  • 김경민;최준형;곽종욱
    • 대한임베디드공학회논문지
    • /
    • 제13권3호
    • /
    • pp.151-160
    • /
    • 2018
  • NAND flash memories have the advantages of fast access speed, high density and low power consumption, thus they have increasing demand in embedded system and mobile environment. Despite the low power and fast speed gains of NAND flash memory, DRAM disk buffers were used because of the performance load and limited durability of NAND flash cell. However, DRAM disk buffers are not suitable for limited energy environments due to their high static energy consumption. In this paper, we propose WAP-LRU (Write pattern Analysis based Placement by LRU) hybrid disk buffer management policy. Our policy designates the buffer location in the hybrid memory by analyzing write pattern of the workloads to check the continuity of the page operations. In our simulation, WAP-LRU increased the lifetime of NAND flash memory by reducing the number of garbage collections by 63.1% on average. In addition, energy consumption is reduced by an average of 53.4% compared to DRAM disk buffers.

2013, 달라지는 클라우드 컴퓨팅

  • 양희동;황세운
    • 정보와 통신
    • /
    • 제30권4호
    • /
    • pp.23-28
    • /
    • 2013
  • 개념적으로 존재하던 클라우드 컴퓨팅의 사용이 본격적으로 심화되면서 기업들의 클라우드 컴퓨팅에 대한 개념과 생각에도 많은 변화가 생기게 되었다. 클라우드 컴퓨팅 구축이 더욱 가속화되는 가운데, 그로 인한 비용절감이나 투자수익 창출 효과에 대한 검증이 활발해질 것으로 예측됐다. 시대를 뒤바꾸는 혁신적인 기술도 잇달아 등장할 것이란 기대도 높다. 2013년은 클라우드 컴퓨팅의 발전에 또 한번의 변곡점이 될 것으로 전망된다. 본 고에서는 2013년 클라우드 컴퓨팅에 관한 예측 몇 가지를 살펴보고자 한다. 첫째, 중소기업에서의 클라우드 컴퓨팅 사용 및 정착이 가속화될 것으로 보인다. 대기업의 경우에는 기존에 구축되어 있는 IT 시스템에 대한 거버넌스 체계를 완성해 나가고 있는 상황 속에서 중앙집중형과 사용자 편의성이 강화된 클라우드 컴퓨팅을 도입하기 위해서는 아직 추구 해야 할 과제가 많다. 하지만 중소기업은 예산을 문제로 대기업과 같은 수준의 IT 인프라를 갖추지 못하고 있기 때문에 클라우드 컴퓨팅 도입으로 비용대비 고효율의 IT 인프라를 갖출 수 있다. 둘째, CSP, CSB와 통합허브가 성장할 것이다. 플랫폼 전쟁이 시장 점유율 '횡령' 싸움임을 CSP들이 깨닫게 됨에 따라 이러한 가격 경쟁들은 더 잦아질 것으로 전망된다. 그리고 2013년 클라우드 벤더들은 클라우드 가격 책정이 비용-수익 관리(costyield management)의 연장선에 있음도 알게 될 것이다. 핵심은 효율적 설계와 저비용 운영, 그리고 무엇보다 높은 사용률에 있다. 또한 기업들이 점점 많은 애플리케이션을 소프트웨어 형태로 구매하고 있기 때문에 애플리케이션 자체를 통합하는 문제, 애플리케이션에 대한 보안과 감사 프로세스개발 등의 문제가 제기되고 있다. 시스템 통합 서비스와 통합 허브는 이런 문제를 해결하기 위해 노력하게 될 것이다 셋째, 2013년은 하이브리드 클라우드 컴퓨팅이 급부상할 것으로 전망된다. 앞으로는 클라우드 컴퓨팅 시장에서 공급업체끼리 경쟁하는 것은 의미가 없으며 기업들은 절대 한 가지 클라우드 기술이나 공급자에 안주하지 않을 것이다. 이것은 곧 2013년에는 하이브리드 및 이종 클라우드 컴퓨팅이 각광 받을 것을 의미한다. 이러한 하이브리드 클라우드 컴퓨팅을 도입하기 위해서는 클라우드 컴퓨팅의 단점과 문제 해결을 위해 하나의 목적을 가지고 다양한 산업체들이 모여 경쟁업체이면서도 협력관계를 이루는 것이 중요하다. 넷째, 멀티 디바이스를 이용한 클라우드 사용이 폭발적으로 증가될 것으로 보인다. 1인당 여러 대의 단말 보유, 이동성 향상 요구, 4G 확산 등 모바일 시장을 중심으로 한 환경 변화로 인해 이전보다 한층 진화된 클라우드 기반의 서비스가 다양하게 등장할 것으로 예상된다. 또한 4G 시대가 본격적으로 개막되면서 데이터 및 앱을 저장하는 것뿐만 아니라 앱을 실행하는 프로세싱까지도 모두 인터넷 상의 서버에서 이루어지는 방식인 클라우드 스트리밍(Cloud Streaming)이라는 신기술이 상용화될 것으로 기대된다. 다섯째, 2013년에는 'XaaS(Everything as a Service)' 개념이 보다 확장될 것이다. 클라우드 컴퓨팅의 사용이 확산됨에 따라 하드웨어의 도입, 소프트웨어 및 데이터베이스 개발과 구축, IT 서비스 등 IT 인프라 스트럭처의 토대에 많은 변화가 생겼다. 인프라스트럭처는 더 이상 고정불변의 자산으로서가 아니라 유연성과 확장성을 강조하는 서비스로서의 특징으로 점점 부각되고 있다. 따라서 모든 IT 인프라스트럭처가 Ondemand화 서비스로 제공되는 비즈니스 모델들이 부상하고 있으며 플랫폼, 하드웨어 데이터베이스 등 모든 IT 요소를 서비스 형태로 제공하는 XaaS가 2013년 새로운 개념으로 떠오를 것으로 기대된다. 여섯번째로 스토리지를 둘러싼 가격 경쟁이 더욱 심화될 것으로 보인다. 업체들의 가격 인하는 앞으로도 계속될 것이며 사용자들에게도 큰 혜택으로 돌아갈 것이지만 사람들은 가격만으로 서비스를 선택하지 않을 것이기 때문에 가격보다는 차별화된 기능 및 서비스 전략이 필요할 것이다.

효율적 플래시 메모리 관리를 위한 워크로드 기반의 적응적 로그 블록 할당 기법 (Workload-Driven Adaptive Log Block Allocation for Efficient Flash Memory Management)

  • 구덕회;신동군
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제37권2호
    • /
    • pp.90-102
    • /
    • 2010
  • 플래시 메모리는 저전력, 비휘발성, 충격 내구성의 특성 때문에 임베디드 시스템에서 가장 중요한 저장 장치로 사용되고 있다. 하지만, 플래시 메모리는 덮어쓰기가 안 되는 제약 때문에 FTL이라고 하는 주소 변환을 위한 소프트웨어를 사용하며, 효율적인 주소변환을 위해서 로그 버퍼 기반의 FTL이 많이 사용되고 있다. 로그 버퍼 기반 FTL의 설계시에 중요한 사항으로서 데이터 블록과 로그 블록의 연관구조를 결정하는 문제가 있다. 기존의 기법들은 설계시에 결정된 정적인 구조를 사용하지만, 본 논문에서 는 어플리케이션의 시간적 공간적 워크로드의 변화를 고려한 적응적 로그 블록 연관 구조를 제안한다. 제안하는 FTL은 실행시간에 어플리케이션의 워크로드의 변화에 최적화된 로그 블록 연관 구조를 사용함으로써 정적으로 최적의 연관 구조를 선택하는 기존의 기법 대비 5~16%의 성능 향상을 가져왔다.

고속 하이브리드 저장장치의 입출력 성능개선을 위한 헤테로-미러링 기법 (A Hetero-Mirroring Scheme to Improve I/O Performance of High-Speed Hybrid Storage)

  • 변시우
    • 한국산학기술학회논문지
    • /
    • 제11권12호
    • /
    • pp.4997-5006
    • /
    • 2010
  • 플래시 메모리 기반의 SSD는 데스크톱 및 이동형 컴퓨터의 저장 장치를 지원하는 우수한 미디어이다. 플래시 메모리는 비휘발성, 낮은 전력소모, 빠른 데이터 읽기속도 등의 특징으로 데스크톱 및 서버용 데이터베이스의 핵심 저장 요소가 되었다. 하지만, 빠른 읽기 연산에 비하여 상대적으로 느리거나 프리징이 있는 SSD의 쓰기 연산 특성을 고려하여 HDD와 RAID에 기반을 둔 기존의 전통적인 스토리지 관리 기법을 개선할 필요가 있다. 이를 위하여, 본 논문은 전통적인 HDD 미러링에 기반을 둔 헤테로-미러링이라는 새로운 저장 장치 관리 기법을 제안한다. 헤테로-미러링 기반 기법은 SSD에서 발생 가능한 프리징 현상을 피하기 위한 쓰기-부하 밸런싱과 쓰기 지연 연산을 통하여 RAID-1 처리 성능을 개선한다. 테스트 결과 제안한 기법은 쓰기 연산 부하와 프리징 부하를 크게 감소시키고, 기존의 SSD-RAID-1 기법의 성능을 18%, 응답 시간을 38% 개선함을 확인하였다.

응용프로그램의 기동시간 단축을 위한 파일 시스템 수준의 SSD 캐싱 기법 (File-System-Level SSD Caching for Improving Application Launch Time)

  • 한창희;유준희;이동은;강경태;신현식
    • 정보과학회 논문지
    • /
    • 제42권6호
    • /
    • pp.691-698
    • /
    • 2015
  • 응용프로그램의 기동 시간은 기기에 대한 사용자 체험에 영향을 주는 중요한 지표로 보조 기억 장치의 성능에 의해 큰 영향을 받는다. 하드디스크 대신 SSD를 사용하게 되면 기동 시간을 크게 낮출 수 있지만 비용 대비 성능을 고려하면 작은 용량의 SSD를 하드디스크의 캐시로 쓰는 것이 현실적인 대안이 될 수 있다. 본 논문에서는 파일시스템 수준에서 하드디스크 상의 블록을 SSD로 이주시키는 기법을 제안한다. 제안한 기법은 기존의 SSD 캐싱 기법들에서 요구되던 캐시 데이터의 사상에 필요한 주 메모리, CPU, 그리고 사상 정보의 유지를 위한 SSD 공간 사용의 부가적인 오버헤드가 없다. 8개의 응용프로그램을 이용한 실험에서 메타데이터와 데이터 블록을 모두 SSD에 캐싱한 경우에 기동시간이 평균 56% 단축됨을 확인하였다.

가상 I/O 세그먼트를 이용한 OneNAND 플래시 메모리의 읽기 성능 향상 기법 (Improving the Read Performance of OneNAND Flash Memory using Virtual I/O Segment)

  • 현승환;고건
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제14권7호
    • /
    • pp.636-645
    • /
    • 2008
  • OneNAND 플래시는 NAND 플래시와 NOR 플래시의 장점을 모두 가진 고성능 하이브리드 플래시 메모리이다. OneNAND 플래시는 NAND 플래시의 장점들을 그대로 가지고 있을 뿐 아니라, 그동안 NAND 플래시의 단점으로 지적되던 느린 읽기 성능을 획기적으로 개선하였다. 그 결과 OneNAND 플래시는 휴대폰 및 디지털 카메라, PMP, 휴대용 게임기와 같은 고성능 휴대용 정보기기를 위한 최적의 스토리지 솔루션으로 각광받고 있다. 하지만 Linux를 비롯하여 현재 사용되고 있는 대부분의 범용 운영체제들은 가상 메모리와 블록 I/O 계층 구조의 제약으로 인해 OneNAND 플래시의 뛰어난 위기 성능을 제대로 활용하지 못하는 문제를 안고 있다. 이에 본 연구에서는 기존의 소프트웨어 계층 구조 하에서 OneNAND 플래시의 읽기 성능을 최대한 활용하기 위한 기법인 가상 I/O 세그먼트의 활용을 제안한다. 실제 구현을 통한 실험 결과는 제안된 기법이 OneNAND 플래시의 읽기 수행 시간을 기존에 비해 최고 54%까지 단축할 수 있음을 증명하였다.

DM-Cache를 이용해 구현한 SSD 캐시의 성능 평가 (Performance Evaluation of SSD Cache Based on DM-Cache)

  • 이재면;강경태
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권11호
    • /
    • pp.409-418
    • /
    • 2014
  • 최근 클라우드 서비스와 소셜 네트워크 서비스가 활성화되면서 스토리지 서버에 저장해야 할 데이터의 용량이 급격히 증가하고 있으며, 사용자의 고품질 미디어 데이터에 대한 높은 수요는 이러한 경향을 더더욱 가속화하고 있다. 이와 더불어 데이터의 효율적 참조를 통한 처리시간 감소는 이미 과거로부터 꾸준히 요구되어온 시스템 설계 주 고려사항이다. 이런 이유로 하이브리드 디스크의 효율적인 사용에 대한 많은 기술연구가 진행되고 있다. 그 핵심이라고 할 수 있는 리눅스 기반 SSD 캐시 기법은 내장된 DM-cache를 활용하여 구현하는데, 현재 이에 대한 최적화 관련 정책 연구가 많이 부족한 실정이다. 본 연구에서는, 다양한 환경에서 성능 평가를 통하여 현재 제공되고 있는 DM-cache의 문제점을 파악하였다. 그 결과, 일반 운영체제에서 실험한 DM-cache는 읽기 명령 시 나름대로의 효과를 보고 있지만, 특히 가상 머신이 탑재된 운영체제 환경에서는 DM-cache의 사용으로 인한 성능 개선을 찾을 수 없었으며 오히려 캐시 오버헤드로 성능 저하가 발생함을 확인하였다.