• 제목/요약/키워드: NVME

검색결과 22건 처리시간 0.024초

하드디스크 데이터 I/O 속도 측정용 유틸리티 blockwrite 개발과 응용 (Development and Application of HDD I/O Measurement Utility Blockwrite)

  • 김효령;송민규
    • 한국전자통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.1151-1158
    • /
    • 2020
  • 하드디스크의 속도 성능을 탐색해 볼 수 있는 유틸리티를 개발하였다. 하드디스크에 적용하여 속도 곡선을 자세히 볼 수 있음을 보이고, 이동평균 방법을 적용하면 하드디스크의 실린더 구조와 속도 곡선의 변화를 선명하게 볼 수 있도록 하였다. 확장성을 위해 일반 대용량 스토리지에 적용하였으며, 최근에 새로운 저장 매체로 각광 받고 있는 SSD의 I/O 성능을 측정하였다. 10Gbps급 이상의 속도를 보이는 M.2 NVME를 이용하여, 리눅스 O/S에서 제공하는 cp와 속도 비교 실험을 수행함으로써, 유틸리티의 신뢰성을 검증하였다.

멀티큐 SSD를 위해 멀티코어 확장성을 제공하는 공정한 입출력 스케줄링 (Multi-core Scalable Fair I/O Scheduling for Multi-queue SSDs)

  • 조민정;강형석;김강희
    • 정보과학회 논문지
    • /
    • 제44권5호
    • /
    • pp.469-475
    • /
    • 2017
  • 최근에 제안된 NVMe 기반의 멀티큐 SSD는 여러 개의 코어들이 전담 큐들을 통해 병렬적으로 입출력을 수행함으로써 높은 SSD 대역폭을 제공한다. 이러한 멀티큐 SSD에 대해서 입출력 응용마다 대역폭 지분을 제공하기 위해서는 각 코어에게 대역폭 지분을 제공하는 것이 요구되며, 이를 위한 공정지분 스케줄링이 필요하다. 본 논문은 멀티큐 SSD를 위해 멀티코어 확장성을 제공하는 공정 큐잉 알고리즘을 제안한다. 제안하는 알고리즘은 무작위 선택 기법을 이용하여 코어간 동기화 오버헤드를 최소화하고 각 코어가 가중치에 비례하는 대역폭을 수신하도록 한다. 실험 결과, 제안하는 알고리즘은 block-mq를 사용하는 커널에서 정확한 대역폭 분할 효과를 보여주며, 코어 개수에 상관 없이 기존 FlashFQ 스케줄러보다 우수한 성능을 보여준다.

blockwrite를 이용한 대형 스토리지 성능 측정 및 최적화 연구 (Large Storage Performance and Optimization Study using blockwrite)

  • 김효령;송민규;강용우
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1145-1152
    • /
    • 2021
  • 1.4P 대형 스토리지의 성능을 최적화하기 위하여 청크모드별 특성을 조사하고, I/O 속도면에서 청크 512K 모드를 선택하였다. NVME 스토리지 시스템을 구성하여 대형 스토리지의 데이터 서버 성능 측정에 활용하였다. 1.4P 대형 스토리지의 쓰레드 수에 따른 스루풋의 변화를 측정하여 대형 스토리지 시스템의 특성을 파악하였으며, 스루풋의 최대값은 블록크기 32KB에서 133Gbps 성능을 보임을 확인하였다. GridFTP 방식의 globus-url-copy를 이용하여 데이터 송수신 실험을 수행한 결과, 이 대형 스토리지는 33Gbps의 스루풋을 가지고 있음을 알 수 있었다.

Gen-Z memory pool system implementation and performance measurement

  • Kwon, Won-ok;Sok, Song-Woo;Park, Chan-ho;Oh, Myeong-Hoon;Hong, Seokbin
    • ETRI Journal
    • /
    • 제44권3호
    • /
    • pp.450-461
    • /
    • 2022
  • The Gen-Z protocol is a memory semantic protocol between the memory and CPU used in computer architectures with large memory pools. This study presents the implementation of the Gen-Z hardware system configured using Gen-Z specification 1.0 and reports its performance. A hardware prototype of a DDR4 Gen-Z memory pool with an optimized character, a block device driver, and a file system for the Gen-Z hardware was designed. The Gen-Z IP was targeted to the FPGA, and a 512 GB Gen-Z memory pool was configured on an ×86 server. In the experiments, the latency and throughput of the Gen-Z memory were measured and compared with those of the local memory, SATA SSD, and NVMe using character or block device interfaces. The Gen-Z hardware exhibited superior throughput and latency performance compared with SATA SSD and NVMe at block sizes under 4 kB. The MySQL and File IO benchmark of Gen-Z showed good write performance in all block sizes and threads. Besides, it showed low latency in RocksDB's fillseq dbbench using the ext4 direct access filesystem.

Science DMZ 데이터 전송 노드 튜닝 요소를 통한 성능 향상 방안 (Performance Enhancement Method Through Science DMZ Data Transfer Node Tuning Parameters)

  • 박종선;박진형;김승해;노민기
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제7권2호
    • /
    • pp.33-40
    • /
    • 2018
  • 네트워크 대역폭이 큰 환경에서는 대역폭 활용률을 극대화함으로써 전송효율성을 높이는 것이 매우 중요한 이슈이다. 종단간 전송효율성은 네트워크, 데이터 전송 노드 그리고 기관 내 네트워크 보안정책 등 구성요소에 따라 크게 영향을 받는다. Science DMZ는 이러한 복합적인 구성요소들의 최적의 해결 방안을 통해 전송성능을 극대화하기 위한 혁신적인 네트워크 구조이다. 이 중에서 데이터 전송 노드는 스토리지, 네트워크 인터페이스, 운영체제, 전송응용 도구에 따라 전송성능에 크게 영향을 주는 핵심 요소이다. 하지만 고속네트워크 환경에서는 데이터 전송 노드를 구성하는 요소들의 적절한 튜닝이 수행되어야 높은 전송효율성을 제공할 수 있다. 본 논문에서는 100Gbps 데이터 전송 노드의 튜닝 요소를 통한 전송성능 향상 방안에 대해 제안한다. 성능측정결과 점보프레임, CPU governor 튜닝을 통해 100Gbps 네트워크 환경에서 전송효율성을 크게 개선할 수 있음을 확인하였다. Iperf를 통한 네트워크 성능테스트 결과 default에 비해 300%의 성능향상을 보였으며 NVMe SSD의 경우 하드디스크와 비교해 140%의 성능개선을 확인하였다.

멀티코어 및 고성능 플래시 SSD 환경에서 저널링 파일 시스템의 성능 평가 및 최적화 (Performance Evaluation and Optimization of Journaling File Systems with Multicores and High-Performance Flash SSDs)

  • 한혁
    • 한국콘텐츠학회논문지
    • /
    • 제18권4호
    • /
    • pp.178-185
    • /
    • 2018
  • 최근 클라우드 컴퓨팅, 슈퍼컴퓨팅, 기업용 스토리지/데이터베이스 등의 분야에서 멀티코어 CPU와 고성능 플래시 메모리 기반 저장 장치(플래시 SSD)를 장착한 컴퓨더 시스템에 대한 수요가 크게 증가하고 있다. 이러한 고성능 시스템에서 구동되고 있는 대표적인 운영체제 파일 시스템인 저널링 파일 시스템은 저장장치의 입출력 성능을 최대로 활용하고 있지 못하다. 본 논문에서는 고성능 플래시 SSD와 멀티코어 CPU기반의 컴퓨터 시스템에서 리녹스 운영체제의 EXT4 저널링 파일 시스템의 성능을 평가하고 분석하고자 한다. 성능 평가에 사용된 72-코어 컴퓨터 시스템은 인텔의 고성능 NVMe 기반 플래시 SSD를 장착하고 있으며 이 장치의 연속 읽기/쓰기 성능은 2800/1900 MB/s 이다. 실험 결과는 EXT4 파일 시스템의 체크포인팅 연산이 성능상의 큰 오버헤드임을 보여준다. 이 결과를 바탕으로 체크포인팅을 여러 쓰레드가 수행할 수 있는 최적화 기법을 제안하였고, 최적화된 EXT4 파일 시스템은 기존 EXT4 파일 시스템 대비 최대 92%의 성능 향상을 보여준다.

Development of Full Coverage Test Framework for NVMe Based Storage

  • Park, Jung Kyu;Kim, Jaeho
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권4호
    • /
    • pp.17-24
    • /
    • 2017
  • In this paper, we propose an efficient dynamic workload balancing strategy which improves the performance of high-performance computing system. The key idea of this dynamic workload balancing strategy is to minimize execution time of each job and to maximize the system throughput by effectively using system resource such as CPU, memory. Also, this strategy dynamically allocates job by considering demanded memory size of executing job and workload status of each node. If an overload node occurs due to allocated job, the proposed scheme migrates job, executing in overload nodes, to another free nodes and reduces the waiting time and execution time of job by balancing workload of each node. Through simulation, we show that the proposed dynamic workload balancing strategy based on CPU, memory improves the performance of high-performance computing system compared to previous strategies.

초저지연 저장장치를 위한 적응형 폴링 선택 기법 (An Adaptive Polling Selection Technique for Ultra-Low Latency Storage Systems)

  • 천명준;김윤아;김지홍
    • 대한임베디드공학회논문지
    • /
    • 제14권2호
    • /
    • pp.63-69
    • /
    • 2019
  • Recently, ultra-low latency flash storage devices such as Z-SSD and Optane SSD were introduced with the significant technological improvement in the storage devices which provide much faster response time than today's other NVMe SSDs. With such ultra-low latency, $10{\mu}s$, storage devices the cost of context switch could be an overhead during interrupt-driven I/O completion process. As an interrupt-driven I/O completion process could bring an interrupt handling overhead, polling or hybrid-polling for the I/O completion is known to perform better. In this paper, we analyze tail latency problem in a polling process caused by process scheduling in data center environment where multiple applications run simultaneously under one system and we introduce our adaptive polling selection technique which dynamically selects efficient processing method between two techniques according to the system's conditions.

AFA(All-Flash Array) 탑재 서버의 에너지 효율성에 대한 연구 (A Study on Energy Efficiency in Servers Adopting AFA(All-Flash Array))

  • 김영만;한재일
    • 한국IT서비스학회지
    • /
    • 제18권1호
    • /
    • pp.79-90
    • /
    • 2019
  • Maximizing energy efficiency minimizes the energy consumption of computation, storage and communications required for IT services, resulting in economic and environmental benefits. Recent advancement of flash and next generation non-volatile memory technology and price decrease of those memories have led to the rise of so-called AFA (All-Flash Array) storage devices made of flash or next generation non-volatile memory. Currently, the AFA devices are rapidly replacing traditional storages in the high-performance servers due to their fast input/output characteristics. However, it is not well known how effective the energy efficiency of the AFA devices in the real world. This paper shows input/output performance and power consumption of the AFA devices measured on the Linux XFS file system via experiments and discusses energy efficiency of the AFA devices in the real world.

Hybrid in-memory storage for cloud infrastructure

  • Kim, Dae Won;Kim, Sun Wook;Oh, Soo Cheol
    • 인터넷정보학회논문지
    • /
    • 제22권5호
    • /
    • pp.57-67
    • /
    • 2021
  • Modern cloud computing is rapidly changing from traditional hypervisor-based virtual machines to container-based cloud-native environments. Due to limitations in I/O performance required for both virtual machines and containers, the use of high-speed storage (SSD, NVMe, etc.) is increasing, and in-memory computing using main memory is also emerging. Running a virtual environment on main memory gives better performance compared to other storage arrays. However, RAM used as main memory is expensive and due to its volatile characteristics, data is lost when the system goes down. Therefore, additional work is required to run the virtual environment in main memory. In this paper, we propose a hybrid in-memory storage that combines a block storage such as a high-speed SSD with main memory to safely operate virtual machines and containers on main memory. In addition, the proposed storage showed 6 times faster write speed and 42 times faster read operation compared to regular disks for virtual machines, and showed the average 12% improvement of container's performance tests.