• Title/Summary/Keyword: I/O 스케줄러

Search Result 22, Processing Time 0.036 seconds

Improving Hardware Resource Utilization for Software Load Balancer using Multiprocess in Virtual Machine (멀티 프로세스를 사용한 가상 머신에서의 소프트웨어 로드밸런서의 효율적인 물리 자원 활용 연구)

  • Kim, Minsu;Kim, Seung Hun;Lee, Sang-Min;Ro, Won Woo
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.51 no.9
    • /
    • pp.103-108
    • /
    • 2014
  • In the virtualized server systems, a scheduler in a hypervisor is responsible to assign physical resources for virtual machines. However, the traditional scheduler is hard to provide optimized resource allocation considering the amount of I/O requests. Especially, the drawback hinders performance of software load balancer which runs on virtual machines to distribute I/O requests from the clients. In this paper, we propose a new architecture to improve the performance of software load balancer using multiprocess. Our architecture aims to improve hardware resource utilization and overall performance of the server systems which utilize virtualization technology. Experimental results show the effectiveness of the proposed architecture for the various cases.

Design and Implementation of Non-Preemptive Static Table-based Scheduler for Hard Real-Time Tasks (경성실시간 태스크를 위한 비선점형 정적 테이블 기반 스케줄러의 설계 및 구현)

  • 황기진;황인용;오성흔;길아라;양승민
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.109-111
    • /
    • 2001
  • 경성 실시간 태스크에서 마감시간 보장이 매우 중요한 문제이며 이를 보장하지 못할 시 인명피해 등 막대한 손실을 발생시킬 수 있다. 본 논문에서는 경성 실시간 태스크의 설계 시 마감시간을 보장을 위한 비선점형 정적 테이블 기반 스케줄러를 설계한다. 이 방법은 경성 실시간 스케줄러가 비선점형 스케줄링을 사용함으로써, I/O 스케줄링과 같이 선점이 불가능한 작업을 선점함으로써 발생할 수 있는 문제를 해결할 수 있고, 작업을 선점하지 않으므로 선점을 할 경우 발생할 수 있는 오버헤드 등을 줄일 수 있다. 또한 정적 스케줄링 방법을 이용하여 실행시간 오버헤드를 최소화 할 수 있다.

Process Scheduling for High-Performance Network I/O Virtualization over Multicore Systems (멀티코어 시스템에서 고성능 네트워크 I/O 가상화를 위한 프로세스 스케줄링)

  • Kim, Jong-Seo;Jin, Hyun-Wook
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.520-523
    • /
    • 2011
  • 가상화는 하나의 컴퓨팅 노드에 여러 개의 가상 머신을 구성하여 서버의 자원 활용률을 높여주는 매우 유용한 기술이다. 하지만 아직까지 멀티코어 기반의 전가상화(Full Virtualization) 환경에서 네트워크 I/O 성능 향상을 위한 연구는 미비하다. 또한 기존의 프로세스 스케줄링 기법은 통신을 수행하는 게스트 도메인의 프로세스들을 효과적으로 지원해주지 않는다. 이러한 문제를 해결하기 위하여 네트워크 I/O 가상화를 위한 통신 프로세스의 동적 스케줄링 방식을 제안한다. 기존의 프로세스 친화도 결정 기법을 기반으로 네트워크 I/O 가상화에 특화된 제안 기법은 전가상화 VMM(Virtual Machine Monitor)인 VirtualBox를 대상으로 구현되었으며, 성능 측정을 통하여 네 개의 가상 머신을 적용하였을 경우 기존 리눅스 스케줄러 대비 총 네트워크 사용량을 약 97% 상승 시킴을 보인다.

Eliminating Request Starvation due to Expectation Discrepancy between NCQ and I/O Scheduler (NCQ와 입출력 스케줄러의 기대 불일치로 인한 입출력 요청의 굶주림 현상 제거)

  • Yu, Young-Jin;Shin, Dong-In;Jung, Im-Young;Yeom, Heon-Young
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.5
    • /
    • pp.400-404
    • /
    • 2009
  • Native Command Queueing is a technology to maximize throughput of disk system by reordering requests in its command queue. Recent S-ATA 2 standard specifies a protocol for the purpose of dealing with NCQ feature, making most vendors implementing it in their disk devices. However, the new feature, NCQ, may lead to information gap between OS and disk drive. 05 considers that disk will service I/O requests in the order as OS has dispatched. Unfortunately, it isn't true any more since NCQ would simply ignore the policy of OS and reorder the sequence OS has expected. Let us define the term as expectation-discord. Due to the discord, serious performance anomalies or starvation of requests may occur in I/O subsystem. In this paper, we confirm that the expectation-discord actually brings about starvation of requests. We propose a solution to settle it. Our solution is very simple, effective, cheap(not requiring any hardware modification) and portable across various OS. Experimental results show that our solution can balance throughput and response time very well.

Performance analysis for dynamic weight allocation of xen credit scheduler (Xen credit 스케줄러에서의 동적 가중치 할당을 위한 성능 측정 방식 제안)

  • Lee, Tae-Hun;Hong, Cheol-Ho;Yoo, Chuck
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06b
    • /
    • pp.406-409
    • /
    • 2010
  • Xen의 credit 스케줄러는 서버 환경에서 도메인들의 스케줄링을 위해 설계되었다. 서버 환경의 도메인들은 네트워크 및 disk I/O가 워크로드의 대부분을 차지하지만 클라이언트 환경에서는 CPU를 포함한 다양한 워크로드의 비중이 높은 도메인들이 존재한다. 따라서 정적으로 가중치를 할당하는 경우 이러한 클라이언트 환경의 도메인들을 효과적으로 스케줄링 하기 어렵기 때문에 본 논문에서는 가중치를 동적으로 할당하는 방법을 제안하고, 보다 정확한 가중치 할당을 위한 성능 측정 방법을 연구하고자 한다.

  • PDF

Storage I/O Subsystem for Guaranteeing Atomic Write in Database Systems (데이터베이스 시스템의 원자성 쓰기 보장을 위한 스토리지 I/O 서브시스템)

  • Han, Kyuhwa;Shin, Dongkun;Kim, Yongserk
    • Journal of KIISE
    • /
    • v.42 no.2
    • /
    • pp.169-176
    • /
    • 2015
  • The atomic write technique is a good solution to solve the problem of the double write buffer. The atomic write technique needs modified I/O subsystems (i.e., file system and I/O schedulers) and a special SSD that guarantees the atomicity of the write request. In this paper, we propose the writing unit aligned block allocation technique (for EXT4 file system) and the merge prevention of requests technique for the CFQ scheduler. We also propose an atomic write-supporting SSD which stores the atomicity information in the spare area of the flash memory page. We evaluate the performance of the proposed atomic write scheme in MariaDB using the tpcc-mysql and SysBench benchmarks. The experimental results show that the proposed atomic write technique shows a performance improvement of 1.4~1.5 times compared to the double write buffer technique.

Event Routing Scheme to Improve I/O Latency of SMP VM (SMP 가상 머신의 I/O 지연 시간 감소를 위한 이벤트 라우팅 기법)

  • Shin, Jungsub;Kim, Hagyoung
    • Journal of KIISE
    • /
    • v.42 no.11
    • /
    • pp.1322-1331
    • /
    • 2015
  • According to the hypervisor scheduler, the vCPU (virtual CPU) operates under two states: the running state and the stop state. When the vCPU is in the stop state, incoming events are delayed until that vCPU's state changes to the running state. The latency in handling such events that are sent to the vCPU is regarded as the I/O latency. Since a SMP (symmetric multiprocessing) VM (virtual machine) incorporates multiple vCPUs, the event latency on a SMP VM can vary according to specific vCPU that receives the event. In this paper, we propose a new scheme named event routing that sends events according to the operation state of each vCPU to reduce the event latency on an SMP VM. We implemented the proposed event routing scheme in Xen ARM hypervisor and confirmed the reduction of I/O latency from measuring the network RTT (round trip time) and the TCP bandwidth under a variety of testing conditions. The network RTT decreases by up to 94% and the TCP bandwidth increases up to 35% when compare to native Xen ARM.

Measuring of Task Characteristics for Efficient Scheduling on Multicore Environment (멀티코어 환경에서의 효율적인 스케줄링을 위한 태스크 특성 측정 방법)

  • Ahn, Deuck-Hyeon;Kim, Jee-Hong;Eom, Young-Ik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.388-390
    • /
    • 2011
  • 오늘날의 시스템은 프로세서 성능의 증가와 더불어 단일코어에서 멀티코어 환경으로 변화되었다. 이에 따라 자원 경쟁을 최소화하여 시스템의 성능을 향상시키기 위한 멀티코어 스케줄링 기법이 연구되고 있다. 기존의 기법에서는 메모리 지향적인 태스크들을 중점적으로 다루고 있으나, 실제 컴퓨팅환경에서는 다양한 워크로드가 존재한다. 따라서 각 태스크들의 특성을 반영한 스케줄링 기법이 필요하다. 본 논문에서는 HPC 관련 툴을 이용한 실험을 통해 프로세서, 메모리, I/O지향적인 태스크들의 특성을 파악하였다. 메모리 지향적인 태스크는 매우 높은 캐시 미스율을 가지고 있으며, I/O 지향적인 태스크는 시스템 콜을 매우 빈번히 호출 한다는 것을 실험을 통해 알 수 있었다. 이러한 태스크들의 특성을 스케줄러 설계에 적절히 반영한다면 보다 효율적인 스케줄링이 가능할 것으로 기대된다.

A History-based Scheduler for Dynamic Load Balancing on Distributed VOD Server Environments (분산 VOD 서버 환경에서 히스토리 기반의 동적 부하분산 스케줄러)

  • Moon, Jongbae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.210-213
    • /
    • 2010
  • 최근 사용자의 멀티미디어에 대한 요구의 증가가 VOD (Video-on-Demand) 서비스를 발전시키게 되었다. VOD는 엔터테인먼트나 원격 교육, 광고 및 정보 등 많은 분야에서 사용되고 있다. 이러한 VOD 서비스는 많은 디스크 I/O와 네트워크 I/O를 요구하며 기존 웹 서버 시스템과 비교했을 때 오랜 시간동안 서비스를 해야 하는 특징을 가지고 있다. 또한 VOD 서비스는 많은 네트워크와 디스크의 대역폭을 요구하며, 서비스의 QoS에 민감해서 사용자 응답시간이 길어지면 사용자 요청의 취소율이 높아지게 된다. 따라서 불만족스러운 서비스의 증가로 네트워크 부하만 증가하게 된다. 이러한 기존 웹 서버 환경과는 다른 부하의 패턴이 있는 VOD 서비스 환경에서는 부하를 균형적으로 분배하여 서비스의 QoS를 높이는 것이 매우 중요하다. 본 논문에서는 분산 VOD 시스템 환경에서 부하를 효율적으로 분산하기 위해 계층형 분산 VOD 시스템 모델과 사용자 요청 패턴의 히스토리와 유전 알고리즘을 기반으로 한 스케줄러를 제안한다. 본 논문에서 제안한 계층형 분산 VOD 시스템 모델은 서버들을 지역적으로 분산하고 제어 서버를 지역마다 설치하여 지역에 있는 VOD 서버들을 관리하도록 구성한다. 사용자 요청을 지역 서버군 내에서 분산시키기 위해서 히스토리를 기반으로 한 유전 알고리즘을 사용한다. 이러한 히스토리 정보를 기반으로 유전 알고리즘의 적합도 함수에 적용하여 VOD 시스템을 위한 유전 알고리즘과 유전 연산을 구현한다. 본 논문에서 제안한 부하 분산 알고리즘은 VOD 서비스 환경에서 사용자 요구에 대한 부하를 보다 정확하게 예측하여 부하를 분산할 수 있다. 본 논문에서 제안한 계층형 분산 VOD 시스템의 부하 분산 알고리즘의 성능을 테스트하기 위해 OPNET 기반 시뮬레이터를 구현한다. 라운드로빈(round-robin) 방식과 랜덤(random) 방식과의 비교 실험을 통해 본 논문에서 제안한 부하 분산 알고리즘의 성능을 평가한다. 비교 실험을 통해 본 논문에서 제안한 알고리즘이 보다 안정적인 QoS를 제공하는 것을 보여준다.

An Empirical Study on Linux I/O stack for the Lifetime of SSD Perspective (SSD 수명 관점에서 리눅스 I/O 스택에 대한 실험적 분석)

  • Jeong, Nam Ki;Han, Tae Hee
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.52 no.9
    • /
    • pp.54-62
    • /
    • 2015
  • Although NAND flash-based SSD (Solid-State Drive) provides superior performance in comparison to HDD (Hard Disk Drive), it has a major drawback in write endurance. As a result, the lifetime of SSD is determined by the workload and thus it becomes a big challenge in current technology trend of such as the shifting from SLC (Single Level Cell) to MLC (Multi Level cell) and even TLC (Triple Level Cell). Most previous studies have dealt with wear-leveling or improving SSD lifetime regarding hardware architecture. In this paper, we propose the optimal configuration of host I/O stack focusing on file system, I/O scheduler, and link power management using JEDEC enterprise workloads in terms of WAF (Write Amplification Factor) which represents the efficiency perspective of SSD life time especially for host write processing into flash memory. Experimental analysis shows that the optimum configuration of I/O stack for the perspective of SSD lifetime is MinPower-Dead-XFS which prolongs the lifetime of SSD approximately 2.6 times in comparison with MaxPower-Cfq-Ext4, the best performance combination. Though the performance was reduced by 13%, this contributions demonstrates a considerable aspect of SSD lifetime in relation to I/O stack optimization.