• Title/Summary/Keyword: Computer I/O

Search Result 598, Processing Time 0.029 seconds

A I/O Request Prediction Mechanism for Virtual Machines (가상 머신을 위한 I/O 요청 예측 기법)

  • Lee, Jaemyoun;Lee, Seunghan;Kang, Kyungtae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.29-30
    • /
    • 2015
  • 클라우스 서비스와 크로스 플랫폼이 확산되는 추세와 맞물려 가상 머신의 File I/O 성능 개선을 위한 노력이 다각도로 모색되고 있다. 본 논문에서는 운영 오버헤드는 줄이면서도 정확도가 높은 File I/O 예측 기법을 유전알고리즘 기반으로 제안한다. 특히, 선택 연산만이 대기 시간에 포함되고, 기타 연산은 후면 처리로 수행함으로써 워크로드에 따라 대기 시간을 크게 줄일 수 있을 것으로 기대한다.

Placement and Performance Analysis of I/O Resources for Torus Multicomputer (토러스 다중컴퓨터를 위한 입출력 자원의 배치와 성능 분석)

  • 안중석
    • Journal of the Korea Society for Simulation
    • /
    • v.6 no.2
    • /
    • pp.89-104
    • /
    • 1997
  • Performance bottleneck of parallel computer systems has mostly been I/O devices because of disparity between processor speed and I/O speed. Therefore I/O node placement strategy is required such that it can minimize the number of I/O nodes, I/O access time and I/O traffic in an interconnection network. In this paper, we propose an optimal distance-k embedding algorithm, and analyze its effect on system performance when this algorithm is applied to n x n torus architecture. We prove this algorithm is an efficient I/O node placement using software simulation. I/O node placement using the proposed algorithm shows the highest performance among other I/O node placements in all cases. It is because locations of I/O nodes are uniformly distributed in the whole network, resulting in reduced traffic in the intE'rconnection network.

  • PDF

virtio-based Lightweight Network I/O Virtualization for Embedded Systems (임베디드 시스템을 위한 virtio 기반의 경량 네트워크 I/O 가상화)

  • Kim, Jong-Seo;Jin, Hyun-Wook;Jeon, Seung-Hyub;Ahn, Chang-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06a
    • /
    • pp.146-148
    • /
    • 2012
  • 임베디드 환경에서의 가상화 연구는 분산 되었던 노드들을 통합할 수 있게 해주면서도, 기존의 시스템 소프트웨어를 수정 없이 사용할 수 있다는 장점으로 인해 각광 받고 있다. 하지만 기존 VMM(Virtual Machine Monitor)의 I/O 가상화 기술은 임베디드 환경에 바로 적용하기에는 비효율적인 구조를 취하고 있다. 본 논문에서는 임베디드 시스템을 위한 전가상화 VMM인 ViMo를 기반으로 virtio를 적용하여 기존 VMM들의 I/O 가상화보다 효율적인 구조의 임베디드 I/O 가상화 기법을 제안한다.

Performance Benchmark of Filesystem for Solid State Drive (SSD를 위한 파일시스템의 벤치마크)

  • Lee, Seong-Jin;Won, You-Jip
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.323-324
    • /
    • 2011
  • 파일시스템과 I/O 워크로드에 따라 Solid State Drive (SSD)의 성능은 변하는 것이 일반적인 사실이지만 파일시스템과 SSD과의 상관 관계는 명확히 알려지지 않았다. 파일시스템과 SSD 간의 상관관계 그리고 성능을 이해하기 위해 SSD과 4개의 파일 시스템을 IOzone 벤치마크에서 다양한 I/O 크기와 direct I/O 모드에서 실험을 하였다. Nilfs2를 제외한 모든 파일 시스템의 성능이 일정하지 않은 것으로 보이고 2MB 이상의 파일 크기에서는 100MB/s 정도의 성능을 보이고 있다. 반면 Nilfs2의 경우는 레코드 크기, I/O 단위가 작을 경우 성능 역시 낮고 I/O의 크기가 커질 경우 그 성능이 같이 증가하고 있는 것을 볼 수가 있다.

Process Scheduling for High-Performance Network I/O Virtualization over Multicore Systems (멀티코어 시스템에서 고성능 네트워크 I/O 가상화를 위한 프로세스 스케줄링)

  • Kim, Jong-Seo;Jin, Hyun-Wook
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.520-523
    • /
    • 2011
  • 가상화는 하나의 컴퓨팅 노드에 여러 개의 가상 머신을 구성하여 서버의 자원 활용률을 높여주는 매우 유용한 기술이다. 하지만 아직까지 멀티코어 기반의 전가상화(Full Virtualization) 환경에서 네트워크 I/O 성능 향상을 위한 연구는 미비하다. 또한 기존의 프로세스 스케줄링 기법은 통신을 수행하는 게스트 도메인의 프로세스들을 효과적으로 지원해주지 않는다. 이러한 문제를 해결하기 위하여 네트워크 I/O 가상화를 위한 통신 프로세스의 동적 스케줄링 방식을 제안한다. 기존의 프로세스 친화도 결정 기법을 기반으로 네트워크 I/O 가상화에 특화된 제안 기법은 전가상화 VMM(Virtual Machine Monitor)인 VirtualBox를 대상으로 구현되었으며, 성능 측정을 통하여 네 개의 가상 머신을 적용하였을 경우 기존 리눅스 스케줄러 대비 총 네트워크 사용량을 약 97% 상승 시킴을 보인다.

SSD Caching based De-Duplication for Virtualization Environment (가상화 환경을 위한 SSD 캐시 기반의 중복 제거 기법)

  • Kang, Dong-Woo;Kim, Se-Woog;Lee, Nam-Su;Choi, Jong-Moo;Kim, Jun-Mo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06a
    • /
    • pp.293-295
    • /
    • 2012
  • 가상화 기술은 물리적 컴퓨팅 자원을 사용자에게 논리적으로 제공하여 시스템의 효율성을 높이고 유연성을 향상시키기 위한 기술로 서버 통합이나 아마존 EC2와 같은 클라우드 컴퓨팅 환경에서 사용되고 있다. 이러한 가상화 환경에서는 다수의 가상머신들의 동시적인 I/O 수행으로 인해 저장장치에 병목현상이 발생된다. 또한 각 가상머신들의 중복된 데이터들을 저장하기 위해 불필요한 쓰기 비용이 발생하여 시스템의 성능 저하가 발생하게 된다. 본 논문에서는 이러한 가상화 환경에서의 I/O비용을 감소시키기 위해 SSD를 캐시로 사용하는 중복 제거 기법을 제안한다. 제안된 기법은 중복된 데이터를 제거하여 불필요한 디스크에 대한 I/O 수행을 감소시키며, 중복 발생 패턴의 특성을 고려하여 SSD의 빠른 쓰기 성능을 효과적으로 사용할 수 있는 캐시 구조 모델을 통해 가상화 환경에서 I/O 성능을 향상 시킬 수 있음을 보인다.

Independent I/O Relay Class Design Using Modbus Protocol for Embedded Systems

  • Kim, Ki-Su;Lee, Jong-Chan
    • Journal of the Korea Society of Computer and Information
    • /
    • v.25 no.6
    • /
    • pp.1-8
    • /
    • 2020
  • Communication between system modules is applied using the Modbus protocol in industrial sites including smart factories, industrial drones, building energy management systems, PLCs, ships, trains, and airplanes. The existing Modbus was used for serial communication, but the recent Modbus protocol is used for TCP/IP communication.The Modbus protocol supports RTU, TCP and ASCII, and implements and uses protocols in embedded systems. However, the transmission I/O devices for RTU, TCP, and ASCII-based protocols may differ. For example, RTU and ASCII communications transmit on a serial-based communication protocol, but in some cases, Ethernet TCP/IP transmission is required. In particular, since the C language (object-oriented) is used in embedded systems, the complexity of source code related to I/O registers increases. In this study, we designed software that can logically separate I/O functions from embedded devices, and designed the execution logic of each instance requiring I/O processing through a delegate class instance with Modbus RTU, TCP, and ASCII protocol generation. We designed and experimented with software that can separate communication I/O processing and logical execution logic for each instance.

CPC: A File I/O Cache Management Policy for Compute-Bound Workloads

  • Bahn, Hyokyung
    • International journal of advanced smart convergence
    • /
    • v.11 no.2
    • /
    • pp.1-6
    • /
    • 2022
  • With the emergence of the new era of the 4th industrial revolution, compute-bound workloads with large memory footprint like big data processing increase dramatically. Even in such compute-bound workloads, however, we observe bulky I/Os while loading big data from storage to memory. Although file I/O cache plays a role of accelerating the performance of storage I/O, we found out that the cache hit rate in such environments is not improved even though we increase the file I/O cache capacity because of some special I/O references generated by compute-bound workloads. To cope with this situation, we propose a new file I/O cache management policy that improves the cache hit rate for compute-bound workloads significantly. Trace-driven simulations by replaying file I/O reference logs of compute-bound workloads show that the proposed cache management policy improves the cache hit rate compared to the well-acknowledged CLOCK algorithm by a large margin.

A Study on Unfairness for I/O Intensive Works on Credit-Scheduler (크레딧-스케줄러의 불공평적 IO 작업 분배에 관한 연구)

  • Choi, JaeWon;Lee, JaeHak;Yu, Heonchang;Lee, EunYoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.68-71
    • /
    • 2019
  • 하이퍼바이저 Xen 은 처음 개발되었을 때부터 현재까지 크레딧-스케줄러를 이용하고 있다. 크레딧-스케줄러는 CPU 이용률을 높이기 위해 디자인되어 있으며 효율적인 I/O 처리를 위해 부스트라는 개념을 도입하였지만, 부스트로 인하여 공정성이 깨질 수 있는 문제를 가지고 있다. 이 논문에서는 I/O 중심 처리 환경에서 크레딧-스케줄러의 불공정성을 증명하였으며, 실험을 통해 네트워크 성능에서 최대 약 60%의 차이를 보임을 확인할 수 있었다.

Effect of File I/O on a coupled FEM & FVM solver (FEM 및 FVM solver 결합 이용에 대한 파일 I/O 의 영향)

  • Ko, Won-Jin;Lee, Ki-Taek;Yoo, Ji-Hyung;Jung, Hyung-Soo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.423-425
    • /
    • 2021
  • 전기 자동차 에너지 시스템을 개발하기 위해서는 열 유체-전자기장 연성해석이 필요하다. 이를 위해 열 유체와 전자기장 각각의 해석에 특화된 패키지들을 사용하고, 이 패키지의 실험 결과를 저장 장치를 통해 주고받는다. 하지만 이는 저장장치 I/O 횟수를 늘려서 전체 계산 과정을 느리게 만들 수 있다. 데이터 교환을 MPI 패키지를 이용하여 DRAM 을 통해 이루어지도록 만들 수 있지만, 이는 계산 결과의 지속성을 악화시킨다. 즉, 열 유체 및 전자기장 연산과정에서 속도와 결과의 지속성은 상충적인 관계 갖는다. 본 연구는 이러한 관계를 실험적으로 분석하고 데이터의 지속성을 완화했을 때 이에 의해 얻을 수 있는 성능 이익을 분석한다.