• 제목/요약/키워드: MPI(Message-Passing Interface)

검색결과 115건 처리시간 0.029초

동기 병렬연산을 위한 응용수준의 결함 내성 연산시스템 (An Application-Level Fault Tolerant System For Synchronous Parallel Computation)

  • 박필성
    • 인터넷정보학회논문지
    • /
    • 제9권5호
    • /
    • pp.185-193
    • /
    • 2008
  • 대규모 병렬 시스템의 MTBF(moon time between failures)는 아주 짧아 겨우 수 시간 단위에 불과하여 장시간의 연산 도중 연산 실패로 끝나 소중한 계산 시간이 낭비되는 경우가 많다. 그러나 현재의 MPI(Message Passing Interface) 표준은 이에 대한 대안을 제시하지 않고 있다. 본 논문에서는, 비표준의 결함 내성 MPI 라이브러리가 아닌 MPI 표준 함수들만을 사용하여, 일반적인 동기 병렬 연산에 적용할 수 있는 응용 수준의 결함 내성 연산 시스템을 제안한다.

  • PDF

MPSoC를 위한 저비용 하드웨어 MPI 유닛 설계 (The Design of Hardware MPI Units for MPSoC)

  • 정하영;정원영;이용석
    • 한국통신학회논문지
    • /
    • 제36권1B호
    • /
    • pp.86-92
    • /
    • 2011
  • 본 논문에선 분산 메모리 아키텍처를 사용하는 멀티프로세서 시스템에서 메시지 전달을 지원하는 하드웨어 MPI(Message Passing Interface) 유닛을 설계하였다 데이터 전송 동기화 및 데이터 전송, 완료까지의 과정을 하드웨어 MPI 유닛이 담당하여 동기화에 따른 오버헤드를 경감시켰다. 또한 동기화 메시지를 저장 관리하는 요청 큐(Request Queue), 준비 큐(Ready Queue), 예약 큐(Reserve Queue)를 내장하여 병렬적으로 입력받은 동기화 메시지를 관리하고 비순차적 종료(out of order completion)을 지원한다. BMF(Bus Functional Medel)을 제작해 제안한 구조에서의 전송 대역폭 성능을 확인한 결과 다대다 통신에서 25% 이상의 성능 향상이었음을 확인할 수 있었다. 그 후 HDL로 기술된 하드웨어를 Magnachip 0.18 공정 라이브러리에서 합성하였으며 프로토 타입 chip으로 제작하였다. 제안한 MPI 유닛은 전체 칩 사이즈의 1% 이하의 크기로 높은 성능 향상을 기대할 수 있어, 저비용 설계와 확장성 측면에서 임베디드 MPSoC(Multi-Processor System-on-Chip)의 전체적인 성능을 높이는데 유용하다.

병렬 컴퓨터에서의 결함 허용 메시지 전달 인터페이스 구현 (An Implementation of Fault-Tolerant Message Passing Interface on Parallel Computers)

  • 송대기;이철훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제6권3호
    • /
    • pp.319-328
    • /
    • 2000
  • 메시지 전달 인터페이스(MPI)는 기존의 다양한 병렬 프로그램 개발 환경을 표준화한 것으로써, 메시지 전달 인터페이스를 기반으로 하는 병렬 컴퓨터 시스템은 응용 프로그램을 수많은 프로세서들에 분산 배치시켜 수행한다. 구성되는 각각의 프로세서 노드들은 연산을 하고 서로 결과를 메시지로 교환하여 수행을 하게 된다. 그러나 병렬 컴퓨터를 구성하는 노드들 중에서 어느 한 노드 또는 작업 중인 프로세스가 고장을 일으킨다면 수행되는 응용 프로그램은 그 동안의 수행 결과를 잃게 되며, 또한 응용 프로그램을 구성하는 모든 프로세스들은 중단될 것이다. 본 논문에서는 이와 같은 문제를 해결하기 위해 기존의 MPI에 고장 관리자(Fault Manager) 모듈을 추가함으로써 고장 허용 메시지 전달 인터페이스인 FT-MPI 를 제안한다. 제안한 FT-MPI는 고장 처리를 위한 추가적인 하드웨어 지원이 필요하지 않으며 기존의 MPI 응용 프로그램들이 수정 없이 수행될 수 있다는 장점을 지닌다. 제안한 고장 허용 방법은 프로세스 이중화 기법인 hot-spare 방법을 사용하였으며, 시뮬레이션을 통해 제안한 FT-MPI가 고장이 발생하더라도 응용 프로그램이 올바르게 수행되며, 고장 허용 기능으로 인한 수행 시간상의 오버헤드는 5%를 넘지 않음을 보인다.

  • PDF

소켓 및 RMI 기반 자바 메시지 전달 시스템의 구현 및 성능평가 (Implementation and Performance Evaluation of Socket and RMI based Java Message Passing Systems)

  • 방승준;안진호
    • 인터넷정보학회논문지
    • /
    • 제8권5호
    • /
    • pp.11-20
    • /
    • 2007
  • 본 논문은 자바 언어로 완성된 MPI(Message Passing Interface) 스펙인 MPJ(Message Passing in Java) 스펙을 준수하여 병렬 컴퓨팅 환경에서 메시지 통신 인터페이스를 제공하는 JMPI(Java Message Passing Interface) 라이브러리를 설계하고 구현하였다. 이 라이브러리는 간단하면서도 매우 편리한 GUI(Graphical User Interface) 도구를 제공하여, 사용자가 손쉽게 병렬 컴퓨팅 환경을 구성할 수 있다. 또한, 본 논문에서는 두 가지 전형적인 분산 시스템 통신 메커니즘인 소켓과 RMI(Remote Method Invocation) 방식을 이용하여 두 가지 버전의 시스템을 구현하였고, 기존의 JPVM 시스템과의 성능을 벤치마크 애플리케이션들을 통하여 컴퓨터 대수의 증가에 따른 처리 속도를 비교해 보았다. 실험 결과로는 본 논문에서 제시한 JMPI 시스템이 JPVM시스템보다 다양한 측면에서 높은 성능을 발휘한다는 것과 컴퓨터의 가장 효율적인 처리 속도는 애플리케이션에 따라 컴퓨터의 수를 증가시킨다고 해서 일정하게 처리속도가 증가하는 것이 아니라 네트워크의 트래픽을 고려하여 컴퓨터의 수를 증가시켰을 때 얻을 수 있다는 것을 보여준다. 마지막으로 컴퓨터의 수가 증가함에 따라 RMI를 사용하여 메시지를 전달하는 것이 소켓에 부속된 객체 스트림을 사용하여 메시지를 전달하는 것보다 효과적이라는 것을 알 수 있다.

  • PDF

Processing-Node Status-based Message Scattering and Gathering for Multi-processor Systems on Chip

  • Park, Jongsu
    • Journal of information and communication convergence engineering
    • /
    • 제17권4호
    • /
    • pp.279-284
    • /
    • 2019
  • This paper presents processing-node status-based message scattering and gathering algorithms for multi-processor systems on chip to reduce the communication time between processors. In the message-scattering part of the message-passing interface (MPI) scatter function, data transmissions are ordered according to the proposed linear algorithm, based on the processor status. The MPI hardware unit in the root processing node checks whether each processing node's status is 'free' or 'busy' when an MPI scatter message is received. Then, it first transfers the data to a 'free' processing node, thereby reducing the scattering completion time. In the message-gathering part of the MPI gather function, the data transmissions are ordered according to the proposed linear algorithm, and the gathering is performed. The root node receives data from the processing node that wants to transfer first, and reduces the completion time during the gathering. The experimental results show that the performance of the proposed algorithm increases at a greater rate as the number of processing nodes increases.

Parallel FFT and Quick-Merge Sort on the Reflective Memory Networked Computers and a Cluster of Work-stations

  • Lee, Changhun;Kwon, Wook-Hyun
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2002년도 ICCAS
    • /
    • pp.94.1-94
    • /
    • 2002
  • This paper is concerned with parallel FFT and Quick-Merge Sort. They are implemented on computers interconnected by VMIC 5579 reflective memory and a cluster of workstations (PCs) interconnected via Fast Ethernet. Message passing interface (MPI) parallel library is used for communication in a cluster of workstations. An improved parallel FFT is also presented to decrease an execution time in the case of a small number of hosts. Distributed shared memory (DSM), VMIC 5579 reflective memory (RM), a cluster of workstations (COW) and message passing interface (MPI) parallel library are described.

  • PDF

분산 메모리 시스템에서 압력방정식의 해법을 위한 MPI와 Hybrid 병렬 기법의 비교 (Comparison of Message Passing Interface and Hybrid Programming Models to Solve Pressure Equation in Distributed Memory System)

  • 전병진;최형권
    • 대한기계학회논문집B
    • /
    • 제39권2호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 연구에서는 분산 메모리시스템에서의 압력 방정식의 병렬해법을 위하여 MPI(Message Passing Interface)와 하이브리드 병렬기법을 사용하였다. 두 모델은 영역분할 기법을 활용하며, 하이브리드 기법은 성능이 양호한 두 가지 영역분할에 대해 수행하였다. 두 병렬기법의 성능을 비교하기 위해서 다양한 문제 크기에 대해 최대 96개의 쓰레드를 사용하여 속도향상을 측정하였다. 병렬 성능은 캐쉬 메모리에 따른 문제의 크기 및 MPI 통신, OpenMP 지시어의 부하에 대해 영향을 받음을 확인하였다. 문제의 크기가 작은 경우에는 쓰레드가 증가할수록 MPI 통신 및 OpenMP 지시어 부하에 대한 비율이 상대적으로 크기 때문에 병렬 성능이 좋지 않으며, MPI 통신 부하보다는 OpenMP 지시어 부하가 상대적으로 크므로 MPI 병렬 기법의 병렬 성능이 더 우수하다. 문제의 크기가 큰 경우에는 캐쉬 메모리의 활용도가 높고 MPI 통신 및 OpenMP 지시어 부하에 대한 비율이 낮아 병렬 성능이 좋으며, OpenMP 지시어보다 MPI 통신에 의한 부하가 더 지배적이어서 하이브리드 병렬 성능이 MPI 병렬 성능보다 더 양호하다.

병렬처리를 위한 고성능 라이브러리의 구현과 성능 평가 (Implementation and Performance Analysis of High Performance Computing Library for Parallel Processing)

  • 김영태;이용권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권7호
    • /
    • pp.379-386
    • /
    • 2004
  • 본 연구에서는 병렬프로그램을 효율적으로 개발할 수 있고 병렬처리 프로그램의 성능을 향상시키는 이식성을 갖는 고성능 병렬 라이브러리인 HPCL(High Performance Computing Library)을 구현하였다. HPCL은 C 언어와 Fortran 언어로 구현되었으며, Fortran 프로그램에서 메시지 전송 인터페이스인 MPI(Message Passing Interface)를 효율적으로 사용할 수 있도록 하였다. 성능 분석은 PC 클러스터와 상업용 슈퍼컴퓨터인 IBM SP4를 이용하여 병렬프로그램의 성능 향상 및 통신 오버헤드 등에 대하여 다양하게 이루어졌다.

PC 클러스터를 이용한 래스터 GIS 연산의 병렬화 (Parallelization of Raster GIS Operations Using PC Clusters)

  • 신윤호;박수홍
    • Spatial Information Research
    • /
    • 제11권3호
    • /
    • pp.213-226
    • /
    • 2003
  • GIS를 이용한 대용량의 지리정보 처리가 요구되고 있으나 단일 프로세서만으로 복잡한 GIS 연산을 처리하는 데는 능력의 한계성이 대두되고 있다. 특히, GIS 데이터의 증가속도에 프로세서 발전 속도가 미치지 못하고, 증가되는 광범위한 데이터를 처리하는 작업 또한 많은 시간이 걸리는 문제점이 나타나고 있다. 이에 대한 대안으로 계산의 양이 많고 또한, 대용량의 입·출력이 빈번히 일어나는 GIS 연산 작업을 여러 프로세서에 분산시켜 동시에 수행하도록 하는 GIS 작업의 병렬화에 대한 연구가 최근 활발히 진행되고 있다. 본 연구에서는 고가의 병렬 컴퓨터로만 수행되던 병렬 처리를 일반적인 GIS 사용자들이 사용하는 PC 기반으로 MPI(Message Passing Interface)를 사용하여 기존의 단일 프로세서로만 진행되던 래스터 GIS 연산에 대해서 병렬화 과정을 적용하여 연산의 처리 능력을 향상시키고자 한다. 이를 위해, GIS 연산들에 대한 체계적인 분석과 분류를 제시한 Tomlin(1990)의 래스터 GIS 연산을 기준으로 각 연산에 대해 적합한 데이터 분할 기법을 통한 병렬화 과정을 연구하였다.

  • PDF

Application of a Parallel Asynchronous Algorithm to Some Grid Problems on Workstation Clusters

  • Park, Pil-Seong
    • Ocean and Polar Research
    • /
    • 제23권2호
    • /
    • pp.173-179
    • /
    • 2001
  • Parallel supercomputing is now a must for oceanographic numerical modelers. Most of today's parallel numerical schemes use synchronous algorithms, where some processors that have finished their tasks earlier than others must wait at synchronization points for correct computation. Hence, the load balancing is a crucial factor, however, it is, in general, difficult to achieve on heterogeneous workstation clusters. We devise an asynchronous algorithm that reduces the idle times of faster processors, and discuss application of the algorithm to some grid problems and implementation on a workstation cluster using Message Passing Interface (MPI).

  • PDF