• 제목/요약/키워드: MPI system

검색결과 158건 처리시간 0.056초

표준 MPI 환경에서의 무정지형 선형 시스템 해법 (A Fault-Tolerant Linear System Solver in a Standard MPI Environment)

  • 박필성
    • 인터넷정보학회논문지
    • /
    • 제6권6호
    • /
    • pp.23-34
    • /
    • 2005
  • 대규모 병렬 연산에 있어서, 계산 노드 혹은 통신 네트워크의 장애는 연산 실패로 끝나 계산자원이 낭비된다. 이를 해결하는 무정지형 MPI 라이브러리들이 제안되어 있으나 이들은 MPI 표준을 따르지 않아 이식성의 문제가 있다. 본 논문에서는 응용 프로그램의 수준에서 비동기 연산과 표준 MPI 함수만 사용하여 이식성의 문제를 해결하고 장애 복구 메커니즘을 단순화하며 수렴속도를 높이는 무정지형 선형 시스템의 해법을 제안한다.

  • PDF

이기종 클러스터 시스템에서 Cilk와 MPI 특성 비교 (Comparing Cilk and MPI on a heterogeneous cluster system)

  • 이규호;김준성
    • 전자공학회논문지CI
    • /
    • 제44권4호통권316호
    • /
    • pp.21-27
    • /
    • 2007
  • 최근 수년간의 급속한 기술의 발전과 대량생산 체제의 영향으로 개인용 컴퓨터와 간단한 네트워크 장비를 이용한 클러스터 시스템 구현이 용이해졌으나 개인용 컴퓨터의 교체 주기가 짧아짐에 따라 시스템 구성을 자유롭게 할 수 있는 클러스터 시스템의 이기종화를 초래하였다. 이기종 클러스터 시스템을 이용하여 구축된 병렬처리 시스템의 경우 그 성능을 효율적으로 사용하기 위해서는 각 노드의 성능을 고려한 작업 관리가 필요하다. 본 연구에서는 이기종 클러스터 시스템에서 MPI와 Cilk 병렬처리 시스템의 특성을 성능측면에서의 speedup과 활용도측면에서의 프로그램 코드의 복잡도를 정량적으로 살펴보았다. 실험에 따르면 작은 데이터를 이용하는 경우 Cilk가, 큰 데이터를 이용하거나 정규화된 데이터 교환 형태를 갖는 경우 MPI가 더 좋은 성능을 보였으며 코드 복잡도의 경우 Cilk가 간결한 프로그래밍 스타일을 제공함을 보였다.

MPI상에서 분산 공유메로리(DSM)시스템의 구현 (Implementation DSM system over MPI)

  • 장우현;이성우;유기영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (3)
    • /
    • pp.703-705
    • /
    • 1998
  • 본 논문에서는 MPI를 이용하여 분산 공유 메모리 시스템을 구현한다. 또한 사이클이 없는 방향성 그래프를 기반으로 한 분산 락 알고리즘을 기반으로 네트윅 환경에 적당한 알고리즘을 제안하고 구현하다. 사용된 MPI 는 분산 메모리 시스템의 메시지교환의 표준이므로 MPI 가 구현되어 있는 대부분의 분산 메모리 시스템에서 활용이 가능하여 높은 이식성을 가진다.

  • PDF

분산 메모리 시스템에서 압력방정식의 해법을 위한 MPI와 Hybrid 병렬 기법의 비교 (Comparison of Message Passing Interface and Hybrid Programming Models to Solve Pressure Equation in Distributed Memory System)

  • 전병진;최형권
    • 대한기계학회논문집B
    • /
    • 제39권2호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 연구에서는 분산 메모리시스템에서의 압력 방정식의 병렬해법을 위하여 MPI(Message Passing Interface)와 하이브리드 병렬기법을 사용하였다. 두 모델은 영역분할 기법을 활용하며, 하이브리드 기법은 성능이 양호한 두 가지 영역분할에 대해 수행하였다. 두 병렬기법의 성능을 비교하기 위해서 다양한 문제 크기에 대해 최대 96개의 쓰레드를 사용하여 속도향상을 측정하였다. 병렬 성능은 캐쉬 메모리에 따른 문제의 크기 및 MPI 통신, OpenMP 지시어의 부하에 대해 영향을 받음을 확인하였다. 문제의 크기가 작은 경우에는 쓰레드가 증가할수록 MPI 통신 및 OpenMP 지시어 부하에 대한 비율이 상대적으로 크기 때문에 병렬 성능이 좋지 않으며, MPI 통신 부하보다는 OpenMP 지시어 부하가 상대적으로 크므로 MPI 병렬 기법의 병렬 성능이 더 우수하다. 문제의 크기가 큰 경우에는 캐쉬 메모리의 활용도가 높고 MPI 통신 및 OpenMP 지시어 부하에 대한 비율이 낮아 병렬 성능이 좋으며, OpenMP 지시어보다 MPI 통신에 의한 부하가 더 지배적이어서 하이브리드 병렬 성능이 MPI 병렬 성능보다 더 양호하다.

범용 병렬화일 시스템 상에서 MPI-IO 방안의 성능 평가 벤티마크 (Benchmarks for Performance Testing of MPI-IO on the General Parallel File System)

  • 박성순
    • 정보처리학회논문지A
    • /
    • 제8A권2호
    • /
    • pp.125-132
    • /
    • 2001
  • IBM developed the MPI-IO, we call it MPI-2, on the General Parallel File System. We designed and implemented various Matrix Multiplication Benchmarks to evaluate its performances. The MPI-IO on the General Parallel File System shows four kinds of data access methods : the non-collective and blocking, the collective and blocking, the non-collective and non-blocking, and the split collective operation. In this paper, we propose benchmarks to measure the IO time and the computation time for the data access methods. We describe not only its implementation but also the performance evaluation results.

  • PDF

MPMD 방식의 비동기 연산을 이용한 응용 수준의 무정지 선형 시스템의 해법 (An Application-Level Fault Tolerant Linear System Solver Using an MPMD Type Asynchronous Iteration)

  • 박필성
    • 정보처리학회논문지A
    • /
    • 제12A권5호
    • /
    • pp.421-426
    • /
    • 2005
  • 대규모 병렬 연산에 있어서, 계산 노드 혹은 이들을 연결한 통신 네트워크의 장애는 연산 실패로 끝나며, 소중한 계산 시간이 낭비된다. 그러나 현재의 MPI 표준은 이에 대한 대안을 제시하지 않고 있다. 본 논문에서는, 비표준의 무정지형 MPI 라이브러리가 아닌 MPI 표준 함수들만을 사용하여, MPMD 방식의 비동기 연산을 도입한 응용 수준의 무정지형 선형 시스템의 해법을 제안한다.

동기 병렬연산을 위한 응용수준의 결함 내성 연산시스템 (An Application-Level Fault Tolerant System For Synchronous Parallel Computation)

  • 박필성
    • 인터넷정보학회논문지
    • /
    • 제9권5호
    • /
    • pp.185-193
    • /
    • 2008
  • 대규모 병렬 시스템의 MTBF(moon time between failures)는 아주 짧아 겨우 수 시간 단위에 불과하여 장시간의 연산 도중 연산 실패로 끝나 소중한 계산 시간이 낭비되는 경우가 많다. 그러나 현재의 MPI(Message Passing Interface) 표준은 이에 대한 대안을 제시하지 않고 있다. 본 논문에서는, 비표준의 결함 내성 MPI 라이브러리가 아닌 MPI 표준 함수들만을 사용하여, 일반적인 동기 병렬 연산에 적용할 수 있는 응용 수준의 결함 내성 연산 시스템을 제안한다.

  • PDF

MPSoC를 위한 저비용 하드웨어 MPI 유닛 설계 (The Design of Hardware MPI Units for MPSoC)

  • 정하영;정원영;이용석
    • 한국통신학회논문지
    • /
    • 제36권1B호
    • /
    • pp.86-92
    • /
    • 2011
  • 본 논문에선 분산 메모리 아키텍처를 사용하는 멀티프로세서 시스템에서 메시지 전달을 지원하는 하드웨어 MPI(Message Passing Interface) 유닛을 설계하였다 데이터 전송 동기화 및 데이터 전송, 완료까지의 과정을 하드웨어 MPI 유닛이 담당하여 동기화에 따른 오버헤드를 경감시켰다. 또한 동기화 메시지를 저장 관리하는 요청 큐(Request Queue), 준비 큐(Ready Queue), 예약 큐(Reserve Queue)를 내장하여 병렬적으로 입력받은 동기화 메시지를 관리하고 비순차적 종료(out of order completion)을 지원한다. BMF(Bus Functional Medel)을 제작해 제안한 구조에서의 전송 대역폭 성능을 확인한 결과 다대다 통신에서 25% 이상의 성능 향상이었음을 확인할 수 있었다. 그 후 HDL로 기술된 하드웨어를 Magnachip 0.18 공정 라이브러리에서 합성하였으며 프로토 타입 chip으로 제작하였다. 제안한 MPI 유닛은 전체 칩 사이즈의 1% 이하의 크기로 높은 성능 향상을 기대할 수 있어, 저비용 설계와 확장성 측면에서 임베디드 MPSoC(Multi-Processor System-on-Chip)의 전체적인 성능을 높이는데 유용하다.

실험계획법에 의한 가솔린 GDI+MPI 엔진의 연비 및 성능향상 관점에서의 운전영역별 연료분사 전략에 관한 연구 (A Study of GDI+MPI Engine Operation Strategy Focusing on Fuel Economy and Full Load Performance using DOE)

  • 김도완;이승환;임종석
    • 한국자동차공학회논문집
    • /
    • 제22권3호
    • /
    • pp.42-49
    • /
    • 2014
  • The gasoline direct injection (GDI) system is considerably spreading in automotive market due to its advantages. Nevertheless, since GDI system emit higher particle matter (PM) due to its combustion characteristics, it is difficult to meet strengthened emission regulation in near future. For this reason, a combined GDI with MPI system, so-called, dual injection (DUI) system is being investigated as a supplemental measure for the GDI system. This paper focused on power and fuel consumption effect by injection mode strategy of DUI system in part load and idle engine operating condition. In this study, port fuel injectors are installed on 2.4 liters GDI production engine in order to realize DUI system. And, at each injection mode, DOE (design of experiment) method is used to optimize engine control parameters such as dual injection ratio, start of injection timing, end of injection timing, CAM position and so on. As a consequence, DUI mode shows slightly better or equivalent fuel efficiency compared to conventional GDI engine on 9 points fuel economy mode as well as MPI mode shows less fuel consumption than GDI mode during idle operation. Furthermore, DUI system shows improvement potential of maximum 2.0% fuel consumption and 1.1% performance compared to GDI system in WOT operating condition.