• 제목/요약/키워드: parallel machine scheduling

검색결과 88건 처리시간 0.025초

머신러닝 컴파일러와 모듈로 스케쥴러에 관한 연구 (A Study on Machine Learning Compiler and Modulo Scheduler)

  • 조두산
    • 한국산업융합학회 논문집
    • /
    • 제27권1호
    • /
    • pp.87-95
    • /
    • 2024
  • This study is on modulo scheduling algorithms for multicore processor in machine learning applications. Machine learning algorithms are designed to perform a large amount of operations such as vectors and matrices in order to quickly process large amounts of data stream. To support such large amounts of computations, processor architectures to support applications such as artificial intelligence, neural networks, and machine learning are designed in the form of parallel processing such as multicore. To effectively utilize these multi-core hardware resources, various compiler techniques are being used and studied. In this study, among these compiler techniques, we analyzed the modular scheduler, which is especially important in one core's computation pipeline. This paper looked at and compared the iterative modular scheduler and the swing modular scheduler, which are the most widely used and studied. As a result, both schedulers provided similar performance results, and when measuring register pressure as an indicator, it was confirmed that the swing modulo scheduler provided slightly better performance. In this study, a technique that divides recurrence edge is proposed to improve the minimum initiation interval of the modulo schedulers.

유한요소 구조해석 다중쓰레드 병렬 선형해법의 스케쥴링 및 부하 조절 기법 연구 (Scheduling and Load Balancing Methods of Multithread Parallel Linear Solver of Finite Element Structural Analysis)

  • 김민기;김승조
    • 한국항공우주학회지
    • /
    • 제42권5호
    • /
    • pp.361-367
    • /
    • 2014
  • 본 논문은 최근에 널리 사용되는 다중코어 컴퓨팅 환경에서 병렬 다중프론트 해법의 스케쥴링 및 부하조절 기법에 대해 논의한다. 통상적으로 구조해석 문제들은 불규칙한 격자계와 혼재된 물성 때문에 병렬화 알고리즘 구현 시 병목현상을 일으키고 불필요한 유휴시간을 초래한다. 따라서 이를 극복하며 효율성을 향상시키기 위해 다중쓰레드 기반 환경에 걸맞는 작업 스케쥴링 및 부하 분산 기법의 적용이 필수적이다. 본 논문에서 제시된 정적, 동적 스케줄링 기법과 정적 전 임무 분산, 최소최대 임무 결합 등의 부하 분산 기법들에 대한 이론적, 실제 결과를 제시함으로서 그 유용성을 논의하고자 한다.

유전 알고리즘과 시뮬레이션을 통한 동적 스케줄링 (A Genetic Algorithm and Discrete-Event Simulation Approach to the Dynamic Scheduling)

  • 윤상한;이종환;정관영;이현수;위도영;정지용;서영복
    • 산업경영시스템학회지
    • /
    • 제36권4호
    • /
    • pp.116-122
    • /
    • 2013
  • This study develops a dynamic scheduling model for parallel machine scheduling problem based on genetic algorithm (GA). GA combined with discrete event simulation to minimize the makespan and verifies the effectiveness of the developed model. This research consists of two stages. In the first stage, work sequence will be generated using GA, and the second stage developed work schedule applied to a real work area to verify that it could be executed in real work environment and remove the overlapping work, which causes bottleneck and long lead time. If not, go back to the first stage and develop another schedule until satisfied. Small size problem was experimented and suggested a reasonable schedule within limited resources. As a result of this research, work efficiency is increased, cycle time is decreased, and due date is satisfied within existed resources.

작업의 특성에 종속되는 병렬기계의 일정계획을 위한 발견적 기법 (A Heuristic for parallel Machine Scheduling Depending on Job Characteristics)

  • 이동현;이경근;김재균;박창권;장길상
    • 한국경영과학회지
    • /
    • 제17권1호
    • /
    • pp.41-41
    • /
    • 1992
  • In the real world situations that some jobs need be processed only on certain limited machines frequently occur due to the capacity restrictions of machines such as tools fixtures or material handling equipment. In this paper we consider n-job non-preemptive and m parallel machines scheduling problem having two machines group. The objective function is to minimize the sum of earliness and tardiness with different release times and due dates. The problem is formulated as a mixed integer programming problem. The problem is proved to be Np-complete. Thus a heuristic is developed to solve this problem. To illustrate its suitability and efficiency a proposed heuristic is compared with a genetic algorithm and tabu search for a large number of randomly generated test problems in ship engine assembly shop. Through the experimental results it is showed that the proposed algorithm yields good solutions efficiently.

품질과 납기를 동시에 만족하는 작업투입 개선에 관한 연구 (Improved Dispatching Algorithm for Satisfying both Quality and Due Date)

  • 윤지명;고효헌;백종관;김성식
    • 한국산학기술학회논문지
    • /
    • 제9권6호
    • /
    • pp.1838-1855
    • /
    • 2008
  • 생산 공정의 효율화는 모든 제조 산업이 추구하고 있는 목표이다. 본 논문에서는 다양한 타입의 제품을 병렬기계에 투입 할 때 목표한 품질을 만족시키고 동시에 평균 납기지연 시간을 최소화 하는 효율적인 작업투입방법에 대하여 기술하였다. 본 연구에서는 품질을 고려하고 실시간으로 작업을 투입해야 하는 공정에서 Rolling Horizon 타부탐색(Tabu search)방법을 이용하여 평균 납기 지연시간을 최소화 하는 방안을 개발하였다. 시뮬레이션을 통해 제안하는 방법의 효율성을 비교대안과 비교하였다. 본 방법은 실제 생산 공정에서 품질과 납기를 동시에 만족 시킬 수있는 효율적인 작업투입 방법으로 사용되어 기업의 수익향상과 신뢰성 확보를 이룰 수 있다.

클라우드 환경에서 GPU 연산으로 인한 가상머신의 성능 저하를 완화하는 GPGPU 작업 관리 기법 (GPGPU Task Management Technique to Mitigate Performance Degradation of Virtual Machines due to GPU Operation in Cloud Environments)

  • 강지훈;길준민
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권9호
    • /
    • pp.189-196
    • /
    • 2020
  • 최근 클라우드 환경에서는 고성능 연산이 가능한 GPU(Graphics Processing Unit) 장치를 가상머신에게 적용한 GPU 클라우드 컴퓨팅 기술이 많이 사용되고 있다. 클라우드 환경에서 가상머신에게 할당된 GPU 장치는 대규모 병렬 처리를 통해 CPU보다 더 빠르게 연산을 수행할 수 있으며, 이로 인해 다양한 분야의 고성능 컴퓨팅 서비스들을 클라우드 환경에서 운용할 때 많은 이점을 얻을 수 있다. 클라우드 환경에서 GPU 장치는 가상머신의 성능 향상에 많은 도움을 주지만 가상머신의 CPU 사용 시간을 기반으로 작동하는 가상머신 스케줄러에서는 GPU 장치의 사용 시간이 고려되지 않아 다른 가상머신들의 성능에 영향을 미친다. 본 논문에서는 클라우드 환경에서 가상머신에게 GPU를 할당할 때 많이 사용되는 직접 통로기반 GPU 가상화 환경에서 GPGPU(General-Purpose computing on Graphics Processing Units) 작업을 수행하는 가상머신으로 인한 다른 가상머신들의 성능 저하 현상을 검증하고 분석하며, 이를 해결하기 위한 가상머신의 GPGPU 작업 관리 기법을 제안한다.

납기 위반 및 셋업 최소화를 위한 강화학습 기반의 설비 일정계획 모델 (Machine Scheduling Models Based on Reinforcement Learning for Minimizing Due Date Violation and Setup Change)

  • 유우식;서주혁;김다희;김관호
    • 한국전자거래학회지
    • /
    • 제24권3호
    • /
    • pp.19-33
    • /
    • 2019
  • 최근 제조업체들은 제품의 생산방식이 고도화 되고, 복잡해지면서 생산 장비를 효율적으로 사용하는데 어려움을 겪고 있다. 제조공정의 효율성을 방해하는 대표적인 요인들로는 작업물 종류 변경(job change)으로 인한 작업 준비 비용(Setup Cost) 등이 있다. 특히 반도체/LCD 공정과 같이 고가의 생산 장비를 사용하는 공정의 경우 장비의 효율적인 사용이 매우 중요한데, 상호 충돌하는 의사결정인 납기 준수를 최대화 하는 것과 작업물 종류 변경으로 인한 작업 준비 비용을 최소화 하는 것 사이에서 균형을 유지하는 것은 매우 어려운 일이다. 본 연구에서는 납기와 작업 준비 비용이 있는 병렬기계에서 강화학습을 활용하여 납기 및 셋업 비용의 최소화 목표를 달성하는 일정계획 모델을 개발하였다. 제안하는 모델은 DQN(Deep Q-Network) 일정계획 모델로 강화학습기반의 모델이다. 제안모델의 효율성을 측정하기 위해 DQN 모델과 기존에 개발하였던 심층 신경망 기반의 일정계획 생성기법과 휴리스틱 원칙의 결과를 비교하였다. 비교 결과 DQN 일정계획 생성기법이 심층신경망 방식과 휴리스틱 원칙에 비하여 납기 및 셋업 비용이 적은 것을 확인할 수 있었다.

병렬 시스템 환경하에서 비정형 응용 프로그램을 위한 입출력 시스템의 설계 및 구현 (Design and Implementation of An I/O System for Irregular Application under Parallel System Environments)

  • 노재춘;박성순;알록샤우드리;권오영
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권11호
    • /
    • pp.1318-1332
    • /
    • 1999
  • 본 논문에서는 입출력 응용을 위해 collective I/O 기법을 기반으로 한 실행시간 시스템의 설계, 구현 그리고 그 성능평가를 기술한다. 여기서는 모든 프로세서가 동시에 I/O 요구에 따라 스케쥴링하며 I/O를 수행하는 collective I/O 방안과 프로세서들이 여러 그룹으로 묶이어, 다음 그룹이 데이터를 재배열하는 통신을 수행하는 동안 오직 한 그룹만이 동시에 I/O를 수행하는 pipelined collective I/O 등의 두 가지 설계방안을 살펴본다. Pipelined collective I/O의 전체 과정은 I/O 노드 충돌을 동적으로 줄이기 위해 파이프라인된다. 이상의 설계 부분에서는 동적으로 충돌 관리를 위한 지원을 제공한다. 본 논문에서는 다른 노드의 메모리 영역에 이미 존재하는 데이터를 재 사용하여 I/O 비용을 줄이기 위해 collective I/O 방안에서의 소프트웨어 캐슁 방안과 두 가지 모형에서의 chunking과 온라인 압축방안을 기술한다. 그리고 이상에서 기술한 방안들이 입출력을 위해 높은 성능을 보임을 기술하는데, 이 성능결과는 Intel Paragon과 ASCI/Red teraflops 기계 상에서 실험한 것이다. 그 결과 응용 레벨에서의 bandwidth는 peak point가 55%까지 측정되었다.Abstract In this paper we present the design, implementation and evaluation of a runtime system based on collective I/O techniques for irregular applications. We present two designs, namely, "Collective I/O" and "Pipelined Collective I/O". In the first scheme, all processors participate in the I/O simultaneously, making scheduling of I/O requests simpler but creating a possibility of contention at the I/O nodes. In the second approach, processors are grouped into several groups, so that only one group performs I/O simultaneously, while the next group performs communication to rearrange data, and this entire process is pipelined to reduce I/O node contention dynamically. In other words, the design provides support for dynamic contention management. Then we present a software caching method using collective I/O to reduce I/O cost by reusing data already present in the memory of other nodes. Finally, chunking and on-line compression mechanisms are included in both models. We demonstrate that we can obtain significantly high-performance for I/O above what has been possible so far. The performance results are presented on an Intel Paragon and on the ASCI/Red teraflops machine. Application level I/O bandwidth up to 55% of the peak is observed.he peak is observed.