• 제목/요약/키워드: task scheduling

검색결과 486건 처리시간 0.024초

전역 이기종 환경에서의 정적 태스크 스케줄링의 비교 연구 (Comparative Study on Static Task Scheduling Algorithms in Global Heterogeneous Environment)

  • 김정환
    • 정보처리학회논문지A
    • /
    • 제13A권2호
    • /
    • pp.163-170
    • /
    • 2006
  • DAG(Directed Acyclic Graph) 기반의 스케줄링을 포함한 많은 스케줄링 문제들은 대부분 NP-Complete로 알려져 있으며, 따라서 휴리스틱에 기반한 많은 알고리즘 연구들이 진행되어 왔다. 이 중 HEFT와 CPOP은 이기종 환경에서 효과적인 알고리즘으로 알려져 있다. 본 논문의 이전 연구에서는 이기종 환경이 보다 현실성 있는 전역 네트워크로 구성된 경우에 대해 효과적인 3개의 알고리즘(CPOC, eCPOC, eCPOP)을 제안한 바 있다. 본 논문에서는 이들 총 5개의 알고리즘에서 사용하는 휴리스틱을 체계적으로 분석하고, 다양한 벤치마크를 사용한 실험을 통해 비교 분석하였다. 실험 결과 전역 이기종 환경에서 eCPOC이 가장 우수한 성능을 보여주었고, 또한 제안된 3개의 알고리즘에서 사용하는 휴리스틱들이 전역 이기종 환경에서 효과적임이 확인되었다.

전투기탑재 다기능 레이다의 공대공 및 공대지 동시 운용 모드를 위한 스케줄링 기법 (Multi-functional Fighter Radar Scheduling Method for Interleaved Mode Operation of Airborne and Ground Target)

  • 김도운;이우철;최한림;박준태;박준현;서정직
    • 한국항공우주학회지
    • /
    • 제49권7호
    • /
    • pp.581-588
    • /
    • 2021
  • 본 논문은 전투기 레이다 공대공, 공대지 동시 운용 모드에서의 빔 스케줄링 방법을 다룬다. 양질의 전장 상황 인식을 위해 임무들의 우선순위와 더불어 공대공, 공대지 탐색 임무가 교차로 수행되어야 한다는 요구조건을 정립하였다. 그리고 이를 만족하기 위해 WMDD를 개선한 실시간 휴리스틱 빔 스케줄링 방법을 제안한다. 제안된 스케줄링 방법은 실제 레이다 임무 처리 메커니즘 및 측정 모델이 구현된 시뮬레이션 환경에서 비교 분석하였으며 임무 지연시간 관점에서의 성능 향상을 확인하였다.

멀티 에이전트 에지 컴퓨팅 환경에서 확장성을 지원하는 딥러닝 기반 동적 스케줄링 (Deep Learning-Based Dynamic Scheduling with Multi-Agents Supporting Scalability in Edge Computing Environments)

  • 임종범
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권9호
    • /
    • pp.399-406
    • /
    • 2023
  • 클라우드 컴퓨팅은 에지 서버가 동작하는 포그(fog) 레이어가 결합된 에지(edge) 컴퓨팅 아키텍처로 진화하고 있다. 에지 컴퓨팅 아키텍처가 관심을 받는 이유는 짧은 통신 지연으로 실시간 IoT 응용을 지원할 수 있기 때문이다. 이와 동시에 인공지능 기술을 도입한 많은 클라우드 작업 스케줄링 기법들이 제안되었다. 인공지능 기반의 클라우드 작업 스케줄링 기법은 기존 기법보다 더 좋은 성능을 보이지만 스케줄링 시간이 다소 소요된다는 단점이 있다. 이 논문에서는 에지 컴퓨팅 환경에서 분산 딥러닝 학습 기반의 동적 스케줄링 기법을 제안한다. 제안하는 기법은 기존 기법보다 스케줄링 시간이 짧은 장점이 있다. 또한 멀티 에이전트를 통한 분산 딥러닝 학습의 효과성을 보이기 위해 확장적인 실험 환경에서 제안 기법과 기존 인공지능 기법의 성능일 비교 평가하였다. 성능 실험 결과 기존 인공지능 기반 클라우드 작업 스케줄링 기법보다 짧은 스케줄링 시간을 보여 IoT 실시간 응용에 적합함을 보였으며, 확장적인 실험에서도 제안 기법이 완료된 작업의 수에 대하여 우수한 성능을 보임을 증명하였다.

임베디드 시스템에서 실시간성과 결함허용을 보장하는 스케줄러 설계 (Design of Scheduler Considering Real-Time Characteristic and Fault-Tolerant in Embedded System)

  • 전태건;김창수
    • 한국멀티미디어학회논문지
    • /
    • 제14권1호
    • /
    • pp.76-84
    • /
    • 2011
  • 임베디드 시스템은 적용되는 분야에 따라 태스크의 완료에 대한 실시간성이 보장되어야 하는 경우가 있다. 또한 실시간성을 제공하는 시스템에서는 다양한 이유로 인해 태스크의 결함이 발생할 수 있다. 그러므로 본 논문에서는 단일 프로세서를 가지는 임베디드 시스템에서 주기적 태스크 집합의 마감시간을 보장하면서 결함이 발생한 태스크의 결함을 허용하는 태스크 스케줄러를 설계한다. 임베디드 시스템에서 실시간성을 제공하기 위해서 태스크를 주기적 및 비주기적 특성으로 분류한 후 주기적 태스크는 고정 우선순위 실시간 태스크 스케줄링 기법에서 최적의 알고리즘으로 알려진 RMS(Rate Monotonic Scheduling) 기법을 적용하여 실행한다. 주기적 태스크들의 실행 시간을 분석한 후, 결정되는 잉여 시간을 관리함으로써 비주기적 태스크들의 실행을 보장한다. 또한 일시적인 태스크의 단일 결함을 허용하기 위한 결함 허용 기법을 제공한다. 이를 위해 백업 시간을 관리하고 태스크에서 결함이 발생할 경우, 결함이 발생한 태스크를 재실행함으로써 복구 작업을 수행한다.

부정확한 융복합 온라인 태스크들의 스케쥴가능성을 향상시키기 위한 지연 전략 (A deferring strategy to improve schedulability for the imprecise convergence on-line tasks)

  • 송기현
    • 한국융합학회논문지
    • /
    • 제12권2호
    • /
    • pp.15-20
    • /
    • 2021
  • 부정확한 실시간 스케쥴링은 실시간 시스템에 일시적인 과부하가 발생할 때, 보다 덜 중요한 태스크들을 희생시킴으로서 시간적 오류들의 결과로 발생될 수 있는 나쁜 효과들을 최소화시키기 위하여 사용될 수 있다. 부정확한 실시간 스케쥴링에 있어서, 모든 경성 실시간 태스크는 논리적으로 필수적 태스크와 선택적 태스크로 나누어 질 수 있다. 최근들어서, 선택적 태스크들을 지연시킴으로서 총오류를 최소화시키면서도 필수적 태스크들의 스케쥴가능성을 향상시키는 연구들이 진행되어 왔다. 그러나, 이러한 연구들에서의 스케쥴가능성은 각 각의 선택적 태스크의 실행요구시간이 대응하는 필수적 태스크의 실행요구시간보다 작거나 같을 때 에만 적용된다는 제약이 있었다. 그래서, 본 논문에서는 이전의 연구들의 필수적 및 선택적 태스크들에 대한 실행요구시간 제약조건과 정 반대되는 제약조건 하에서도 적용될 수 있는 새로운 지연 전략을 제시하였다. 그럼에도 불구하고, 본 논문에서 제시한 지연 전략은 총오류를 최소화시키면서도 이전 연구들에 비하여 유사하거나 더 우수한 스케쥴가능성 성능을 보여 주었다.

DEVS 형식론을 이용한 다중프로세서 운영체제의 모델링 및 성능평가

  • 홍준성
    • 한국시뮬레이션학회:학술대회논문집
    • /
    • 한국시뮬레이션학회 1994년도 추계학술발표회 및 정기총회
    • /
    • pp.32-32
    • /
    • 1994
  • In this example, a message passing based multicomputer system with general interdonnedtion network is considered. After multicomputer systems are developed with morm-hole routing network, topologies of interconecting network are not major considertion for process management and resource sharing. Tehre is an independeent operating system kernel oneach node. It communicates with other kernels using message passingmechanism. Based on this architecture, the problem is how mech does performance degradation will occur in the case of processor sharing on multicomputer systems. Processor sharing between application programs is veryimprotant decision on system performance. In almost cases, application programs running on massively parallel computer systems are not so much user-interactive. Thus, the main performance index is system throughput. Each application program has various communication patterns. and the sharing of processors causes serious performance degradation in hte worst case such that one processor is shared by two processes and another processes are waiting the messages from those processes. As a result, considering this problem is improtant since it gives the reason whether the system allows processor sharingor not. Input data has many parameters in this simulation . It contains the number of threads per task , communication patterns between threads, data generation and also defects in random inupt data. Many parallel aplication programs has its specific communication patterns, and there are computation and communication phases. Therefore, this phase informatin cannot be obtained random input data. If we get trace data from some real applications. we can simulate the problem more realistic . On the other hand, simualtion results will be waseteful unless sufficient trace data with varisous communication patterns is gathered. In this project , random input data are used for simulation . Only controllable data are the number of threads of each task and mapping strategy. First, each task runs independently. After that , each task shres one and more processors with other tasks. As more processors are shared , there will be performance degradation . Form this degradation rate , we can know the overhead of processor sharing . Process scheduling policy can affects the results of simulation . For process scheduling, priority queue and FIFO queue are implemented to support round-robin scheduling and priority scheduling.

  • PDF

A Cloud-Edge Collaborative Computing Task Scheduling and Resource Allocation Algorithm for Energy Internet Environment

  • Song, Xin;Wang, Yue;Xie, Zhigang;Xia, Lin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권6호
    • /
    • pp.2282-2303
    • /
    • 2021
  • To solve the problems of heavy computing load and system transmission pressure in energy internet (EI), we establish a three-tier cloud-edge integrated EI network based on a cloud-edge collaborative computing to achieve the tradeoff between energy consumption and the system delay. A joint optimization problem for resource allocation and task offloading in the threetier cloud-edge integrated EI network is formulated to minimize the total system cost under the constraints of the task scheduling binary variables of each sensor node, the maximum uplink transmit power of each sensor node, the limited computation capability of the sensor node and the maximum computation resource of each edge server, which is a Mixed Integer Non-linear Programming (MINLP) problem. To solve the problem, we propose a joint task offloading and resource allocation algorithm (JTOARA), which is decomposed into three subproblems including the uplink transmission power allocation sub-problem, the computation resource allocation sub-problem, and the offloading scheme selection subproblem. Then, the power allocation of each sensor node is achieved by bisection search algorithm, which has a fast convergence. While the computation resource allocation is derived by line optimization method and convex optimization theory. Finally, to achieve the optimal task offloading, we propose a cloud-edge collaborative computation offloading schemes based on game theory and prove the existence of Nash Equilibrium. The simulation results demonstrate that our proposed algorithm can improve output performance as comparing with the conventional algorithms, and its performance is close to the that of the enumerative algorithm.

연속적 멀티미디어 트래픽의 서비스 질 보장을 위한 스케쥴링 (Scheduling for Guaranteeing QoS of Continuous Multimedia Traffic)

  • 길아라
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권1호
    • /
    • pp.22-32
    • /
    • 2003
  • 분산 환경의 많은 멀티미디어 응용들은 연속적 음성/화상 자료들을 위한 실시간 특성을 가지는 패킷들을 생성하고, 실시간 태스크 스케줄링 이론에 따라 이들을 전송한다. 본 논문에서는 광대역폭 통신망을 기반으로 하는 분산 멀티미디어 응용의 연속 미디어를 위한 트래픽의 특성을 모델링하고. 보다 사용자의 요구에 따른 서비스 질의 보장을 위하여 비선점적 경성 실시간 태스크 스케줄링 이론인 PDMA 알고리즘을 도입한다. 또한. 응용 시스템의 고 품질 서비스를 유지하기 위하여 새로운 트래픽 발생 요청이 현재 진행 중인 서비스 내용에 영향을 주지 알도록 제어하는 사용권 제어 기법을 제안한다. 제안하는 사용권 제어 기법은 PDMA 알고리즘을 위한 충분조건식이기 때문에 이를 만족하는 메시지 집합에 대하여 PDMA 알고리즘은 항상 실행가능한 스케줄을 찾을 수 있다. 따라서, 새로운 요청을 포함하는 전체 메시지 집합이 제안하는 사용권 제어 기법의 조건들을 만족하면, 새로운 요청에 의한 트래픽의 발생을 허용한다. 그렇지 않은 경우 새로운 요청을 거절한다. 끝으로 본 논문에서 제안하는 사용권 제어 기법을 이용하는 스케줄링의 실용성을 입증하기 위한 모의실험 결과를 보인다

Mode Change 환경을 위한 개선된 동적 퀀텀 크기 Pfair 스케줄링 (An Improved Dynamic Quantum-Size Pfair Scheduling for the Mode Change Environments)

  • 차성덕;김인국
    • 디지털콘텐츠학회 논문지
    • /
    • 제8권3호
    • /
    • pp.279-288
    • /
    • 2007
  • 최근 다중프로세서 실시간 시스템 환경에서 최적인 Pfair 스케줄링(PF) 알고리즘[1]이 Baruah 등에 의해 제안되었고, 이를 기반으로 하는 몇 가지 스케줄링 알고리즘들이 제안되었는데 이들은 모두 고정된 퀀텀 크기를 가정하고 있다. 전역 스케줄링 기법인 Pfair 기반 스케줄링 알고리즘에서 퀀텀 크기는 태스크 교환과 캐시 재적재와 같은 스케줄링 오버헤드에 직접적인 영향을 미치게 된다. 이에 따라 태스크 집합에 대한 최적 퀀텀 크기를 결정하기 위한 방법이 제안되었으며[2], 모든 태스크들의 주기와 실행 요구 시간이 $e\;{\leq}\;p/3+1$의 성질을 만족하는 제한적 특성의 태스크 집합에 대해서 보다 효율적으로 최적 퀀텀 크기를 결정할 수 있는 방법[3]이 제안된 바 있다. 그런데 이들 방법에서는 최적의 퀀텀 크기를 결정하기 위해 반복적으로 프로세서의 이용률을 계산하였다. 본 논문에서는 이러한 제한적 특성의 태스크 집합에 대해서 프로세서 이용률 계산을 반복적으로 수행하지 않고 상수 시간에 최적 퀀텀 크기를 결정할 수 있는 보다 효율적인 방법을 제안한다.

  • PDF

모바일 디바이스를 위한 마일리지 기반 비대칭 멀티코어 스케줄링 (Mileage-based Asymmetric Multi-core Scheduling for Mobile Devices)

  • 이세원;이병훈;임성화
    • 한국산업정보학회논문지
    • /
    • 제26권5호
    • /
    • pp.11-19
    • /
    • 2021
  • 본 논문에서는 각 코어의 마일리지를 기반으로 하는 비대칭 멀티코어 프로세서의 스케줄링 기법을 제안한다. 저전력을 소비하며 일반성능을 갖는 LITTLE 코어와 고성능을 갖춘 대신 고전력을 소비하는 big 코어로 구성된 big-LITTLE 멀티코어 프로세서 구조를 고려하였다. 시스템에 태스크가 도착하여 처리해야 할 때, 프로세서는 태스크를 처리할 코어 유형(big 또는 LITTLE)을 먼저 결정한 다음 유휴 중인 코어들 가운데서 마일리지가 가장 작은 코어를 조사하여 해당 작업을 코어에 할당한다. 비대칭 멀티코어 할당을 위한 마일리지 기반 밸런싱 알고리즘을 개발하였으며 제안한 스케줄링 기법이 시스템 관리 관점에서 기존 방식보다 더 비용 효율적임을 보인다. 또한 시뮬레이션을 수행하여 제안한 알고리즘의 성능을 평가한다.