• 제목/요약/키워드: Task Granularity

검색결과 10건 처리시간 0.029초

Batch Resizing Policies and Techniques for Fine-Grain Grid Tasks: The Nuts and Bolts

  • Muthuvelu, Nithiapidary;Chai, Ian;Chikkannan, Eswaran;Buyya, Rajkumar
    • Journal of Information Processing Systems
    • /
    • 제7권2호
    • /
    • pp.299-320
    • /
    • 2011
  • The overhead of processing fine-grain tasks on a grid induces the need for batch processing or task group deployment in order to minimise overall application turnaround time. When deciding the granularity of a batch, the processing requirements of each task should be considered as well as the utilisation constraints of the interconnecting network and the designated resources. However, the dynamic nature of a grid requires the batch size to be adaptable to the latest grid status. In this paper, we describe the policies and the specific techniques involved in the batch resizing process. We explain the nuts and bolts of these techniques in order to maximise the resulting benefits of batch processing. We conduct experiments to determine the nature of the policies and techniques in response to a real grid environment. The techniques are further investigated to highlight the important parameters for obtaining the appropriate task granularity for a grid resource.

NOW 환경에서 개선된 고정 분할 단위 알고리즘 (Refined fixed granularity algorithm on Networks of Workstations)

  • 구본근
    • 정보처리학회논문지A
    • /
    • 제8A권2호
    • /
    • pp.117-124
    • /
    • 2001
  • At NOW (Networks Of Workstations), the load sharing is very important role for improving the performance. The known load sharing strategy is fixed-granularity, variable-granularity and adaptive-granularity. The variable-granularity algorithm is sensitive to the various parameters. But Send algorithm, which implements the fixed-granularity strategy, is robust to task granularity. And the performance difference between Send and variable-granularity algorithm is not substantial. But, in Send algorithm, the computing time and the communication time are not overlapped. Therefore, long latency time at the network has influence on the execution time of the parallel program. In this paper, we propose the preSend algorithm. In the preSend algorithm, the master node can send the data to the slave nodes in advance without the waiting for partial results from the slaves. As the master node sent the next data to the slaves in advance, the slave nodes can process the data without the idle time. As stated above, the preSend algorithm can overlap the computing time and the communication time. Therefore we reduce the influence of the long latency time at the network and the execution time of the parallel program on the NOW. To compare the execution time of two algorithms, we use the $320{\times}320$ matrix multiplication. The comparison results of execution times show that the preSend algorithm has the shorter execution time than the Send algorithm.

  • PDF

Reuse of KBS components

  • Oussalah, M.;Messaadia, K.
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2001년도 The Pacific Aisan Confrence On Intelligent Systems 2001
    • /
    • pp.385-392
    • /
    • 2001
  • This paper proposes a meta modeling technique which permits to describe a KBS according to three axis: the object of reuse axis, the levels of granularity axis and the reuse process axis. The object of reuse axis allows to see a KBS as a set of inter-related components for reuse purposes. The levels of granularity axis allows to describe the KBS components according to different levels of granularity for clarity and reuse purposes. The reuse process axis allows to see the KBS components as (re)usable components.

  • PDF

유스케이스 재구성을 통한 서비스 식별 (Services Identification based on Use Case Recomposition)

  • 김유경
    • 한국전자거래학회지
    • /
    • 제12권4호
    • /
    • pp.145-163
    • /
    • 2007
  • 서비스 지향 아키텍처는 느슨하게 연결되고 상호 호환 가능한 서비스들의 결합을 통해 어플리케이션을 구현하는 기술이다. 서비스는 적절한 입도를 갖는 구현된 비즈니스 함수로 정의할 수 있고, 잘 구성된 인터페이스를 통해 외부에 노출된다. 서비스 모델링 단계에서 서비스의 입도(granularity)가 너무 작아지면, 서비스의 재사용성, 유연성이 낮아진다. 이런 서비스 입도의 문제로 인해 도메인 분석 모델로부터 적절한 추상화 레벨을 갖는 서비스를 식별하고 정의하는 것은 매우 중요한 일이다. 본 논문에서는 도메인 분석 모델인 유스케이스 모델로부터 서비스를 식별하기 위한 절차를 제안한다. 유스케이스와 유스케이스 기술서(description)로부터 태스크 트리를 생성하고, 태스크 트리의 분할과 결합을 통해 유스케이스를 재구성한다. 이렇게 재구성된 유스케이스들로부터 서비스를 식별하고, 명세할 수 있다. 본 논문에서 제안하는 방법은 이미 널리 사용되는 UML 유스케이스 모델을 사용하므로 다양한 플랫폼과 도메인에서 서비스 모델링을 위한 개발 시간과 노력을 최소화 할 수 있을 것으로 기대된다.

  • PDF

Task-Level Dynamic Voltage Scaling for Embedded System Design: Recent Theoretical Results

  • Kim, Tae-Whan
    • Journal of Computing Science and Engineering
    • /
    • 제4권3호
    • /
    • pp.189-206
    • /
    • 2010
  • It is generally accepted that dynamic voltage scaling (DVS) is one of the most effective techniques of energy minimization for real-time applications in embedded system design. The effectiveness comes from the fact that the amount of energy consumption is quadractically proportional to the voltage applied to the processor. The penalty is the execution delay, which is linearly and inversely proportional to the voltage. According to the granularity of tasks to which voltage scaling is applied, the DVS problem is divided into two subproblems: inter-task DVS problem, in which the determination of the voltage is carried out on a task-by-task basis and the voltage assigned to the task is unchanged during the whole execution of the task, and intra-task DVS problem, in which the operating voltage of a task is dynamically adjusted according to the execution behavior to reflect the changes of the required number of cycles to finish the task before the deadline. Frequent voltage transitions may cause an adverse effect on energy minimization due to the increase of the overhead of transition time and energy. In addition, DVS needs to be carefully applied so that the dynamically varying chip temperature should not exceed a certain threshold because a drastic increase of chip temperature is highly likely to cause system function failure. This paper reviews representative works on the theoretical solutions to DVS problems regarding inter-task DVS, intra-task DVS, voltage transition, and thermal-aware DVS.

애플리케이션 특징에 따른 CFS 태스크 우선순위 제어 기법 (Task Priority Control Method based on the Characteristics of Applications in CFS)

  • 장준혁;이예나;홍지만
    • 한국콘텐츠학회논문지
    • /
    • 제21권6호
    • /
    • pp.12-18
    • /
    • 2021
  • 비례 지분 스케줄러는 각 태스크에 상대적인 CPU 시간을 할당하고 태스크의 지분에 따라 실행할 태스크를 결정한다. 본 논문에서는 대표적인 비례 지분 스케줄러인 리눅스 Completely Fair Scheduler(CFS)에서 애플리케이션의 특징과 태스크 우선순위의 상관관계를 실험한다. 그리고 애플리케이션의 특징에 따라 태스크 우선순위 정밀도를 제어하는 기법을 제안한다. 제안 기법을 리눅스에서 구현하여 유의미한 실험 결과를 확인하였다.

프로세서 farm 모델을 이용한 광추적 알고리듬 (A Ray-Tracing Algorithm Based On Processor Farm Model)

  • 이효종
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제2권1호
    • /
    • pp.24-30
    • /
    • 1996
  • 광추적표현(ray tracing rendering) 기법은 컴퓨터를 이용하여 현실감 있는 영상을 얻기 위한 음영처리 방법의 하나로 오랜 컴퓨터 처리시간을 필요로 한다. 병렬처리 기법을 적용함으로서 컴퓨터 처리시간을 효과적으로 줄일 수 있어, 본 논문에서는 광추적 기법을 위한 병렬 알고리듬을 구현하고 트랜스퓨터시스템 상에서 실험하였다. 또한 알고리듬의 확장성과 부하균형을 위하여 프로세서 farm 모델을 응용하였다. 전체의 영상을 균일한 크기로 분할하고 각각의 프로세서 farm에 분배하는 방식을 사용하였기 때문에 제안된 알고리듬에서는 병렬시스템의 확장성과 부하의 균형문제를 자연스럽게 해결하였다. 구현된 병렬 알고리듬은 가변의 일꾼을 가지는 트랜스퓨터에서 실행하였으며 효율은 9개의 프로세서를 사용하였을 때 65% 이상으로 나타났다. 가장 우수한 성능을 가지는 경우는 작업의 분할 크기가 256~1024개의 화소를 가질 때인 것으로 측정되었다. 이와 같은 높은 효율과 우수한 확장성 이외에도 트랜스퓨터시스템이 지니고 있는 가격 대 성능비의 우수성으로 인하여, 트랜스퓨터는 확장성 있는 병렬시스템으로 적합한 것을 알 수 있다.

  • PDF

네트워크 기반 클러스터 시스템을 위한 적응형 동적 부하균등 방법 (Adaptive Dynamic Load Balancing Strategies for Network-based Cluster Systems)

  • 정훈진;정진하;최상방
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제28권11호
    • /
    • pp.549-560
    • /
    • 2001
  • 클러스터 시스템을 계산능력과 메모리 크기에 있어서 바람직한 확장성을 제공한다. 또한 고속의 컴퓨터 네트워크 기술의 발달로 인해 클러스터 시스템은 값비싼 MPPs (Massively Parallel Processors)와 비교하여 경쟁력을 얻고 있다. 부적당한 작업 스케줄링은 시스템의 기능을 충분히 이용할수 없고, 병렬처리 프로그램에서 프로그램 실행 전에 각 태스크의 부하를 예측하기 어려우며, 태스크들은 다양한 형태로 서로 의존적이다. 동적 부하균등 알고리즘에서는 실행시간에 각 프로세서의 부하를 평가한 후, 각 태스크를 적절한 크기로 분할하고 그것들을 각 프로세서의 수행능력에 비례하여 클러스터 시스템에 할당한다. 그러나, 프로세싱 노드간의 통신비용이 높으면, 모든 노드들이 부하분산에 참여하는 것은 효율적이지 못하다. 본 논문에서는 부하분산에 참여하는 프로세서를 통신비용과 평균 부하로부터의 편차를 고려하여 제한하였다. 기존의 부하균등 방식과 제안된 동적 알고리즘을 비교하기 위하여, 통신비용, 노드 수, 그리고 부하의 범위와 같은 파라메터를 사용하여 다양한 모델의 클러스터 시스템에 관한 시뮬레이션을 수행하였다.

  • PDF

데이터 플로우 기반 응용들을 위한 GPU 스케줄링 프레임워크 (A GPU scheduling framework for applications based on dataflow specification)

  • 이용빈;김성찬
    • 한국멀티미디어학회논문지
    • /
    • 제17권10호
    • /
    • pp.1189-1197
    • /
    • 2014
  • Recently, general purpose graphic processing units(GPUs) are being widely used in mobile embedded systems such as smart phone and tablet PCs. Because of architectural limitations of mobile GPGPUs, only a single program is allowed to occupy a GPU at a time in a non-preemptive way. As a result, it is difficult to meet performance requirements of applications such as frame rate or response time if applications running on a GPU are not scheduled properly. To tackle this difficulty, we propose to specify applications using synchronous data flow model of computation such that applications are formed with edges and nodes. Then nodes of applications are scheduled onto a GPU unlike conventional scheduling an application as a whole. This approach allows applications to share a GPU at a finer granularity, node (or task)-level, providing several benefits such as eliminating need for manually partitioning applications and better GPU utilization. Furthermore, any scheduling policy can be applied in response to the characteristics of applications.

SPMLD: Sub-Packet based Multipath Load Distribution for Real-Time Multimedia Traffic

  • Wu, Jiyan;Yang, Jingqi;Shang, Yanlei;Cheng, Bo;Chen, Junliang
    • Journal of Communications and Networks
    • /
    • 제16권5호
    • /
    • pp.548-558
    • /
    • 2014
  • Load distribution is vital to the performance of multipath transport. The task becomes more challenging in real-time multimedia applications (RTMA), which impose stringent delay requirements. Two key issues to be addressed are: 1) How to minimize end-to-end delay and 2) how to alleviate packet reordering that incurs additional recovery time at the receiver. In this paper, we propose sub-packet based multipath load distribution (SPMLD), a new model that splits traffic at the granularity of sub-packet. Our SPMLD model aims to minimize total packet delay by effectively aggregating multiple parallel paths as a single virtual path. First, we formulate the packet splitting over multiple paths as a constrained optimization problem and derive its solution based on progressive approximation method. Second, in the solution, we analyze queuing delay by introducing D/M/1 model and obtain the expression of dynamic packet splitting ratio for each path. Third, in order to describe SPMLD's scheduling policy, we propose two distributed algorithms respectively implemented in the source and destination nodes. We evaluate the performance of SPMLD through extensive simulations in QualNet using real-time H.264 video streaming. Experimental results demonstrate that: SPMLD outperforms previous flow and packet based load distribution models in terms of video peak signal-to-noise ratio, total packet delay, end-to-end delay, and risk of packet reordering. Besides, SPMLD's extra overhead is tiny compared to the input video streaming.