• 제목/요약/키워드: 큐잉이론

검색결과 37건 처리시간 0.02초

Stack Resource Policy를 사용하는 동적 우선순위 스케줄링에서 작업 큐잉을 위한 효율적인 자료구조 (An Efficient Data Structure for Queuing Jobs in Dynamic Priority Scheduling under the Stack Resource Policy)

  • 한상철;박문주;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권6호
    • /
    • pp.337-343
    • /
    • 2006
  • Stack Resource Policy (SRP)는 몇 가지 독특한 특성을 가진 실시간 동기화 프로토콜이다. 그 특성 중의 하나는 초기 수행 차단(early blocking)으로서, 공유자원을 요청하는 시점에 작업의 수행을 정지시키는 것이 아니라, 작업의 수행 시점 자체를 연기하도록 한다. SRP가 EDF와 같은 동적 우선순위 스케줄링 알고리즘과 같이 사용될 경우, 초기 수행 차단을 지원하기 위해 스케줄러는 수행이 블록(block)되지 않을 작업 중 가장 우선순위가 높은 작업을 선택해야 하며, 이러한 탐색 연산은 수행 오버헤드(runtime overhead)의 원인이 된다. 본 논문에서는 SRP와 EDF를 같이 사용할 때의 스케줄러 수행 오버헤드를 분석한다. 기존의 준비 큐(ready Dueue) 구현 방식과 탐색 알고리즘을 사용하면 작업의 수가 많아짐에 따라 작업 탐색 오버헤드가 매우 커진다. 이 문제를 해결하기 위하여, 본 논문은 스케줄러가 효율적으로 작업을 탐색할 수 있는 준비 큐 자료구조와 O([log$_2n$])의 복잡도를 가지는 작업 탐색 알고리즘을 제안한다.

제한수신시스템을 위한 키 관리 메카니즘과 성능향상 방안 (A New Key Management Mechanism and Performance Improvement for Conditional Access System)

  • 조현숙;이상호
    • 정보처리학회논문지C
    • /
    • 제8C권1호
    • /
    • pp.75-87
    • /
    • 2001
  • 이 논문에서는 제한수신시스템의 일반구조 및 암/복호화에 사용되는 키의 안정성을 위한 키관리 메카니즘 그리고 시스템 성능 향상을 위한 키 계층 구조의 개선에 대해서 살펴본다. 또한 시스템 성능 분석을 위한 기본 개념으로 큐잉 이론(queuing theory)을 설명하고, 디지털 방송 유료화 서비스의 실현 및 시스템 성능 향상을 위한 시스템 최적화 방안으로서 몇 가지 산정된 자료를 기초로 하여 최적의 키 생성 및 전달 주기, 최적의 키관리 주기에 따른 최대/최소 키 전달 시간, 과금 데이터처리를 위한 전용선의 용량 및 시스템 용량을 산정 한다.

  • PDF

Xen 환경에서 스케줄링 지연을 고려한 가상머신 우선순위 할당 기법 (A Priority Allocation Scheme Considering Virtual Machine Scheduling Delays in Xen Environments)

  • 양은지;최현식;한세영;박성용
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제37권4호
    • /
    • pp.246-255
    • /
    • 2010
  • CPU 자원이 다수의 가상머신에 의해 공유되는 Xen 가상화 환경에서는, CPU가 하나의 가상머신의 요청을 처리하는 동안 다른 가상머신은 CPU를 기다려야 하는 가상머신 스케줄링 지연이 존재한다. 가상화 환경에서 응용프로그램의 QoS 요구사항을 만족시키기 위하여 자원을 관리하는 대부분의 시스템은 가상머신의 자원 사용률과 가상머신에서 운영하는 응용프로그램의 성능을 모니터링하고 분석하여 자원을 재할당한다. 이 때 응용프로그램의 성능 분석을 위해 큐잉 모델 등과 같은 수학적인 모델링 기법이 사용되지만 비가상화 환경에서 사용되던 모델은 가상머신 스케줄링 지연을 고려하지 않으므로, 가상화 환경에서는 정확한 분석과 예측이 어렵고, 따라서 이를 기반으로 자원을 관리하는 시스템은 요구되는 응용프로그램의 성능을 제공하지 못할 수 있다. 따라서 본 논문에서는 Xen 가상화 환경에서 가상머신 스케줄링 지연을 반영하여 응용프로그램의 성능을 측정하고, 모든 가상머신이 일으킬 수 있는 스케줄링 지연을 최소화하는 방향으로 CPU 사용 우선순위를 설정하는 기법을 제안하고, 제안한 기법이 스케줄링을 고려하지 않은 방법에 비해 응용 프로그램의 성능을 향상시킴을 보인다.

단일서버에서의 누적적 공정서비스 모델 (A Cumulative Fair Service Model in Single Server)

  • 이주현;박경호;황호영;민상렬
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권9호
    • /
    • pp.585-591
    • /
    • 2006
  • Generalized Processor Sharing(GPS) 모델은 세션에게 서비스를 제공시 순시적 공정서비스를 통해 서버 용량을 분배한다. 이 공정서비스는 단지 현재 서버 내에 대기 중인 세션만을 고려하여 서버 용량을 분배하기 때문에, 서비스를 제공하는 순간 서비스를 받는 세션 간에는 공정한 서비스가 제공된다고 볼 수 있다. 그러나 긴 시간의 관점에서 보면 같은 가중치를 가지는 한 세션이 다른 세션에 비해 평균적으로 다른 용량으로 서비스 받는 문제가 발생한다. 본 연구에서는 긴 시간의 관점에서 모든 세션이 항상 공평한 서비스용량을 제공받을 수 있는 누적 공정서비스 모델(CFS)을 제안한다. 이 CFS 모델은 각 세션에게 누적적 공정 서비스 용량을 제공하기 때문에 세션관점 공정 서비스를 제공한다. 그리고 이 모델과 이 모델을 참조하여 각 세션의 패킷을 스케줄링 하는 패킷 누적공정 서비스(P_CFS)알고리즘의 특성과 성능을 분석하였다. 또한 성능평가를 통해 각 세션에게 긴 시간의 관점에서 세션의 가중치에 비례하는 서비스용량이 제공되는 것을 검증하였다.

CDMA 방식 이동통신망에서의 호 연결 제어 (Call Connection Control in CDMA-Based Mobile Network)

  • 이상호;박성우
    • 한국통신학회논문지
    • /
    • 제24권7A호
    • /
    • pp.987-995
    • /
    • 1999
  • CDMA를 기반으로 하는 이동통신망에서는 소프트 핸드오프를 기본적으로 제공할 수 있지만 기지국이 다수의 주파수 대역을 사용할 경우 하드 핸드오프 또한 발생된다. CDMA 환경에서 소프트 핸드오프는 양호한 서비스 품질과 통화의 연속성을 보장하며, 기지국 전체의 용량을 증대시킬 수 있는 장점을 가지고 있다. 본 논문은 이러한 상황에서 보다 원활하고 효율적인 핸드오프 처리를 위해 핸드오프를 위한 대기 큐를 사용한 호 연결 제어 방식을 제안하고 있다. 대기 큐 사용 방식에 따라 단일 큐를 사용하는 방식과 복수 큐를 사용하는 방식으로 나누어지며, 큐잉 이론을 바탕으로 수치 해석을 통해 제안하는 호 연결 제어 방식의 성능을 분석하였다. 분석 결과, 대기 큐가 없는 경우 하드 핸드오프를 가능한 한 억제하는 것이 바람직하며, 단일 대기 큐를 사용하는 경우에는 트래픽 상태에 따라 하드 핸드오프가 발생되는 방식과 소프트 핸드오프 만을 보장하는 방식을 적절히 혼용하는 방식이 바람직한 것으로 판단된다. 복수 대기 큐를 사용하는 경우에는 주어진 차단 확률을 만족하기 위해 핸드오프 호의 차단 확률과 하드 핸드오프 확률간의 적절한 Trade-Off \ulcorner필요하다.

  • PDF

수퍼스칼라 프로세서의 해석적 모델 및 성능 분석 (Analytical Models and their Performance Analysis of Superscalar Processors)

  • 김학준;김선모;최상방
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권7호
    • /
    • pp.847-862
    • /
    • 1999
  • 본 논문에서는 유한버퍼의(finite-buffered) 동기화된(synchronous) 큐잉모델(queueing model)을 이용하여 명령어들간의 병렬성, 분기명령의 빈도수, 분기예측(branch prediction)의 정확도, 캐쉬미스 등의 파라미터들을 고려하여 프로세서의 명령어 실행율을 예측하며 캐쉬의 성능과 파이프라인 성능간의 관계를 분석할 수 있는 새로운 해석적 모델을 제안하였다. 해석적 모델은 모델의 타당성을 검증하기 위해서 시뮬레이션을 수행하여 얻은 결과와 비교하였다. 해석적 모델과 시뮬레이션을 비교한 결과 대부분 10% 오차 내에서 일치하였다. 본 연구를 통하여 얻은 해석적 모델을 사용하면 시뮬레이션에서는 드러나지 않는 성능제약의 원인에 대한 명확한 규명이 가능하기 때문에 성능향상을 위한 설계자료를 얻을 수 있으며, 시스템 성능 밸런스를 위한 캐쉬와 비순차이슈 파이프라인 성능간의 관계에 대한 정확한 분석이 가능하다.Abstract This research presents a novel analytic model to predict the instruction execution rate of superscalar processors using the queuing model with finite-buffer size and synchronous operation mode. The proposed model is also able to analyze the performance relationship between cache and pipeline. The proposed model takes into account various kinds of architectural parameters such as instruction-level parallelism, branch probability, the accuracy of branch prediction, cache miss, and etc.. To prove the correctness of the model, we performed extensive simulations and compared the results with the analytic model. Simulation results showed that the proposed model can estimate the average execution rate accurately within 10% error compared to simulation results. The proposed model can explain the causes of performance bottleneck which cannot be uncovered by the simulation method only. The model is also able to show the effect of the cache miss on the performance of out-of-order issue superscalar processors, which can provide an valuable information in designing a balanced system.

해석적 모델을 이용한 분산된 리오더 버퍼 슈퍼스칼라 프로세서의 성능분석 (The Performance Analysis of Distributed Reorder Buffer in Superscalar Processor using Analytical Model)

  • 윤완오;신광식;김경섭;이윤섭;최상방
    • 대한전자공학회논문지SD
    • /
    • 제45권12호
    • /
    • pp.73-82
    • /
    • 2008
  • 슈퍼스칼라 프로세서에서 리오더 버퍼의 복잡도를 줄이는 여러 가지 방법이 제시되었다. 그 중에서 리오더 버퍼의 포트를 가장 단순하게 하는 방법은 하나로 되어 있는 리오더 버퍼의 구조를 실행 유닛의 개수만큼 여러 개로 나누어 분산된 리오더 버퍼로 구현하는 것이다. 각각의 분산된 리오더 버퍼는 실행 유닛의 작업 부하에 따라 그 크기를 달리 할 수 있다. 하지만 분산된 리오더 버퍼의 크기에 따라 성능의 변화가 크다. 지금까지의 분산된 리오더 버퍼로 나누는 연구는 적절한 크기를 결정하기 위해 시뮬레이션 결과에 기반 하여 직관적으로 유추하였다. 본 논문은 분산된 리오더 버퍼에 M/M/1 큐잉 이론을 이용한 수학적모델을 적용하여 최적의 크기를 결정하고 CPU2000 벤치마크 프로그램을 수행하여 성능을 측정하고 평가하였으며 기존 슈퍼스칼라 프로세서 성능의 99.2%를 보여주는 분산된 리오더 버퍼의 최적 크기를 정할 수 있었다. 기존의 리오더 버퍼와 본 논문에서 제시한 분산된 리오더 버퍼를 HDL로 구현하였을 때 포트에서 82%의 하드웨어 자원과 30%이상의 지연시간을 줄였다.