• 제목/요약/키워드: processing load

검색결과 1,478건 처리시간 0.029초

스타형 컴퓨터 네트워크의 부하균형방향 정책 (Load balancing Direction strategies in star network configurations)

  • 임경수;김수정;김종근
    • 한국정보처리학회논문지
    • /
    • 제1권4호
    • /
    • pp.427-437
    • /
    • 1994
  • 스타형 컴퓨터 네트워크의 최적 부하균형 문제를 생각한다. 스타형 모델에서는 세가지 부하균형방향정책을 생각할 수 있다. 첫 번째는, 주변노드로 도착한 작업들은 자노드에서 처리되거나 자노드가 과부하인 경우 중앙노드에 보내져 처리될 수 있다. 두 번째는, 중앙노드에 도착한 작업만이 자노드에서 처리되거나 중앙노드가 과부하인 경우 저부하의 주변노드로 작업이 전송되어 처리될 수 있다. 본 연구에서는 두 번째 정책에 대하여 비선형 최적화 문제를 만들고, 최적해를 이용하여 최적 부가균형 알고 리즘을 제안한다. 세 번째는, 중앙노드 혹은 주변노드를 가리지 않고 도착한 작업들은 자노드에서 처리되거나 자노드가 과부하인 경우 저부하의 타노드로 작업이 전송되어 처리된다. 이 세 번째 부하균형 정책을 위한 부하분산 알고리즘도 제안한다. 본 논문 에서 대상으로 하고 있는 세가지 부하균형 정책을 수치실험을 통하여 비교분석 하였다. 수치실험 결과중 다음과 같은 몇 가지 재미있는 실험결과가 발견되었다. 세 번째 부하 균형 정책은 대부분의 경우 다른 두 정책보다 시스템 성능을 크게 향상시킨다. 두 번 째 부하균형 정책은 대부분의 경우 미약한 성능향상 밖에 보이지 않는다. 마지막으로 중앙노드의 처리능력이 주변노드보다 훨씬 큰 경우에는 첫 번째와 세 번째의 부하균 형 정책은 동일한 성능향상을 보인다.

  • PDF

상대적 부하 색인을 기반으로 한 이기종 워크스테이션 클러스터의 부하 균형 (Load Balancing of Heterogeneous Workstation Cluster based on Relative Load Index)

  • 지병준;이광모
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제8권2호
    • /
    • pp.183-194
    • /
    • 2002
  • 이기종 워크스테이션 클러스터링은 응용 프로그램의 병렬 처리에 유용하며 비용 측면에서 효과적이다. 이기종 워크스테이션 클러스터링 환경에서 총작업반환시간을 최소화하기 위해서는 부하 균형 시스템이 필요하다. 기존의 부하 균형 방식은 각 워크스테이션의 처리능력에 가중치를 미리 부여하여 작업을 분배하는 정적방식이거나, 각 워크스테이션의 상대적 처리능력을 얻기 위해서 성능 테스트 프로그램을 수행하는 동적 방식이 있다. 수행되는 응용 프로그램과는 관계없는 성능 테스트 프로그램은 계산시간을 소비하고 총작업반환시간을 지연시킨다. 이 논문은 상대적 부하 색인에 기초한 효과적 작업 분배 방식과 작업 이주 방식을 제안하였으며 이기종 워크스테이션 클러스터 환경에서 부하 균형 시스스템을 설계 구현하였다. 이 논문에서 제안한 방식의 총작업반환시간을 실험을 통하여 부하 균형을 하지 않은 라운드 로빈 방식의 총작업반환시간과 성능 테스트 프로그램에 의한 부하 균형 방식의 총작업반환시간과 비교하였다. 실험 결과는 비교한 방식보다 제안 방식의 결과가 우수함을 보였다.

네트워크 기반 클러스터 시스템을 위한 적응형 동적 부하균등 방법 (Adaptive Dynamic Load Balancing Strategies for Network-based Cluster Systems)

  • 정훈진;정진하;최상방
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제28권11호
    • /
    • pp.549-560
    • /
    • 2001
  • 클러스터 시스템을 계산능력과 메모리 크기에 있어서 바람직한 확장성을 제공한다. 또한 고속의 컴퓨터 네트워크 기술의 발달로 인해 클러스터 시스템은 값비싼 MPPs (Massively Parallel Processors)와 비교하여 경쟁력을 얻고 있다. 부적당한 작업 스케줄링은 시스템의 기능을 충분히 이용할수 없고, 병렬처리 프로그램에서 프로그램 실행 전에 각 태스크의 부하를 예측하기 어려우며, 태스크들은 다양한 형태로 서로 의존적이다. 동적 부하균등 알고리즘에서는 실행시간에 각 프로세서의 부하를 평가한 후, 각 태스크를 적절한 크기로 분할하고 그것들을 각 프로세서의 수행능력에 비례하여 클러스터 시스템에 할당한다. 그러나, 프로세싱 노드간의 통신비용이 높으면, 모든 노드들이 부하분산에 참여하는 것은 효율적이지 못하다. 본 논문에서는 부하분산에 참여하는 프로세서를 통신비용과 평균 부하로부터의 편차를 고려하여 제한하였다. 기존의 부하균등 방식과 제안된 동적 알고리즘을 비교하기 위하여, 통신비용, 노드 수, 그리고 부하의 범위와 같은 파라메터를 사용하여 다양한 모델의 클러스터 시스템에 관한 시뮬레이션을 수행하였다.

  • PDF

Autonomic Self Healing-Based Load Assessment for Load Division in OKKAM Backbone Cluster

  • Chaudhry, Junaid Ahsenali
    • Journal of Information Processing Systems
    • /
    • 제5권2호
    • /
    • pp.69-76
    • /
    • 2009
  • Self healing systems are considered as cognation-enabled sub form of fault tolerance system. But our experiments that we report in this paper show that self healing systems can be used for performance optimization, configuration management, access control management and bunch of other functions. The exponential complexity that results from interaction between autonomic systems and users (software and human users) has hindered the deployment and user of intelligent systems for a while now. We show that if that exceptional complexity is converted into self-growing knowledge (policies in our case), can make up for initial development cost of building an intelligent system. In this paper, we report the application of AHSEN (Autonomic Healing-based Self management Engine) to in OKKAM Project infrastructure backbone cluster that mimics the web service based architecture of u-Zone gateway infrastructure. The 'blind' load division on per-request bases is not optimal for distributed and performance hungry infrastructure such as OKKAM. The approach adopted assesses the active threads on the virtual machine and does resource estimates for active processes. The availability of a certain server is represented through worker modules at load server. Our simulation results on the OKKAM infrastructure show that the self healing significantly improves the performance and clearly demarcates the logical ambiguities in contemporary designs of self healing infrastructures proposed for large scale computing infrastructures.

Intelligent한 메모리 시스템에서의 Fine-Grained SW Offloading을 위한 성능 분석 (Performance Analysis for Fine-Grained SW Offloading in Intelligent Memory System)

  • 허인구;김용주;이진용;이지훈;이종원;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.29-32
    • /
    • 2012
  • 전통적으로 컴퓨터의 성능은 중앙 연산 장치 (CPU)의 성능에 따라 좌지우지 되어 왔다. 하지만 CPU의 성능이 지속적인 발전을 거듭하여 무어의 법칙을 비교적 충실히 따라가고 있는 반면, 메모리의 성능은 근래 들어 더디게 발전되는 형국이다. 때문에, CPU와 메모리 간의 성능격차로 인해 메모리의 낮은 성능이 전체 시스템의 성능을 저하시키는 "Memory Wall Problem"은 점점 큰 문제로 대두되고 있다. 이러한 문제를 해결하기 위해 많은 연구에서 메모리 자체의 성능을 발전시키는 것은 물론 메모리 내부에 연산 처리 능력을 추가하여 시스템 전체의 성능을 향상 시키는 시도들을 해왔다. 이 논문에서는 이러한 Intelligent한 메모리 시스템에서의 SW Off-loading을 위한 성능 분석을 다룬다. 이전의 연구들이 주로 큰 단위의 Off-load를 다뤘던 것에 비해 이 논문에서는 작은 단위의 Off-load, 더 정확히는 어셈블리 수준의 Off-load의 효과에 대해 분석한다. 또한 현재의 어셈블리 수준의 Off-load의 한계를 지적하고 이를 극복하기 위한 루프 레벨 Off-load, 새로운 Technology와 아키텍쳐에 대해서도 소개한다.

듀얼 프로세서 기반 DPI (Deep Packet Inspection) 엔진을 위한 효율적 패킷 프로세싱 방안 구현 및 성능 분석 (Implementation and Performance Analysis of Efficient Packet Processing Method For DPI (Deep Packet Inspection) System using Dual-Processors)

  • 양준호;한승재
    • 정보처리학회논문지C
    • /
    • 제16C권4호
    • /
    • pp.417-422
    • /
    • 2009
  • 특화된 하드웨어의 도움 없이 범용 다중 프로세서 플랫폼에서 DPI(Deep Packet Inspection) 시스템을 구현하는 방법은 비용 측면에서 매력적이다. 문제는 성능인데, 일반적으로 다중 프로세서 시스템에서는 작업들을 여러 프로세서에 적절하게 배분하는 로드밸런싱 방법과 DPI 프로세싱 전용 개별 프로세서를 지정하여 시스템의 성능을 향상 시킨다. 그러나, 우리는 DPI 시스템의 경우 위와 같은 단순한 프로세서 통제 방안이 반드시 최선책이 아니라고 생각한다. 본 논문에서는 작업의 종류에 따라 정해진 프로세서에 할당한 후, 프로세서 상태에 따라 역할을 변경하는 방식을 제안한다. 우리는 제안하는 방식을 리눅스 기반 듀얼 프로세서 시스템에 구현하고 실험을 통해 그 성능을 기존의 로드밸런싱 방식과 비교하였다. 제안된 방식에서는 하나의 프로세서는 인터럽트 처리를 포함한 일반적 패킷 프로세싱 역할만을 담당토록 하고 다른 프로세서는 DPI엔진을 전담하도록 역할로 분리시켜 캐시접근실패 (cache miss) 과 스핀락(spin lock) 발생빈도를 낮추었으며, DPI 전담 프로세서가 처리한계에 이르렀을 경우에는 두 프로세서 모두 DPI를 위해 자원을 사용토록 하여, 기존의 리눅스 로드 밸런싱 방식 DPI 시스템 대비 약 60%의 성능향상을 달성하였다.

Simulation Analysis for Verifying an Implementation Method of Higher-performed Packet Routing

  • Park, Jaewoo;Lim, Seong-Yong;Lee, Kyou-Ho
    • 한국시뮬레이션학회:학술대회논문집
    • /
    • 한국시뮬레이션학회 2001년도 The Seoul International Simulation Conference
    • /
    • pp.440-443
    • /
    • 2001
  • As inter-network traffics grows rapidly, the router systems as a network component becomes to be capable of not only wire-speed packet processing but also plentiful programmability for quality services. A network processor technology is widely used to achieve such capabilities in the high-end router. Although providing two such capabilities, the network processor can't support a deep packet processing at nominal wire-speed. Considering QoS may result in performance degradation of processing packet. In order to achieve foster processing, one chipset of network processor is occasionally not enough. Using more than one urges to consider a problem that is, for instance, an out-of-order delivery of packets. This problem can be serious in some applications such as voice over IP and video services, which assume that packets arrive in order. It is required to develop an effective packet processing mechanism leer using more than one network processors in parallel in one linecard unit of the router system. Simulation analysis is also needed for verifying the mechanism. We propose the packet processing mechanism consisting of more than two NPs in parallel. In this mechanism, we use a load-balancing algorithm that distributes the packet traffic load evenly and keeps the sequence, and then verify the algorithm with simulation analysis. As a simulation tool, we use DEVSim++, which is a DEVS formalism-based hierarchical discrete-event simulation environment developed by KAIST. In this paper, we are going to show not only applicability of the DEVS formalism to hardware modeling and simulation but also predictability of performance of the load balancer when implemented with FPGA.

  • PDF

그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법 (Load Balancing Method for Query Processing Based on Cache Management in the Grid Database)

  • 신숭선;백성하;어상훈;이동욱;김경배;정원일;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제11권7호
    • /
    • pp.914-927
    • /
    • 2008
  • 그리드 컴퓨팅 환경에서 대용량 데이터의 처리와 가용성 향상, 데이터 통합을 위해 그리드 데이터베이스 관리 시스템이 사용된다. 그리드 데이터베이스 관리 시스템은 효율저인 질의처리를 위해 여러 노드로 질의를 분산하여 처리한다. 하지만 질의 처리가 임의의 노드에 집중되어 처리 성능이 감소되고, 작업 부하의 불균형이 발생한다. 본 논문에서는 그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법을 제안한다. 제안 기법에서는 여러 노드에 있는 캐쉬들을 관리하기 위해 캐쉬 관리자를 사용하며, 캐쉬 관리자는 노드를 지역별 그룹으로 연결하고 자신의 그룹 안에 있는 노드의 캐싱된 메타 정보를 관리한다. 노드는 캐쉬 관리자를 통해 질의를 전달 할 최적의 메타 정보를 캐싱한다. 노드에서 캐싱된 메타 정보를 통해 질의를 전달하여 노드의 부하를 분산한다. 제안 기법은 캐쉬 기반으로 부하가 적은 노드에서 질의를 처리하여 노드들의 부하를 분산하여 질의 처리시에 향상된 성능을 보인다.

  • PDF

이형인발공정 하중예측에 관한 연구 (Prediction of Drawing Load in the Shape Drawing Process)

  • 이태규;이찬주;이상곤;김병민
    • 소성∙가공
    • /
    • 제18권4호
    • /
    • pp.323-328
    • /
    • 2009
  • The prediction of drawing load is very important in the drawing process. However, it is not easy to calculate the drawing load for the shape drawing process through a theoretical model because of a complex arbitrary final cross section shape. The purpose of this study is to predict drawing load in shape drawing process. The cross section of product is divided with small angle as much as similar with fan-shape. The drawing load of each section was calculated by theoretical model of round to round drawing process. And the shape drawing load was determined by summation of drawing load of each section. The effectiveness of the proposed method was verified through the FE analysis and shape drawing experiment. It had a good agreement between proposed method, FE analysis and experiment within about 3% errors.

SIMT구조 GP-GPU의 명령어 처리 성능 향상을 위한 Dispatch Unit과 Operand Selection Unit설계 (Design of a Dispatch Unit & Operand Selection Unit for Improving the SIMT Based GP-GPU Instruction Performance)

  • 곽재창
    • 전기전자학회논문지
    • /
    • 제19권3호
    • /
    • pp.455-459
    • /
    • 2015
  • 본 논문은 그래픽 처리 뿐 만 아니라 범용 연산의 가속화를 지원하기 위한 SIMT 구조 GP-GPU의 Dispatch Unit과 Operand Selection Unit을 제안한다. Warp Scheduler로부터 발행된 명령어에서 사용되는 Operand의 모든 정보를 Decoding 하면 불필요한 Operand Load가 발생하여 레지스터 부하가 발생 한다. 이러한 문제점을 해결하기 위해 Pre-decoding방법을 사용하여 Operand의 정보만을 먼저 Decoding 하여 Operand Load를 줄이고, 레지스터의 부하를 줄일 수 있는 방법을 제안한다. 제안하는 Dispatch Unit에서 나온 Operand 정보들을 레지스터 뱅크 충돌을 방지하는 방법을 적용한 Operand Selection Unit에 전달해 전체적인 처리 성능을 향상 시켰다. Modelsim 10.0b를 이용하여 Warp Scheduler로부터 발행된 10,000개의 임의의 명령어를 처리하여 소요되는 총 Clock Cycle을 측정하였다. 본 논문에서 제안한 Pre-Decoding 기능을 탑재한 Dispatch Unit과 Operand Selection Unit을 적용하여 기존의 방법들 보다 각각 약 11%, 24%의 처리 효율이 증가한 것을 확인 할 수 있었다.