• 제목/요약/키워드: Server Workload

검색결과 85건 처리시간 0.026초

가상화 환경에서 부하균형을 위한 가상머신 동적 재배치 (Dynamic Relocation of Virtual Machines for Load Balancing in Virtualization Environment)

  • 사성일;하창수;박찬익
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권12호
    • /
    • pp.568-575
    • /
    • 2008
  • 서버 가상화 기술에 의한 서버 통합은 효율적인 자원 사용에 따른 비용적인 장점이 있다. 그러나 하나의 물리적 장치에 여러 개의 서버가 가상머신으로 함께 동작함으로써 더욱 복잡한 부하특성을 가지게 되었다. 따라서 이를 해결하기 위한 효율적인 자원관리 방법이 요구된다. 이러한 문제에 대한 해결방법으로 제안된 것이 가상머신 이동(live migration)[1,2]을 이용한 가상머신 동적 재배치 기법이다[3,4]. 본 논문은 가상머신 동적 재배치 알고리즘에 있어서 각 자원요소(CPU, network I/O, memory)들의 활용률을 다차원 공간상에서 분석하여 조율함으로써 서버통합의 자원 효율성을 증가시키는 방법(Server consolidation optimizing algorithm)을 제안하고 있다. 실험을 위해서 여러 대의 통합서버와 수많은 서비스를 생성하여야 하는 어려움이 있기 때문에 본 논문에서는 기업환경에서의 서버 가상화 프로젝트 경험을 바탕으로 서버의 부하변화와 유사한 패턴의 모니터링 데이타들을 정의하여 수치적인 시뮬레이션을 통해 sandpiper[3]와 SCOA 알고리즘의 부하 균형에 대한 효율성을 비교하였다.

부하 분산을 위한 지능형 예약 알고리즘 (An Intelligent Reservation Algorithm for Workload Distribution)

  • 이준연
    • 한국정보통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.1142-1148
    • /
    • 2005
  • 본 논문에서는 클라이언트들의 작업부하를 분산하기 위한 측정 알고리즘을 제안하였다. 이 알고리즘은 작업들이 재배치되는 것을 허용할 때, 송신자가 수신자에게 요청한 처리량만큼 적절하게 전송하여야 한다. 이 양은 송신자와 수신자의 협상 과정에서 동적으로 결정된다. 전송하여야 할 작업량을 결정할 때 전송 노드는 수신하는 다른 노드들의 처리 속도를 포함하여 송신 노드와 수신 노드의 현재 부하상태, 재배치하기에 적절한 작업의 처리 요구량 등의 요소들을 고려하여야 한다. 이러한 분석에 근거하여 이기종 분산 웹서버 시스템에 적합한 새로운 알고리즘을 제안하고, 기존 알고리즘과의 성능을 비교하였다. 시뮬레이션을 통하여 본 논문에서 제안한 알고리즘이 CPU 이용율과 응답시간에서 성능의 개선을 보였다.

M/En/1 대기모형에서 얼랑분포의 성질을 이용한 오버슛의 분포에 대한 근사 (Approximation on the Distribution of the Overshoot by the Property of Erlang Distribution in the M/En/1 Queue)

  • 이상기;배종호
    • 응용통계연구
    • /
    • 제28권1호
    • /
    • pp.33-47
    • /
    • 2015
  • 본 논문은 $M/E_n/1$ 대기모형에서 작업부하량과정의 오버슛의 분포함수에 대한 근사식을 제안한다. 오버슛이란 작업부하량과정이 미리 정해진 한계점을 처음으로 초과할 때 초과하는 양을 말하는데 정확한 분포함수는 수학적인 표현으로만 얻어졌을 뿐 분포함수를 실제로 계산하는 것은 거의 불가능하다. 그래서 기존 연구에서는 오버슛에 관한 몇가지 성질을 이용하여 오버슛의 분포함수에 대한 근사식이 구해졌다. 본 논문은 고객의 서비스시간의 분포가 얼랑분포라는 점을 활용하여 기존에 얻어진 근사식보다 더 정확한 근사식을 제안한다. 그리고 제안한 근사식이 얼마나 참값에 가까운지 판단하기 위하여 시뮬레이션을 통하여 얻어진 오버슛의 분포함수와 비교한다.

Performance Impact of Large File Transfer on Web Proxy Caching: A Case Study in a High Bandwidth Campus Network Environment

  • Kim, Hyun-Chul;Lee, Dong-Man;Chon, Kil-Nam;Jang, Beak-Cheol;Kwon, Tae-Kyoung;Choi, Yang-Hee
    • Journal of Communications and Networks
    • /
    • 제12권1호
    • /
    • pp.52-66
    • /
    • 2010
  • Since large objects consume substantial resources, web proxy caching incurs a fundamental trade-off between performance (i.e., hit-ratio and latency) and overhead (i.e., resource usage), in terms of caching and relaying large objects to users. This paper investigates how and to what extent the current dedicated-server based web proxy caching scheme is affected by large file transfers in a high bandwidth campus network environment. We use a series of trace-based performance analyses and profiling of various resource components in our experimental squid proxy cache server. Large file transfers often overwhelm our cache server. This causes a bottleneck in a web network, by saturating the network bandwidth of the cache server. Due to the requests for large objects, response times required for delivery of concurrently requested small objects increase, by a factor as high as a few million, in the worst cases. We argue that this cache bandwidth bottleneck problem is due to the fundamental limitations of the current centralized web proxy caching model that scales poorly when there are a limited amount of dedicated resources. This is a serious threat to the viability of the current web proxy caching model, particularly in a high bandwidth access network, since it leads to sporadic disconnections of the downstream access network from the global web network. We propose a peer-to-peer cooperative web caching scheme to address the cache bandwidth bottleneck problem. We show that it performs the task of caching and delivery of large objects in an efficient and cost-effective manner, without generating significant overheads for participating peers.

웹 프락시 서버의 디스크 I/O 성능 평가 (Performance Evaluation of Disk I/O for Web Proxy Servers)

  • 심종익
    • 정보처리학회논문지C
    • /
    • 제12C권4호
    • /
    • pp.603-608
    • /
    • 2005
  • 웹 프락시 서버에서 디스크 I/O는 병목현상을 일으키는 주요 요소이다. 오늘날 대부분의 웹 프락시 서버는 범용 파일 시스템에서 실행되도록 설계되어 있다. 그러나 범용 파일 시스템은 웹 캐시 워크로드에서 대부분 차지하는 작은 파일들을 효과적으로 처리하지 못하기 때문에 전체 웹 프락시 서버의 성능을 저하시키게 한다. 본 논문에서는 범용 파일 시스템을 사용하지 않는 원시(raw) 디스크 I/O 기법이 웹 프락시 서버의 디스크 I/O 오버헤드 개선에 얼마나 영향을 미치는지 그 성능 잠재력을 평가한다. 이를 위해 웹 프락시 서버를 위한 저장관리 시스템인 BSMS(Block-structured Storage Management System)를 설계하고 Squid 소스에 적용시켜 웹 프락시 서버를 구현하였다. 다양한 실험 평가를 통해 원시 디스크 I/O 기법이 웹 프락시 서버에서 디스크 I/O의 성능을 크게 개선시키는 좋은 방법임을 보였다.

퍼지기법에 기초한 로드분배 방식에 의한 웹서버 성능향상 (A Fuzzy Technique-based Web Server Performance Improvement Using a Load Balancing Mechanism)

  • 박범주;박기진;강명구;김성수
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권3호
    • /
    • pp.111-119
    • /
    • 2008
  • 본 논문에서는 차별화 서비스를 지원하는 웹 서버의 응답시간 성능을 향상시키기 위해 기존의 동적 성능 분리 기법에 퍼지 기법을 접목한다. 특히, 클러스터 기반 웹서버 시스템의 부하량에 대한 판단 기준 흑은 사용자 요청율 및 동적요청 비율 변화시에 발생하는 애매모호한 상황을 효과적으로 반영하기 위해, 퍼지제어 기법에 기초한 로드분배 메커니즘을 제안하였다. 이를 통해, 기존의 퍼지 기법을 활용하지 않은 성능분리 기법과 퍼지기법을 활용한 경우에 대해 응답시간(95-percentile of Response Time) 성능비교 평가를 통해 퍼지기반의 성능분리 기법이 차별화 서비스 시스템의 성능을 더욱 강건하고 효율적으로 향상시킬 수 있다는 점을 검증하였다.

백쉬프팅 기법을 이용한 캐쉬 유지 규약의 분석 (Analysis of a Cache Management Protocol Using a Back-shifting Approach)

  • 조성호
    • 한국콘텐츠학회논문지
    • /
    • 제5권6호
    • /
    • pp.49-56
    • /
    • 2005
  • 클라이언트-서버 컴퓨팅에서 서버의 과부하를 줄이기 위하여 각 클라이언트는 재사용을 위하여 자신만의 캐시를 유지한다. 캐시 유지 규약을 위한 비관적 접근법은 모든 잠금을 획득하기 전까지 완료될 수 없기 때문에 필요 없는 기다림을 만든다. 또한, 낙관적 접근법은 필요 없는 철회를 일으킨다. 본 논문은 이와 같은 단점을 극복할 수 있는 낙관적인 규약을 제안한다 본 논문에서는 잘 알려진 규약들과 제안하는 기법과의 정량적 성능평가를 보여준다. 성능평가는 웹의 성능분포를 나타낼 수 있는 Zipf 작업부하에서 수행되었다. 본 성능평가를 통하여 제안하는 기법이 적은 오버헤드를 가지고 좋은 성능을 나타낸다는 것을 보인다.

  • PDF

빅데이터 환경에서의 B-tree 구조 기반 링크정보 관리서버의 개발 (A Study on the Link Server Development Using B-Tree Structure in the Big Data Environment)

  • 박승범;황종성;이상원
    • 인터넷정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.75-82
    • /
    • 2015
  • 주요 기업들과 포털들은 사용자들에게 웹 기반 환경에서 보다 효율적인 콘텐츠 이용을 지원하기 위해 이른바 콘텐츠관리시스템(CMS, Contents Management Systems)과 콘텐츠의 데이터베이스 내 물리적 주소를 연결하여 관리하는 링크 서버를 적극적으로 도입하고 있다. 이를 통해 웹브라우저 화면에서 보여지는 콘텐츠의 URL과 실제 데이터베이스 안의 콘텐츠의 물리적 주소를 자동으로 연결해 주고, URL이나 데이터베이스의 물리적 주소의 변경시 두 주소를 재 연결하는 역할을 수행한다. 최근 빅데이터 환경의 도래에 따라 디지털 콘텐츠와 사용자 접속수가 폭발적으로 증가하고 있는 상황에서 CMS와 링크 서버에서 수행해야 하는 유효 링크 검사 횟수도 따라서 증가하고 있다. Peta-Byte 또는 Eta-Byte 환경 하에서 수행되는 유효 링크 검사를 기존 URL 기반의 순차적 방식으로 수행할 경우 속도저하에 따른 데이터 링크 식별률(identification rate)의 저하와 빈번한 링크 검사에 따른 데이터베이스에 부하를 주는 요인으로 작용될 수 있다. 따라서, 본 연구는 상기와 같은 종래의 문제점을 해결하기 위해 대량의 URL에 대해 B-Tree 기반의 정보식별자의 구간별 개수 분석을 기반으로 URL 삭제 링크 및 추가 링크를 인식하고 효과적으로 관리하는 것이 가능하도록 해주는 링크 서버를 제공하는 데 있다. 본 연구를 통해 기존 방식보다 빠르고 낮은 부하를 주는 데드 링크 체크 처리가 가능해 질 것이다.

인터넷 환경에서의 상용 연속미디어 서버의 부하 분석 (Analysis of Commercial Continuous Media Server Workloads on Internet)

  • 김기완;이승원;박성호;정기동
    • 정보처리학회논문지B
    • /
    • 제10B권1호
    • /
    • pp.87-94
    • /
    • 2003
  • 사용자의 접근 형태에 따른 서버 부하의 특성에 관한 연구는 연속미디어 캐슁 정책과 서버 및 네트워크의 부하 분산 정책에 대한 통찰력을 제공한다 본 논문에서는 현재 인터넷을 통해 연속미디어 파일을 실시간 스트림 형식으로 제공하는 세개의 상용 사이트의 로그데이터론 이용하여, 각각의 서버가 보유한 연속미디어 파일의 특성과 각 연속미디어 파일에 대한 사용자 접근 요구의 특성을 분석하였다. 이들 서버는 이전에 발표되어진 연구의 서버보다 많은 연속미디어 파일을 보유하고 있으며, 매우 많은 사용자 접근 요구를 처리하고 있다. 각 서버가 보유한 연손 미디어 파일의 특성은 파일의 크기, 재생 시간, 인코딩 대여폭 등을 농해 분석하였으며, 사용자 접근 요구의 특성은 연속미디어 파일에 대한 사용자 요구 분포, 사용자의 접근 시간 분포, 파일의 인기도에 따른 접근율 분포, 시리즈 연속미디어 파일에 접근 요구수 분포 등을 통해 분석하였다.

트랜스코딩 작업의 분배를 활용한 저전력 트랜스코딩 서버 설계 및 구현 (Design and Implementation of Low-Power Transcoding Servers Based on Transcoding Task Distribution)

  • 이다영;송민석
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제15권4호
    • /
    • pp.18-29
    • /
    • 2019
  • 동적 적응 스트리밍 서버는 일시에 많은 양의 트랜스코딩 연산을 처리하기 때문에 높은 프로세서 전력을 소모한다. 많은 연산량을 위하여 다중 프로세서 구조가 필요하고, 이에 대한 효과적인 트랜스코딩 태스크 분배가 필요하다. 본 논문에서는 2 티어 (프론트엔드 노드 (frontend node)와 백엔드 노드 (backend node)) 트랜스코딩 서버의 전력 상한을 보장하고 스트리밍 되는 비디오의 인기도 및 품질을 고려한 트랜스코딩 서버의 설계 및 구현 방법을 제안한다. 이를 위하여 1) 각 백엔드 노드에 트랜스코딩 태스크 분배, 2) 백엔드 노드에서의 태스크 스케줄링, 3) 프론트엔드와 백엔드 노드 통신 기법들을 구현하고, 테스트베드를 구축하였다. 실제 테스트베드에서의 예상 소모 전력과 실제 소모 전력을 비교하는 실험을 진행함으로써 본 시스템의 효용성을 확인했다. 또한 본 시스템이 각 노드의 부하를 감소시킴으로써 트랜스코딩에 사용되는 전력 및 시간 최적화가 가능함을 보였다.