• 제목/요약/키워드: auto provisioning

검색결과 7건 처리시간 0.023초

SOHO 환경을 위한 효율적인 VoIP 단말 관리 기법 설계 및 구현 (Design and Implementation of an Efficient Management Scheme for VoIP Terminals in SOHO Environments)

  • 진상우;경계현;고광선;엄영익
    • 정보처리학회논문지C
    • /
    • 제15C권2호
    • /
    • pp.103-110
    • /
    • 2008
  • 인터넷 전화는 VoIP를 이용하는 전화 방식으로서 VoIP 단말이 인터넷에 연결되어 있다면 저렴한 요금과 다양한 부가서비스가 가능한 방식이다. 하지만 인터넷 전화를 관리하기 위한 시스템들은 대규모의 VoIP 서비스 사업자들이나 대기업에서의 사용을 목적으로 하여 개발되어 오면서 설치 및 관리의 편의성 부분이 결여되어 있으며, 이러한 문제점들은 VoIP 단말 설치를 어렵게 하여 인터넷 전화 보급에 장애가 되어 왔다. 본 논문에서는 이러한 문제를 해결하고자 VoIP 단말들의 설정 관리를 목적으로 하는 자동 프로비저닝 시스템을 설계하고 구현한다. 이 시스템은 SOHO 환경과 같이 소규모 VoIP 환경에서 VoIP 단말들을 쉽게 설치하고 관리할 수 있도록 지원한다.

Auto Regulated Data Provisioning Scheme with Adaptive Buffer Resilience Control on Federated Clouds

  • Kim, Byungsang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권11호
    • /
    • pp.5271-5289
    • /
    • 2016
  • On large-scale data analysis platforms deployed on cloud infrastructures over the Internet, the instability of the data transfer time and the dynamics of the processing rate require a more sophisticated data distribution scheme which maximizes parallel efficiency by achieving the balanced load among participated computing elements and by eliminating the idle time of each computing element. In particular, under the constraints that have the real-time and limited data buffer (in-memory storage) are given, it needs more controllable mechanism to prevent both the overflow and the underflow of the finite buffer. In this paper, we propose an auto regulated data provisioning model based on receiver-driven data pull model. On this model, we provide a synchronized data replenishment mechanism that implicitly avoids the data buffer overflow as well as explicitly regulates the data buffer underflow by adequately adjusting the buffer resilience. To estimate the optimal size of buffer resilience, we exploits an adaptive buffer resilience control scheme that minimizes both data buffer space and idle time of the processing elements based on directly measured sample path analysis. The simulation results show that the proposed scheme provides allowable approximation compared to the numerical results. Also, it is suitably efficient to apply for such a dynamic environment that cannot postulate the stochastic characteristic for the data transfer time, the data processing rate, or even an environment where the fluctuation of the both is presented.

LG 데이콤의 TPS 서비스를 위한 자동 프로비저닝에 대한 연구 (A Study on the Auto-Provisioning for the the TPS service of LGDACOM)

  • 박명환;송한춘;김희동
    • 한국정보통신설비학회:학술대회논문집
    • /
    • 한국정보통신설비학회 2007년도 학술대회
    • /
    • pp.132-135
    • /
    • 2007
  • 논문은 LG 데이콤의 TPS 서비스에서 사용되는 여러 단말의 초기 설치의 편의성을 최대한 보장하기 위한 자동 프로비저닝 시스템에 대한 연구이다. 이를 위해서 요구되는 단말기의 식별자와 암호화를 처리하기 위한 자동 프로비저닝 시스템의 수행 절차를 제안한다. 기본 구성은 홈게이트웨이를 이용한 홈네트워크를 구성하고 있다. 이를 기반으로 하여 IPTV 셋탑, WiFI 폰, PC 를 동시에 사용하기 위해서는 자동 프로비저닝 시스템에서 여러 단말기로 네트워크 접속에 필요한 정보(접속할 시스템의 주소(IP), 포트 및 환경 파일)를 전송하거나, 단말기가 직접 다운받을 수 있도록 한다. 이를 제공하는 시스템을 TPS 자동 프로비저닝 시스템이라 명하며, 이는 가입자의 개입없이 홈네트워크 환경과 멀티미어어 서비스 환경을 자동으로 설치함으로써 사용자의 편이성을 극대화하게 된다. 본 논문은 TPS 서비스와 디지털 홈 서비스의 근간이 되는 프로비저닝 플랫폼의 기술적 가능성을 검증함으로써 향후 관련 단말기 개발 및 개방형 서비스를 제공하기 위한 기초자료로 활용되고자 한다.

  • PDF

차세대 이동통신 패킷 수송망에서 서비스 품질을 고려한 효율적인 대역폭 재할당 기법 (An Efficient QoS-Aware Bandwidth Re-Provisioning Scheme in a Next Generation Wireless Packet Transport Network)

  • 박재성
    • 한국통신학회논문지
    • /
    • 제31권1A호
    • /
    • pp.30-37
    • /
    • 2006
  • 본 논문에서는 차세대 이동통신 수송망에서 트래픽 클래스별 서비스 품질 요구 사항을 고려한 효율적인 대역폭 재할당 기법을 제안한다. 제안 기법은 유선망 트래픽 클래스를 실시간 클래스와 비시실시간 클래스로 구분하여 무선망 계층에서 정의된 서비스 품질 클래스를 유선망 트래픽 클래스로 매핑시킨 후 실시간 트래픽 클래스가 비실시간 트래픽 클래스의 유휴 자원을 동적으로 사용하도록 한다. 제안 기법은 운영자가 지정한 패킷 손실율과 Auto-Regressive(AR) 시계열 모델을 이용하여 주기적으로 비실시간 트래픽 클래스의 향후 필요 대역폭을 예측하며 유휴 대역폭이 발생하는 경우에만 이를 실시간 트래픽 클래스에 동적으로 할당함으로써 비실시간 트래픽 클래스의 패킷 손실율을 보장함과 동시에 시스템의 대역폭 이용율을 향상시킨다. 본 논문에서는 실제 측정된 인터넷 트래픽을 비실시간 트래픽 클래스로 이용하여 제안 기법은 링크 대역폭의 효율을 증가시켜 실시간 트래픽의 수용량을 증가시킴과 동시에 모든 시 구간에서 비실시간 트래픽 클래스에 원하는 패킷 손실율을 보장할 수 있음을 검증하였다.

Lustre 병렬파일시스템 오토 프로비저닝을 위한 Ambari 서비스 설계에 관한 연구 (A Study on the Design of Ambari Service for Lustre Parallel File System Auto Provisioning)

  • 곽재혁;김상완;변은규;남덕윤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.45-47
    • /
    • 2017
  • 하둡은 대표적인 빅데이터 처리 프레임워크로 널리 사용되고 있지만 하둡 어플리케이션은 고성능컴퓨팅 환경에서 하둡 분산파일시스템이 아닌 러스터 병렬 파일시스템 위에서도 수행될 수 있다. 그러나 이를 위해서 추가적으로 러스터 병렬파일시스템을 구축하고 관리하는 것은 시간 소모적인 업무가 될 수 있다. 본 연구는 러스터 병렬파일시스템의 오토 프로비저닝을 위한 암바리 서비스의 설계 방안에 대해서 제안한다. 암바리는 하둡 클러스터의 프로비저닝, 관리, 모니터링을 위한 운영 관리 프레임워크이며 운영자의 필요에 따라서 확장할 수 있는 서비스 프레임워크를 제공한다. 본 연구에서는 암바리를 통해서 러스터 병렬파일시스템을 오토 프로비저닝하고 관리하기 위한 확장 서비스를 설계하였으며 서비스를 위한 컴포넌트와 각 컴포넌트별 중요한 기능 사항에 대해서 논하였다.

ISOC 서비스 포털 자동 프로비저닝 기능 구현 (Implementation of Auto-provisioning for ISOC Service Portal)

  • 한성근;김중백;신영호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.1625-1627
    • /
    • 2015
  • 클라우드 컴퓨팅의 가상화된 인프라 기반 위에서 IT 자원 및 애플리케이션 서비스를 관리하고 배포하는 작업이 클라우드 프로비저닝이다. 본 논문에서는 IT 자원을 할당함에 있어 전문적인 지식을 가진 관리자의 개입을 최소화하기 위해 일련의 자원 할당 작업을 자동화하였다. 자동화된 자원 프로비저닝을 통해 관리자는 특정 전문 지식 없이도 자원 할당 및 배포가 가능해져 이용자의 요구를 보다 신속하게 처리할 수 있게 되었다.

An Efficient VM-Level Scaling Scheme in an IaaS Cloud Computing System: A Queueing Theory Approach

  • Lee, Doo Ho
    • International Journal of Contents
    • /
    • 제13권2호
    • /
    • pp.29-34
    • /
    • 2017
  • Cloud computing is becoming an effective and efficient way of computing resources and computing service integration. Through centralized management of resources and services, cloud computing delivers hosted services over the internet, such that access to shared hardware, software, applications, information, and all resources is elastically provided to the consumer on-demand. The main enabling technology for cloud computing is virtualization. Virtualization software creates a temporarily simulated or extended version of computing and network resources. The objectives of virtualization are as follows: first, to fully utilize the shared resources by applying partitioning and time-sharing; second, to centralize resource management; third, to enhance cloud data center agility and provide the required scalability and elasticity for on-demand capabilities; fourth, to improve testing and running software diagnostics on different operating platforms; and fifth, to improve the portability of applications and workload migration capabilities. One of the key features of cloud computing is elasticity. It enables users to create and remove virtual computing resources dynamically according to the changing demand, but it is not easy to make a decision regarding the right amount of resources. Indeed, proper provisioning of the resources to applications is an important issue in IaaS cloud computing. Most web applications encounter large and fluctuating task requests. In predictable situations, the resources can be provisioned in advance through capacity planning techniques. But in case of unplanned and spike requests, it would be desirable to automatically scale the resources, called auto-scaling, which adjusts the resources allocated to applications based on its need at any given time. This would free the user from the burden of deciding how many resources are necessary each time. In this work, we propose an analytical and efficient VM-level scaling scheme by modeling each VM in a data center as an M/M/1 processor sharing queue. Our proposed VM-level scaling scheme is validated via a numerical experiment.