• 제목/요약/키워드: Distribute Computing

검색결과 88건 처리시간 0.02초

그리드 컴퓨팅의 다중 큐 하이브리드 작업스케줄링 기법 (Multi-queue Hybrid Job Scheduling Mechanism in Grid Computing)

  • 강창훈;최창열;박기진;김성수
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제34권7호
    • /
    • pp.304-318
    • /
    • 2007
  • 그리드(Grid) 컴퓨팅은 지리적으로 분산된 컴퓨팅 자원들을 네트워크로 연동시켜 서로 공유 될 수 있도록 해주는 서비스이다. 본 논문에서는 그리드 컴퓨팅 시스템을 구성하는 전체 노드를 대상으로 작업을 분배하는 메타 스케줄링 정책과 특정 한 개의 노드 내에서 작업을 분배하는 작업 스케줄링을 동시에 고려하는 하이브리드 스케줄링 기법을 제안한다. 그리드 컴퓨팅 노드로 제출된 작업을 필요 프로세서 수와 예상 작업수행 시간에 따라 구분하여 우선순위가 높은 작업은 작업 큐(Job Queue)로, 우선순위가 낮은 작업과 원거리 작업은 백필 큐(Backfill Queue)로 할당시킴으로써, 그리드 컴퓨팅 시스템의 성능을 높이는 방법을 연구한다. 다양한 실험을 통하여 제안된 기법들의 성능을 평가하며, 그리드 컴퓨팅 시스템의 이용률이 높아지고, 작업 지연시간이 감소됨을 확인한다.

유비쿼터스 환경의 인증 및 권한 메커니즘 동향을 통한 분산 인증기법 방안 연구 (A Study on the Distribute Authentication Method Scheme through Authentication and Right Mechanism Trend of the Ubiquitous Environment)

  • 오동열;성경상;김배현;오해석
    • 융합보안논문지
    • /
    • 제8권1호
    • /
    • pp.35-42
    • /
    • 2008
  • 사용자가 접하는 정보 시스템과 어플리케이션에 대한 관리가 중요한 문제로 대두되면서 시스템 접근과 관리를 위한 방법론이 제기되고 있다. 여러 가지 형태의 인증 기술이 사용되고 있지만, 복잡한 인증 관리 및 운용에 따른 비효율성은 유 무선 환경의 다양하고 새로운 비즈니스의 성공적인 전개를 위해서는 부적절하다. 또한 서로 다른 인증 방식을 사용하는 모바일 컴퓨팅 환경 하에서 유연하고 연속적인 서비스를 기대하기란 매우 어렵다. 유비쿼터스 컴퓨팅 환경하에서는 상호운용성 및 보안성이 지원되는 분산 인증 방안을 연구 개발하는 것은 매우 중요한 사안이다. 이에 따라 본 논문에서는 유선(fixed) 컴퓨팅 환경에서뿐만 아니라 이동(mobile) 컴퓨팅 환경까지 고려한 유비쿼터스 컴퓨팅 환경으로 확장 가능한 분산 인증의 관리 및 운용 방안에 대한 요구사항과 권한 메커니즘에 대해 살펴봄으로써, 향후 진정한 유비쿼터스 환경에서의 분산형 인증기법에 관한 적극적인 참여를 유도할 수 있을 것으로 기대한다.

  • PDF

동시발생 행렬과 하둡 분산처리를 이용한 추천시스템에 관한 연구 (A Study On Recommend System Using Co-occurrence Matrix and Hadoop Distribution Processing)

  • 김창복;정재필
    • 한국항행학회논문지
    • /
    • 제18권5호
    • /
    • pp.468-475
    • /
    • 2014
  • 추천시스템은 선호 데이터가 대형화, 컴퓨터 처리능력과 추천 알고리즘 등에 의해 실시간 추천이 어려워지고 있다. 이에 따라 추천시스템은 대형 선호데이터를 분산처리 하는 방법에 대한 연구가 활발히 진행되고 있다. 본 논문은 하둡 분산처리 플랫폼과 머하웃 기계학습 라이브러리를 이용하여, 선호데이터를 분산 처리하는 방법을 연구하였다. 추천 알고리즘은 아이템 협업필터링과 유사한 동시발생 행렬을 이용하였다. 동시발생 행렬은 하둡 클러스터의 여러 노드에서 분산처리를 할 수 있으며, 기본적으로 많은 계산량이 필요하지만, 분산처리과정에서 계산량을 줄일 수 있다. 또한, 본 논문은 동시발생 행렬처리의 분산 처리과정을 4 단계에서 3 단계로 단순화하였다. 결과로서, 맵리듀스 잡을 감소할 수 있으며, 동일한 추천 파일을 생성할 수 있었다. 또한, 하둡 의사 분산모드를 이용하여 데이터를 처리하였을 때 빠른 처리속도를 보였으며, 맵 출력 데이터가 감소되었다.

IBM Aglets를 기반으로 하는 가상 병렬 컴퓨팅 시스템에서 작업 할당 기법과 성능 비교 (Work Allocation Methods and Performance Comparisons on the Virtual Parallel Computing System based on the IBM Aglets)

  • 김경하;김영학;오길호
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제8권4호
    • /
    • pp.411-422
    • /
    • 2002
  • 최근에 다중 에이전트를 기반으로 하는 가상 병렬 컴퓨팅 시스템에 관한 적극적인 연구가 이루어지고 있다. 가상 병렬 컴퓨팅 시스템은 많은 계산을 요구하는 복잡한 문제들을 해결하기 위해 고비용수퍼 컴퓨터를 사용하는 대신에, 인터넷상에 산재되어 있는 개인용 컴퓨터 혹은 워크스테이션을 사용한다. 가상 병렬 컴퓨팅 시스템은 인터넷상에 이용 가능한 자원에 의존하여 동질 혹은 이질형의 컴퓨터들로 구성될 수 있다. 본 논문에서는 IBM Aglets를 기반으로 하는 가상 병렬 컴퓨팅 환경에서 작업자 에이전트와 작업 패키지를 효율적으로 분산하는 새로운 방법을 제안한다. 기존의 방법들은 작업자 에이전트와 작업 패키지를 분산하기 위해서 주로 마스터/슬레이브 유형을 사용한다. 그러나 이러한 방법에서 에이전트의 수가 증가하게되면 중앙 마스터에서 작업부하가 급속하게 증가된다. 이러한 문제에 대한 해결로서 본 논문에서는 작업자 에이전트와 작업 패키지의 분산을 작업자 에이전트에게 위임하는 방법을 사용한다. 제안된 방법은 가상 병렬 컴퓨팅 시스템에서 다양한 방식으로 평가되었으며, 그 결과는 기존의 방법에 비해서 괄목할 만한 수준으로 개선되었다.

Applying Workload Shaping Toward Green Cloud Computing

  • Kim, Woongsup
    • International journal of advanced smart convergence
    • /
    • 제1권2호
    • /
    • pp.12-15
    • /
    • 2012
  • Energy costs for operating and cooling computing resources in Cloud infrastructure have increased significantly up to the point where they would surpass the hardware purchasing costs. Thus, reducing the energy consumption can save a significant amount of management cost. One of major approach is removing hardware over-provisioning. In this paper, we propose a technique that facilitates power saving through reducing resource over provisioning based on virtualization technology. To this end, we use dynamic workload shaping to reschedule and redistribute job requests considering overall power consumption. In this paper, we present our approach to shape workloads dynamically and distribute them on virtual machines and physical machines through virtualization technology. We generated synthetic workload data and evaluated it in simulating and real implementation. Our simulated results demonstrate our approach outperforms to when not using no workload shaping methodology.

Honey Bee Based Load Balancing in Cloud Computing

  • Hashem, Walaa;Nashaat, Heba;Rizk, Rawya
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권12호
    • /
    • pp.5694-5711
    • /
    • 2017
  • The technology of cloud computing is growing very quickly, thus it is required to manage the process of resource allocation. In this paper, load balancing algorithm based on honey bee behavior (LBA_HB) is proposed. Its main goal is distribute workload of multiple network links in the way that avoid underutilization and over utilization of the resources. This can be achieved by allocating the incoming task to a virtual machine (VM) which meets two conditions; number of tasks currently processing by this VM is less than number of tasks currently processing by other VMs and the deviation of this VM processing time from average processing time of all VMs is less than a threshold value. The proposed algorithm is compared with different scheduling algorithms; honey bee, ant colony, modified throttled and round robin algorithms. The results of experiments show the efficiency of the proposed algorithm in terms of execution time, response time, makespan, standard deviation of load, and degree of imbalance.

클라우드 컴퓨팅기반 CAE서비스 플랫폼 개발 (Development of CAE Service Platform Based on Cloud Computing Concept)

  • 조상현
    • 한국주조공학회지
    • /
    • 제31권4호
    • /
    • pp.218-223
    • /
    • 2011
  • Computer Aided Engineering (CAE) is very helpful field for every manufacturing industry including foundry. It covers CAD, CAM, and simulation technology also, and becomes as common sense in developing new products and processes. In South Korea, more than 600 foundries exist, and their average employee number is less than 40. Moreover, average age of them becomes higher. To break out these situations of foundry, software tools can be effective, and many commercial software tools had already been introduced. But their high costs and risks of investment act as difficulties in introducing the software tools to SMEs (Small and Medium size Enterprise). So we had developed cloud computing platform to propagate the CAE technologies to foundries. It includes HPC (High Performance Computing), platforms and software. So that users can try, enjoy, and utilize CAE software at cyber space without any investment. In addition, we also developed platform APIs (Application Programming Interface) to import not only our own CAE codes but also 3rd-party's packages to our cloud-computing platforms. As a result, CAE developers can upload their products on cloud platforms and distribute them through internet.

New GPU computing algorithm for wind load uncertainty analysis on high-rise systems

  • Wei, Cui;Luca, Caracoglia
    • Wind and Structures
    • /
    • 제21권5호
    • /
    • pp.461-487
    • /
    • 2015
  • In recent years, the Graphics Processing Unit (GPU) has become a competitive computing technology in comparison with the standard Central Processing Unit (CPU) technology due to reduced unit cost, energy and computing time. This paper describes the derivation and implementation of GPU-based algorithms for the analysis of wind loading uncertainty on high-rise systems, in line with the research field of probability-based wind engineering. The study begins by presenting an application of the GPU technology to basic linear algebra problems to demonstrate advantages and limitations. Subsequently, Monte-Carlo integration and synthetic generation of wind turbulence are examined. Finally, the GPU architecture is used for the dynamic analysis of three high-rise structural systems under uncertain wind loads. In the first example the fragility analysis of a single degree-of-freedom structure is illustrated. Since fragility analysis employs sampling-based Monte Carlo simulation, it is feasible to distribute the evaluation of different random parameters among different GPU threads and to compute the results in parallel. In the second case the fragility analysis is carried out on a continuum structure, i.e., a tall building, in which double integration is required to evaluate the generalized turbulent wind load and the dynamic response in the frequency domain. The third example examines the computation of the generalized coupled wind load and response on a tall building in both along-wind and cross-wind directions. It is concluded that the GPU can perform computational tasks on average 10 times faster than the CPU.

Toward Energy-Efficient Task Offloading Schemes in Fog Computing: A Survey

  • Alasmari, Moteb K.;Alwakeel, Sami S.;Alohali, Yousef
    • International Journal of Computer Science & Network Security
    • /
    • 제22권3호
    • /
    • pp.163-172
    • /
    • 2022
  • The interconnection of an enormous number of devices into the Internet at a massive scale is a consequence of the Internet of Things (IoT). As a result, tasks offloading from these IoT devices to remote cloud data centers become expensive and inefficient as their number and amount of its emitted data increase exponentially. It is also a challenge to optimize IoT device energy consumption while meeting its application time deadline and data delivery constraints. Consequently, Fog Computing was proposed to support efficient IoT tasks processing as it has a feature of lower service delay, being adjacent to IoT nodes. However, cloud task offloading is still performed frequently as Fog computing has less resources compared to remote cloud. Thus, optimized schemes are required to correctly characterize and distribute IoT devices tasks offloading in a hybrid IoT, Fog, and cloud paradigm. In this paper, we present a detailed survey and classification of of recently published research articles that address the energy efficiency of task offloading schemes in IoT-Fog-Cloud paradigm. Moreover, we also developed a taxonomy for the classification of these schemes and provided a comparative study of different schemes: by identifying achieved advantage and disadvantage of each scheme, as well its related drawbacks and limitations. Moreover, we also state open research issues in the development of energy efficient, scalable, optimized task offloading schemes for Fog computing.

Requirements for Future Digital Radiology System

  • Kim, Y.M.;Park, H.W.;Haynor, D.R.
    • 한국의학물리학회지:의학물리
    • /
    • 제2권1호
    • /
    • pp.3-16
    • /
    • 1991
  • Abstract. An area of particularly rapid technological growth in the last 15 years has been medical imaging (conventional X-ray, ultrasound, X-ray computed tomography (CT), magnetic resonance imaging (MRI). As the number and complexity of imaging studies rises, it becomes ever more important to distribute these images and the associated diagnoses in a timely and cost-effective fashion. The purpose of this paper is to describe the requirements for a future digital radiology system which will efficiently handle the large volume of images that generated, add new functionality to improve productivity of physicians, technologists, and other health care providers, and provide enough flexibility to allow the system to grow as medical image technology grows.

  • PDF