• 제목/요약/키워드: Task Offloading

검색결과 45건 처리시간 0.029초

기회적 포그 컴퓨팅 환경을 고려한 IoT 테스크의 지연된 오프로딩 제공 방안 (Delayed offloading scheme for IoT tasks considering opportunistic fog computing environment)

  • 경연웅
    • 사물인터넷융복합논문지
    • /
    • 제6권4호
    • /
    • pp.89-92
    • /
    • 2020
  • 다양한 IoT(Internet of Things) 서비스들이 등장하면서 IoT 기기의 테스크를 오프로딩 시키는 연구가 진행되었다. 기존에는 클라우드 컴퓨팅을 통한 오프로딩이 고려되었지만 서비스 응답 지연 및 코어 네트워크의 부하 등의 이슈로 인해 IoT 기기 근처에서 오프로딩을 지원하는 포그 컴퓨팅 개념이 도입되었다. 하지만 포그 컴퓨팅 환경에서도 서비스 대상 IoT 기기가 증가하게 되면 클라우드 환경과 마찬가지로 부하 집중 문제로 인해 서비스 응답 지연이 발생할 수 있다. 이를 해결하기 위하여 자동차, 드론 등 IoT 기기 근처에 존재하는 컴퓨팅 가능 노드들을 통해 오프로딩을 수행하는 개념인 기회적 포그 컴퓨팅이 등장하였다. 기존의 포그 및 기회적 포그 컴퓨팅 노드들을 활용한 오프로딩 연구들은 서비스의 요청이 있을 때 가용한 노드를 통해 오프로딩을 수행한다. 기존의 연구 방법대로 오프로딩을 수행한다면 기회적 포그 컴퓨팅 노드가 가용할 때에 발생된 요청들만 해당 노드들로 오프로딩이 가능하다. 하지만 서비스의 응답 지연 요구사항만 만족시킨다면 즉시적으로 요청을 처리할 필요가 없고 최대한 많은 테스크를 기회적 포그 컴퓨팅 노드로 오프로딩 시키는 것이 부하 분산에 용이하다. 그러므로 본 논문에서는 오프로딩 타이머를 기반으로 서비스 응답 지연 요구사항을 만족시키면서 최대한 기회적 포그 컴퓨팅 노드들을 통해 오프로딩 시킬 수 있는 지연된 오프로딩 방법을 제안하고자 한다.

FEC 환경에서 다중 분기구조의 부분 오프로딩 시스템 (Partial Offloading System of Multi-branch Structures in Fog/Edge Computing Environment)

  • 이연식;띵 웨이;남광우;장민석
    • 한국정보통신학회논문지
    • /
    • 제26권10호
    • /
    • pp.1551-1558
    • /
    • 2022
  • 본 논문에서는 FEC (Fog/Edge Computing) 환경에서 다중 분기구조의 부분 오프로딩을 위해 모바일 장치와 에지서버로 구성된 2계층 협력 컴퓨팅 시스템을 제안한다. 제안 시스템은 다중 분기구조에 대한 재구성 선형화 기법을 적용하여 응용 서비스 처리를 분할하는 알고리즘과 모바일 장치와 에지 서버 간의 부분 오프로딩을 통한 최적의 협업 알고리즘을 포함한다. 또한 계산 오프로딩 및 CNN 계층 스케줄링을 지연시간 최소화 문제로 공식화하고 시뮬레이션을 통해 제안 시스템의 효과를 분석한다. 실험 결과 제안 알고리즘은 DAG 및 체인 토폴로지 모두에 적합하고 다양한 네트워크 조건에 잘 적응할 수 있으며, 로컬이나 에지 전용 실행과 비교하여 효율적인 작업 처리 전략 및 처리시간을 제공한다. 또한 제안 시스템은 모바일 장치에서의 응용 서비스 최적 실행을 위한 모델의 경량화 및 에지 리소스 워크로드의 효율적 분배 관련 연구에 적용 가능하다.

모바일 엣지 컴퓨팅 환경에서 작업 오프로딩을 통한 에너지 효율성 증대 (Increased Energy Efficiency through Task Offloading in Mobile Edge Computing)

  • 이태호;김민우;이병준;김경태;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.107-108
    • /
    • 2019
  • 모바일 엣지 컴퓨팅(Mobile Edge Computing, MEC)은 높은 컴퓨팅 성능을 요구하는 작업을 모바일 장치에서 가까운 MEC 서버로 오프로딩함으로써 모바일 서비스에 높은 계산 요구량을 효율적으로 제공할 수 있는 기술로 부상하였다. 본 논문에서는 실행 대기 시간과 장치 에너지 소비를 줄이기 위해 여러 가지의 독립적 작업을 통해 MEC 시스템에 대한 작업 오프로드 일정 및 전송 에너지 할당을 최적화하는 기법을 제안한다. 시뮬레이션 결과로 MEC 시스템에서 사용 가능한 무선 및 계산 리소스가 상대적으로 균형 잡혀있는 경우 작업 오프로딩 일정이 더 중요하다는 것을 확인했다.

  • PDF

Joint Optimization for Residual Energy Maximization in Wireless Powered Mobile-Edge Computing Systems

  • Liu, Peng;Xu, Gaochao;Yang, Kun;Wang, Kezhi;Li, Yang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.5614-5633
    • /
    • 2018
  • Mobile Edge Computing (MEC) and Wireless Power Transfer (WPT) are both recognized as promising techniques, one is for solving the resource insufficient of mobile devices and the other is for powering the mobile device. Naturally, by integrating the two techniques, task will be capable of being executed by the harvested energy which makes it possible that less intrinsic energy consumption for task execution. However, this innovative integration is facing several challenges inevitably. In this paper, we aim at prolonging the battery life of mobile device for which we need to maximize the harvested energy and minimize the consumed energy simultaneously, which is formulated as residual energy maximization (REM) problem where the offloading ratio, energy harvesting time, CPU frequency and transmission power of mobile device are all considered as key factors. To this end, we jointly optimize the offloading ratio, energy harvesting time, CPU frequency and transmission power of mobile device to solve the REM problem. Furthermore, we propose an efficient convex optimization and sequential unconstrained minimization technique based combining method to solve the formulated multi-constrained nonlinear optimization problem. The result shows that our joint optimization outperforms the single optimization on REM problem. Besides, the proposed algorithm is more efficiency.

모바일 클라우드 컴퓨팅에서 데이터센터 클러스터링과 가상기계 이주를 이용한 동적 태스크 분배방법 (A Dynamic Task Distribution approach using Clustering of Data Centers and Virtual Machine Migration in Mobile Cloud Computing)

  • 존크리스토퍼 마테오;이재완
    • 인터넷정보학회논문지
    • /
    • 제17권6호
    • /
    • pp.103-111
    • /
    • 2016
  • 모바일 기기로부터 클라우드 서버로 태스크를 오프로딩하는 방법은 클라우드랫(cloudlet)의 도입으로 인해 향상되었다. 동적 오프로딩 알고리즘을 통해 모바일 장비는 수행할 타스크에 적절한 서버를 선택할 수 있다. 하지만 현재의 태스크 분배 방식은 의사결정에서 중요한 VM의 수를 고려하지 않고 있다. 본 논문은 클러스터된 데이터 센터에서 동적인 타스크 분배 방법을 제시한다. 또한 서버에서 자원의 과부하를 방지하기 위해 할당된 CPU에 따라 VM을 균형있게 클라우드 서버에 이주시키는 VM이주 기법을 제안한다. 클라우드 서버의 이주 방법을 향상시키기 위해 최대 CPU 관점에서 데이터 센터의 자원 용량도 고려한다. 시뮬레이션 결과, 제시한 태스크 분배 기법이 전반적으로 시스템의 성능을 향상시켰음을 나타내었다.

산업용 IoT 환경에서 MEC 기반의 에너지 효율적인 오프로딩 결정 알고리즘 (Energy-Efficient MEC Offloading Decision Algorithm in Industrial IoT Environments)

  • 구설원;임유진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제10권11호
    • /
    • pp.291-296
    • /
    • 2021
  • 사물인터넷의 발전으로 인하여 수많은 디바이스가 생겨나고, 큰 계산 자원을 요구하는 태스크들이 많이 발생된다. 이런 사물인터넷 환경에서 Mobile Edge Computing(MEC)는 지리적으로 사용자와 근접하여 서비스를 제공하기 때문에 많은 주목을 받고 있다. MEC 서버로의 태스크 오프로딩은 제한된 배터리 수명과 계산 능력을 갖고 있는 디바이스에게 효율적이다. 본 연구는 높은 신뢰도를 요구하는 산업용 IoT 환경을 가정하였다. 많은 디바이스와 여러 MEC 서버와 같은 환경으로 최적화에 있어서 복잡성이 발생한다. 이를 해결하기 위해 문제를 두 개로 나눠 해결한다. MEC 서버의 큐 상태를 고려하여 큐의 제한 길이를 충족하는 MEC 서버를 선택한 뒤, 유전 알고리즘을 사용하여 신뢰도를 고려하면서도 에너지 소모량을 최적화하는 오프로딩 결정 알고리즘을 제시한다. 본 연구는 실험을 통하여 에너지 소모량과 신뢰성 측면에서 제안 알고리즘의 성능이 효율적임을 분석하였다.

Energy-Efficient Resource Allocation for Application Including Dependent Tasks in Mobile Edge Computing

  • Li, Yang;Xu, Gaochao;Ge, Jiaqi;Liu, Peng;Fu, Xiaodong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권6호
    • /
    • pp.2422-2443
    • /
    • 2020
  • This paper studies a single-user Mobile Edge Computing (MEC) system where mobile device (MD) includes an application consisting of multiple computation components or tasks with dependencies. MD can offload part of each computation-intensive latency-sensitive task to the AP integrated with MEC server. In order to accomplish the application faultlessly, we calculate out the optimal task offloading strategy in a time-division manner for a predetermined execution order under the constraints of limited computation and communication resources. The problem is formulated as an optimization problem that can minimize the energy consumption of mobile device while satisfying the constraints of computation tasks and mobile device resources. The optimization problem is equivalently transformed into solving a nonlinear equation with a linear inequality constraint by leveraging the Lagrange Multiplier method. And the proposed dual Bi-Section Search algorithm Bi-JOTD can efficiently solve the nonlinear equation. In the outer Bi-Section Search, the proposed algorithm searches for the optimal Lagrangian multiplier variable between the lower and upper boundaries. The inner Bi-Section Search achieves the Lagrangian multiplier vector corresponding to a given variable receiving from the outer layer. Numerical results demonstrate that the proposed algorithm has significant performance improvement than other baselines. The novel scheme not only reduces the difficulty of problem solving, but also obtains less energy consumption and better performance.

Collaborative Inference for Deep Neural Networks in Edge Environments

  • Meizhao Liu;Yingcheng Gu;Sen Dong;Liu Wei;Kai Liu;Yuting Yan;Yu Song;Huanyu Cheng;Lei Tang;Sheng Zhang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권7호
    • /
    • pp.1749-1773
    • /
    • 2024
  • Recent advances in deep neural networks (DNNs) have greatly improved the accuracy and universality of various intelligent applications, at the expense of increasing model size and computational demand. Since the resources of end devices are often too limited to deploy a complete DNN model, offloading DNN inference tasks to cloud servers is a common approach to meet this gap. However, due to the limited bandwidth of WAN and the long distance between end devices and cloud servers, this approach may lead to significant data transmission latency. Therefore, device-edge collaborative inference has emerged as a promising paradigm to accelerate the execution of DNN inference tasks where DNN models are partitioned to be sequentially executed in both end devices and edge servers. Nevertheless, collaborative inference in heterogeneous edge environments with multiple edge servers, end devices and DNN tasks has been overlooked in previous research. To fill this gap, we investigate the optimization problem of collaborative inference in a heterogeneous system and propose a scheme CIS, i.e., collaborative inference scheme, which jointly combines DNN partition, task offloading and scheduling to reduce the average weighted inference latency. CIS decomposes the problem into three parts to achieve the optimal average weighted inference latency. In addition, we build a prototype that implements CIS and conducts extensive experiments to demonstrate the scheme's effectiveness and efficiency. Experiments show that CIS reduces 29% to 71% on the average weighted inference latency compared to the other four existing schemes.

Resource Management Strategies in Fog Computing Environment -A Comprehensive Review

  • Alsadie, Deafallah
    • International Journal of Computer Science & Network Security
    • /
    • 제22권4호
    • /
    • pp.310-328
    • /
    • 2022
  • Internet of things (IoT) has emerged as the most popular technique that facilitates enhancing humans' quality of life. However, most time sensitive IoT applications require quick response time. So, processing these IoT applications in cloud servers may not be effective. Therefore, fog computing has emerged as a promising solution that addresses the problem of managing large data bandwidth requirements of devices and quick response time. This technology has resulted in processing a large amount of data near the data source compared to the cloud. However, efficient management of computing resources involving balancing workload, allocating resources, provisioning resources, and scheduling tasks is one primary consideration for effective computing-based solutions, specifically for time-sensitive applications. This paper provides a comprehensive review of the source management strategies considering resource limitations, heterogeneity, unpredicted traffic in the fog computing environment. It presents recent developments in the resource management field of the fog computing environment. It also presents significant management issues such as resource allocation, resource provisioning, resource scheduling, task offloading, etc. Related studies are compared indifferent mentions to provide promising directions of future research by fellow researchers in the field.

MEC 환경에서 오프로딩과 마이그레이션을 이용한 태스크 파티셔닝 기법의 성능비교 (Performance Comparison of Task Partitioning with Offloading and Migration in MEC)

  • 문성원;구설원;임유진
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.100-103
    • /
    • 2021
  • 5G 의 발전과 함께 차량과 IT 통신 기술을 융합한 어플리케이션들이 급증하면서 멀티 액세스 엣지 컴퓨팅(MEC)이 차세대 기술로 등장했다. 낮은 지연시간 안에 계산 집약적인 서비스들을 제공하기 위해 단독적인 MECS 서버(MECS)에서의 수행이 아닌 다수의 MECS 에서 동시에 연산을 수행할 수 있도록 태스크를 파티셔닝하는 기법이 주목받고 있다. 특히 차량이 다수의 MECS 로 태스크를 파티셔닝하여 오프로딩하는 기법과 하나의 MECS 로 오프로딩한 후 다른 MECS 들로 파티셔닝하여 마이그레이션하는 기법들이 연구되고 있다. 본 논문에서는 오프로딩과 마이그레이션을 이용한 파티셔닝 기법들을 서비스 지연시간과 차량의 에너지 소비량 측면에서 성능을 비교 분석을 하였다.