• 제목/요약/키워드: Distributed algorithms

검색결과 590건 처리시간 0.032초

효과적인 수중로봇 S/W 프레임웍 구현을 위한 데이터 공유구조 (Data Sharing Architecture for an Effective Implementation of Underwater Robot S/W Framework)

  • 정순용;최현택
    • 전자공학회논문지SC
    • /
    • 제48권2호
    • /
    • pp.1-8
    • /
    • 2011
  • 수중로봇 S/W 프레임웍은 센서 데이터 처리, 추진기 제어, 인지 및 행위 제어 등의 다양한 하위모듈로 구성된다. 로봇의 성능은 알고리즘 자체의 우수성 뿐 아니라 그 구현에도 큰 영향을 받는데, 효과적인 구현에 가장 큰 영향을 미치는 부분 중의 하나는 모듈간의 신호 및 데이터 전달을 담당하여 센싱 및 제어 주기에 영향을 주는 데이터 공유 모듈의 효율성이다. 이상적인 데이터 공유 모듈은 시스템의 H/W 및 S/W 구성에 상관없이 데이터 싱크로부터 데이터 소스에 지연 없이 접근할 수 있게 해야 한다. 그러나 실제에 있어서는 시스템 구성 특성에 의한 데이터 소스 모듈의 접근 처리 용량 한계, 네트워크 지연 및 운영체제의 스케쥴링 등으로 인하여 다양한 접근 지연이 요인이 존재한다. 본 논문은 수중로봇과 같이 소수의 컴퓨터로 이뤄진 소규모 분산시스템에서 이러한 접근 지연을 효과적으로 처리하기 위한 데이터 공유 모듈 구조 및 프로그래밍 모델을 제안하고 있다.

USN에서 에너지 효율성을 고려한 효과적인 클러스터 헤더 선출 알고리즘 (A Energy-Efficient Cluster Header Election Algorithm in Ubiquitous Sensor Networks)

  • 허태성
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.197-203
    • /
    • 2011
  • 유비쿼터스 센서 네트워크(Ubiquitous Sensor Network)는 사람의 접근이 어려운 다양한 환경에 무선 센서들로 구성된 네트워크이다. 그러므로 센서 노드들은 스스로 라우팅 하는 네트워크로 구성되며, 전력(power) 교체가 어렵다는 특징을 가지고 있다. 따라서 전력 소모를 줄이는 다양한 연구가 이루어지고 있다. 일반적으로 클러스터를 이용한 계층적 구조의 라우팅 방식은 평면적 구조의 라우팅 방식에 비해 센서 노드들의 전력소모가 균등하며, 전력 소모가 적어 네트워크의 사용 주기가 길다. 본 논문은 초기 클러스터를 계속 유지하여 클러스터를 구성하는셋업 과정을 초기 한번만 함으로써 센서노드들의 에너지 소모를 줄이도록 하였으며, 다음 라운드의 헤더 선출은 클러스터내의 멤버 노드들 중 에너지가 가장 많은 노드를 선정함으로써 클러스터내의 모든 노드의 에너지 소모를 균등하게 하는 방법을 제안하였다. 이 방식은 클러스터의 모든 노드들의 에너지소모를 줄여 네트워크의 생명주기를 늘리며, 센서들의 에너지 소모를 균등하게 하여 에너지 홀(energy hole) 문제를 개선하고자 하였다. 본 제안방식의 타당성을 모의실험을 통해 확인하였다.

LDBAS: Location-aware Data Block Allocation Strategy for HDFS-based Applications in the Cloud

  • Xu, Hua;Liu, Weiqing;Shu, Guansheng;Li, Jing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권1호
    • /
    • pp.204-226
    • /
    • 2018
  • Big data processing applications have been migrated into cloud gradually, due to the advantages of cloud computing. Hadoop Distributed File System (HDFS) is one of the fundamental support systems for big data processing on MapReduce-like frameworks, such as Hadoop and Spark. Since HDFS is not aware of the co-location of virtual machines in the cloud, the default scheme of block allocation in HDFS does not fit well in the cloud environments behaving in two aspects: data reliability loss and performance degradation. In this paper, we present a novel location-aware data block allocation strategy (LDBAS). LDBAS jointly optimizes data reliability and performance for upper-layer applications by allocating data blocks according to the locations and different processing capacities of virtual nodes in the cloud. We apply LDBAS to two stages of data allocation of HDFS in the cloud (the initial data allocation and data recovery), and design the corresponding algorithms. Finally, we implement LDBAS into an actual Hadoop cluster and evaluate the performance with the benchmark suite BigDataBench. The experimental results show that LDBAS can guarantee the designed data reliability while reducing the job execution time of the I/O-intensive applications in Hadoop by 8.9% on average and up to 11.2% compared with the original Hadoop in the cloud.

무선 ATM 망에서 VBR 서비스의 효율적인 전송을 위한 동적 슬롯 할당 알고리즘 (Dynamic Slot Allocation Algorithm for Efficient Transmission of VBR Services in Wireless ATM Networks)

  • 안계현;박병주;백승권;김응배;김영천
    • 대한전자공학회논문지TC
    • /
    • 제38권11호
    • /
    • pp.30-40
    • /
    • 2001
  • 본 논문은 무선 ATM 망에서 VBR 서비스의 가변적인 슬롯 요구량을 신속하고 정확하게 반영함으로써 무선 구간에서의 전송 효율을 최대화할 수 있는 Hybrid DP 제어기법 기반의 동적 슬롯 할당 알고리즘을 제안한다. 제안한 Hybrid DP 제어기법은 기존의 In-band 제어기법과 Out-of-band 제어기법의 장점을 보존하고 단점 및 제어의 한계성을 개선한 방법으로 이동 단말기의 버퍼 상태 변화에 따라 기지국으로 전송되는 ATM 셀에 동적 파라미터 값을 삽입하거나 별도의 제어 채널을 사용하여 단말기의 필요 슬롯 수를 기지국에 전송하는 방식이다. 따라서 VBR 서비스의 유동적인 데이터 발생률을 효율적으로 기지국에게 전송하여 슬롯 할당에 반영함으로써 제한된 무선 채널을 효율적으로 이용하면서 VBR 서비스의 QoS를 보장할 수 있다. 제안한 동적 슬롯 할당 알고리즘의 성능 평가를 위해 해석적 분석 및 시뮬레이션을 실시하였으며, 할당효율, 지연 및 셀 손실률 관점에서 기존의 제어기법보다 우수한 성능을 보였다.

  • PDF

3축 가속도 센서의 흔들림 정보를 이용한 영상의 Deblurring (Image Deblurring Using Vibration Information From 3-axis Accelerometer)

  • 박상용;박은수;김학일
    • 전자공학회논문지SC
    • /
    • 제45권3호
    • /
    • pp.1-11
    • /
    • 2008
  • 본 논문은 모바일 단말기에 탑재된 카메라를 이용하여 정지영상을 획득할 때 발생할 수 있는 blur현상을 3축 가속도 센서를 이용하여 실시간 보정 할 수 있는 방법을 제안한다. Blur현상은 획득한 이미지에서 발생하는 번짐 효과이다. 소형의 모바일 단말기는 사용자의 미세한 손 떨림에도 크게 흔들릴 수 있기 때문에 blur현상이 크게 나타나며, 이를 적절하게 보정할 수 있는 알고리즘이 필요하다. 본 논문에선 3축 가속도센서를 진자운동에 적용하여 출력결과의 신뢰성을 확보하였고, blur현상을 Uniform 분포와 Gaussian 분포로 모델링하였다. 실험을 통하여 실제 blur 현상이 Non-Gaussian 형태로 모델링됨을 확인하였고, 이 blur모델의 역과정인 deblurring 특성함수를 설계하였다. 이 특성함수에 3축 가속도센서에서 발생하는 미세한 떨림 정보를 적용하여 실험 이미지를 deblurring한 결과, 이미지 blur현상을 적절하게 보정할 수 있었다.

분산 실시간 시스템에서 개선된 EDF 정책을 사용한 메시지 스케줄가능성 분석 (A Message Schedulability Analysis using an Improved EDF Scheduling for Distributed Real-Time Systems)

  • 이은미;허신
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권9호
    • /
    • pp.520-529
    • /
    • 2002
  • 본 논문은 분산 실시간 시스템에서 실시간 동적 알고리즘으로 메시지를 스케줄링하기 위한 개선된 접근법을 제안한다. EDF(Earliest Deadline First) 스케줄링 정책에서 메시지의 중간 종료시한을 계산하기 위한 방법을 제시하고, 이는 우선순위 할당을 위해 사용하는 슬랙값을 조정하는데 사용된다 수정된 슬랙값으로 메시지의 우선순위값은 보다 정확하게 결정될 수 있으며, 결과적으로 메시지의 스케줄가능성 효율을 증가시킬 수 있다. 개선된 EDF 스케줄링 정책을 적용함으로써, 전송 메시지의 최악의 응답시간을 줄일 수 있었고, 메시지 전송의 실시간적 보장성 문제를 개선하였다. 또한, 개선된 EDF 스케줄링 정책을 기반으로 전송되는 메시지 집합에 대한 스케줄 가능성을 검사하기 위해 간단한 분석 방법을 제공하고 시뮬레이션을 통해 이전의 DM(Deadline Monotonic)과 기존의 EDF을 적용한 예와 비교함으로써, 본 연구 결과의 효율성을 보였다.

SPMLD: Sub-Packet based Multipath Load Distribution for Real-Time Multimedia Traffic

  • Wu, Jiyan;Yang, Jingqi;Shang, Yanlei;Cheng, Bo;Chen, Junliang
    • Journal of Communications and Networks
    • /
    • 제16권5호
    • /
    • pp.548-558
    • /
    • 2014
  • Load distribution is vital to the performance of multipath transport. The task becomes more challenging in real-time multimedia applications (RTMA), which impose stringent delay requirements. Two key issues to be addressed are: 1) How to minimize end-to-end delay and 2) how to alleviate packet reordering that incurs additional recovery time at the receiver. In this paper, we propose sub-packet based multipath load distribution (SPMLD), a new model that splits traffic at the granularity of sub-packet. Our SPMLD model aims to minimize total packet delay by effectively aggregating multiple parallel paths as a single virtual path. First, we formulate the packet splitting over multiple paths as a constrained optimization problem and derive its solution based on progressive approximation method. Second, in the solution, we analyze queuing delay by introducing D/M/1 model and obtain the expression of dynamic packet splitting ratio for each path. Third, in order to describe SPMLD's scheduling policy, we propose two distributed algorithms respectively implemented in the source and destination nodes. We evaluate the performance of SPMLD through extensive simulations in QualNet using real-time H.264 video streaming. Experimental results demonstrate that: SPMLD outperforms previous flow and packet based load distribution models in terms of video peak signal-to-noise ratio, total packet delay, end-to-end delay, and risk of packet reordering. Besides, SPMLD's extra overhead is tiny compared to the input video streaming.

패킷 스케쥴링을 위한 결손 보완 계층적 라운드로빈 알고리즘 (A Hierarchical Deficit Round-Robin Algorithm for Packet Scheduling)

  • 편기현;조성익;이종열
    • 한국정보과학회논문지:정보통신
    • /
    • 제32권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 지난 십여년동안 각 세션에게 대역폭을 공평하게 분배하기 위한 많은 연구가 수행되었다. 이 문제에 있어서 가장 중요한 도전은 확장성 있는 구현(scalable implementation)을 실현하면서도 동시에 높은 공평성을 성취하는 것이다. 여기서 높은 공평성이란 작은 시간 구간에 대해서도 대역폭이 공평하게 분배되는 것이다. 불행히도 현존하는 스케줄링 알고리즘들은 확장성 있는 구현에 문제점이 있거나 혹은 공평성이 철저히 낮다는 결점을 갖고 있다. 본 논문에서 우리는 확장성을 잃지 않으면서도 동시에 합리적인 수준의 공평성을 제공하는 패킷 스케줄링 알고리즘을 제안한다. 제안하는 알고리즘은 결손을 보완하는 계층적 라운드-로빈 알고리즘이다. 계층적 라운드-로빈 알고리즘은 구현 복잡도가 상수 시간인 반면, 성취할 수 있는 공평성은 PGPS(Packet-by-Packet Generalized Processor Sharing) 알고리즘과 비슷함을 보인다. PGPS 알고리즘은 N을 세션 수라고 할 때 정렬된 우선 순위 큐를 사용하기 때문에 O(log N) 구현 복잡도를 가지므로 확장성이 떨어진다.

고속 통신망을 위한 공정성 링 프로토콜에 관한 연구 (A study on the fairness ring protocol for high-speed networks)

  • 김동윤;송명렬;장민석
    • 한국통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.139-150
    • /
    • 1997
  • For high-speed networks, a new ring protocal is proposed in this paper. A ring network combined with destination removal can achieve much higher network throughput than the channel transmission rate. However, such a network exhibits fairness problems. Over a past few years, global fairness algorithms such as ATMR and Metaring have been proposed to solve such problems. But the ring access time delay and fairness in such networks are sensitive to the network parameters such as network size and traffic distribution. In addition to guaranteeing fair ring access to all nodes, there are several other important performance aspects in such networks. The one is that fairness is enforced while node throughputs are kept as high as possible. And another performance measure is access delay and more specifically Head-Of-Line(HOL) delay, i.e., the amount of time the first cell in the transmission buffer of a node has to wait before it accesses the ring. HOL delay is a mijor component in the transmission jitter of the synchronous traffic transmission. A key idea of the proposed ring protocol is to find the nodes that have much more chances to access the ring than any other nodes in the independently distributed node architecture. Since destined by many cells need to share a part of the bandwidths with the next node for the fairness in as much as performance degradation does not become critical. To investigate the performance behavior of the proposed ring protocol for various network condition,s several performance parameters wuch as ring access time delay, and throughput are compared with those of the ATMR and Metaring protocols using simulation package, SIMAN.

  • PDF

Minimizing Energy Consumption in Scheduling of Dependent Tasks using Genetic Algorithm in Computational Grid

  • Kaiwartya, Omprakash;Prakash, Shiv;Abdullah, Abdul Hanan;Hassan, Ahmed Nazar
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권8호
    • /
    • pp.2821-2839
    • /
    • 2015
  • Energy consumption by large computing systems has become an important research theme not only because the sources of energy are depleting fast but also due to the environmental concern. Computational grid is a huge distributed computing platform for the applications that require high end computing resources and consume enormous energy to facilitate execution of jobs. The organizations which are offering services for high end computation, are more cautious about energy consumption and taking utmost steps for saving energy. Therefore, this paper proposes a scheduling technique for Minimizing Energy consumption using Adapted Genetic Algorithm (MiE-AGA) for dependent tasks in Computational Grid (CG). In MiE-AGA, fitness function formulation for energy consumption has been mathematically formulated. An adapted genetic algorithm has been developed for minimizing energy consumption with appropriate modifications in each components of original genetic algorithm such as representation of chromosome, crossover, mutation and inversion operations. Pseudo code for MiE-AGA and its components has been developed with appropriate examples. MiE-AGA is simulated using Java based programs integrated with GridSim. Analysis of simulation results in terms of energy consumption, makespan and average utilization of resources clearly reveals that MiE-AGA effectively optimizes energy, makespan and average utilization of resources in CG. Comparative analysis of the optimization performance between MiE-AGA and the state-of-the-arts algorithms: EAMM, HEFT, Min-Min and Max-Min shows the effectiveness of the model.