• 제목/요약/키워드: distributed learning

검색결과 592건 처리시간 0.03초

기계학습 분산 환경을 위한 부하 분산 기법 (Load Balancing Scheme for Machine Learning Distributed Environment)

  • 김영관;이주석;김아정;홍지만
    • 스마트미디어저널
    • /
    • 제10권1호
    • /
    • pp.25-31
    • /
    • 2021
  • 기계학습이 보편화되면서 기계학습을 활용한 응용 개발 또한 활발하게 이루어지고 있다. 또한 이러한 응용 개발을 지원하기 위한 기계학습 플랫폼 연구도 활발하게 진행되고 있다. 그러나 기계학습 플랫폼 연구가 활발하게 진행되고 있음에도 불구하고 기계학습 플랫폼에 적절한 부하 분산에 관한 연구는 아직 부족하다. 따라서 본 논문에서는 기계학습 분산 환경을 위한 부하 분산 기법을 제안한다. 제안하는 기법은 분산 서버를 레벨 해시 테이블 구조로 구성하고 각 서버의 성능을 고려하여 기계학습 작업을 서버에 할당한다. 이후 분산 서버를 구현하여 실험하고 기존 해싱 기법과 성능을 비교하였다. 제안하는 기법을 기존 해싱 기법과 비교하였을 때 평균 약 26%의 속도 향상을 보였고, 서버에 할당되지 못하고 대기하는 작업의 수가 약 38% 이상 감소함을 보였다.

분포 기여도를 이용한 퍼지 Q-learning (Fuzzy Q-learning using Distributed Eligibility)

  • 정석일;이연정
    • 한국지능시스템학회논문지
    • /
    • 제11권5호
    • /
    • pp.388-394
    • /
    • 2001
  • 강화학습은 에이전트가 환경과의 상호작용을 통해 획득한 경험으로부터 제어 규칙을 학습하는 방법이다. 강화학습의 중요한 문제 중의 하나인 신뢰 할당 문제를 해결하기 위해 기여도가 사용되는데, 누적 기여도나 대체 기여도와 같은 기존의 기여도를 이용한 방법은 방문한 상태에서 수행된 행위만을 학습시키기 때문에 학습 자정에서 획득된 보답 신호를 효과적으로 사용하지 못한다. 본 논문에서는 방문한 상태에서 수행된 행위뿐만 아니라 인접 행위들도 학습될 수 있도록 하는 새로운 기여도로써 분포 기여도를 제안한다. 제안된 기여도를 이용한 퍼지 Q-learning 알고리즘을 역진자 시스템에 적용하여 학습 속도면에서 기존의 방법에 비해 우수함을 보인다.

  • PDF

분산 인공지능 학습 기반 작업증명 합의알고리즘 (Distributed AI Learning-based Proof-of-Work Consensus Algorithm)

  • 채원부;박종서
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.1-14
    • /
    • 2022
  • 대부분의 블록체인이 사용하는 작업증명 합의 알고리즘은 채굴이라는 형태로 대규모의 컴퓨팅리소스 낭비를 초래하고 있다. 작업증명의 컴퓨팅리소스 낭비를 줄이기 위해 유용한 작업증명 합의 알고리즘이 연구 되었으나 여전히 블록 생성 시 리소스 낭비와 채굴의 중앙화 문제가 존재한다. 본 논문에서는 블록생성을 위한 상대적으로 비효율적인 연산 과정을 분산 인공지능 모델 학습으로 대체하여 블록생성 시 리소스 낭비문제를 해결하였다. 또한 학습 과정에 참여한 노드들에게 공평한 보상을 제공함으로써 컴퓨팅파워가 약한 노드의 참여 동기를 부여했고, 기존 중앙 집중 인공지능 학습 방식에 근사한 성능은 유지하였다. 제안된 방법론의 타당성을 보이기 위해 분산 인공지능 학습이 가능한 블록체인 네트워크를 구현하여 리소스 검증을 통한 보상 분배를 실험 하였고, 기존 중앙 학습 방식과 블록체인 분산 인공지능 학습 방식의 결과를 비교하였다. 또한 향후 연구로 블록체인 메인넷과 인공지능 모델 확장 시 발생 할 수 있는 문제점과 개발 방향성을 제시함으로서 논문을 마무리 하였다.

스파크를 이용한 머신러닝의 분산 처리 성능 요인 (Performance Factor of Distributed Processing of Machine Learning using Spark)

  • 류우석
    • 한국전자통신학회논문지
    • /
    • 제16권1호
    • /
    • pp.19-24
    • /
    • 2021
  • 본 논문에서는 아파치 스파크를 이용하여 머신러닝을 분산 처리할 때의 성능 요인을 분석하고 효율적인 분산 처리를 위한 실행 환경을 실험을 통해 제시한다. 먼저, 분산 클러스터 환경에서 머신러닝을 수행할 때 고려해야 하는 성능 요인으로 클러스터의 성능, 데이터의 규모, 스파크 엔진의 속성으로 구분하여 분석한다. 그리고 하둡 클러스터에서 동작하는 스파크 MLlib을 이용하여 회귀분석을 수행할 때 노드의 구성과 스파크 Executor의 설정을 변화하면서 성능을 측정한다. 실험 결과 최적의 Executor 개수는 데이터의 블록의 수에 영향을 받으나 클러스터 규모에 따라 최대값, 최소값은 각각 코어의 수, 워커 노드의 수로 제한됨을 실증하였다.

센서 네트워크 환경에서 움직이는 소스 신호의 협업 검출 기법 (Cooperative Detection of Moving Source Signals in Sensor Networks)

  • 뉴엔후낫민;팜츄안;홍충선
    • 정보과학회 논문지
    • /
    • 제44권7호
    • /
    • pp.726-732
    • /
    • 2017
  • 무선 센서 네트워크의 분산 센싱 및 예측에 대한 실제 Application에서 네트워크 환경 센싱 기능은 움직이는 소스 신호의 잡음 및 많은 센싱 정보들 때문에 매우 동적인 기능을 요구한다. 최근의 Distributed Online Convex Optimization 프레임워크는 분산된 방식으로 센서 네트워크를 통해 확률적인 학습 문제를 해결하기 위한 유망한 접근법으로 개발되었다. 기존의 Distributed Saddle Point Algorithm (DSPA)의 학습 결과에서 수렴 속도와 안정성은 이동성의 영향을 받을 수 있다. 이에 본 논문에서는 움직이는 소스 신호 시나리오의 동시 검출에서 예측을 안정화하고 보다 나은 수렵 속도를 달성하기 위해 통합 Sliding Windows 메커니즘을 제안한다.

Unification of Deep Learning Model trained by Parallel Learning in Security environment

  • Lee, Jong-Lark
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권12호
    • /
    • pp.69-75
    • /
    • 2021
  • 최근 인공지능 분야에서 가장 많이 사용하는 딥러닝은 그 구조가 점차 크고 복잡해지고 있다. 딥러닝 모델이 커질수록 이를 학습시키기 위해서는 대용량의 데이터가 필요하지만 데이터가 여러 소유 주체별로 분산되어 있고 보안 문제로 인해 이를 통합하여 학습시키기 어려운 경우가 발생한다. 우리는 동일한 딥러닝 모형이 필요하지만 보안 문제로 인해 데이터가 여러곳에 분산되어 처리될 수 밖에 없는 상황에서 데이터를 소유하고 있는 주체별로 분산 학습을 수행한 후 이를 통합하는 방법을 연구하였다. 이를 위해 보안 상황을 V-환경과 H-환경으로 가정하여 소유 주체별로 분산학습을 수행했으며 Average, Max, AbsMax를 사용하여 분산학습된 결과를 통합하였다. mnist-fashion 데이터에 이를 적용해 본 결과 V-환경에서는 정확도 면에서 데이터를 통합시켜 학습한 결과와 큰 차이가 없음을 확인할 수 있었으며, H-환경에서는 차이는 존재하지만 의미있는 결과를 얻을 수 있었다.

Performance Improvement of Evolution Strategies using Reinforcement Learning

  • Sim, Kwee-Bo;Chun, Ho-Byung
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제1권1호
    • /
    • pp.125-130
    • /
    • 2001
  • In this paper, we propose a new type of evolution strategies combined with reinforcement learning. We use the variances of fitness occurred by mutation to make the reinforcement signals which estimate and control the step length of mutation. With this proposed method, the convergence rate is improved. Also, we use cauchy distributed mutation to increase global convergence faculty. Cauchy distributed mutation is more likely to escape from a local minimum or move away from a plateau. After an outline of the history of evolution strategies, it is explained how evolution strategies can be combined with the reinforcement learning, named reinforcement evolution strategies. The performance of proposed method will be estimated by comparison with conventional evolution strategies on several test problems.

  • PDF

A Federated Multi-Task Learning Model Based on Adaptive Distributed Data Latent Correlation Analysis

  • Wu, Shengbin;Wang, Yibai
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.441-452
    • /
    • 2021
  • Federated learning provides an efficient integrated model for distributed data, allowing the local training of different data. Meanwhile, the goal of multi-task learning is to simultaneously establish models for multiple related tasks, and to obtain the underlying main structure. However, traditional federated multi-task learning models not only have strict requirements for the data distribution, but also demand large amounts of calculation and have slow convergence, which hindered their promotion in many fields. In our work, we apply the rank constraint on weight vectors of the multi-task learning model to adaptively adjust the task's similarity learning, according to the distribution of federal node data. The proposed model has a general framework for solving optimal solutions, which can be used to deal with various data types. Experiments show that our model has achieved the best results in different dataset. Notably, our model can still obtain stable results in datasets with large distribution differences. In addition, compared with traditional federated multi-task learning models, our algorithm is able to converge on a local optimal solution within limited training iterations.

A General Distributed Deep Learning Platform: A Review of Apache SINGA

  • Lee, Chonho;Wang, Wei;Zhang, Meihui;Ooi, Beng Chin
    • 정보과학회지
    • /
    • 제34권3호
    • /
    • pp.31-34
    • /
    • 2016
  • This article reviews Apache SINGA, a general distributed deep learning (DL) platform. The system components and its architecture are presented, as well as how to configure and run SINGA for different types of distributed training using model/data partitioning. Besides, several features and performance are compared with other popular DL tools.

분산 부호의 결합 기법 (Combination Methods for Distribution Codes)

  • 정진호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.365-366
    • /
    • 2022
  • 분산 부호는 프라이버시를 위한 코딩, 연합 학습 등에 사용될 수 있는 선형 부호의 일종이다. 분산 부호에서는 각 부호들의 정보가 다른 부호들과 포함 관계에 있지 않기 때문에 프라이버시나 기밀 정보가 종속되지 않는다. 본 논문에서는 이러한 분산 부호들의 속성을 살펴 보고, 기존에 알려진 분산 부호들로부터 새로운 형태의 분산 부호를 합성하는 기법들을 제시한다. 또한, 합성된 부호들이 사용될 수 있는 여러 시나리오들을 살펴본다.

  • PDF