• 제목/요약/키워드: Distributed Training

검색결과 370건 처리시간 0.021초

Design of a ParamHub for Machine Learning in a Distributed Cloud Environment

  • Su-Yeon Kim;Seok-Jae Moon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권2호
    • /
    • pp.161-168
    • /
    • 2024
  • As the size of big data models grows, distributed training is emerging as an essential element for large-scale machine learning tasks. In this paper, we propose ParamHub for distributed data training. During the training process, this agent utilizes the provided data to adjust various conditions of the model's parameters, such as the model structure, learning algorithm, hyperparameters, and bias, aiming to minimize the error between the model's predictions and the actual values. Furthermore, it operates autonomously, collecting and updating data in a distributed environment, thereby reducing the burden of load balancing that occurs in a centralized system. And Through communication between agents, resource management and learning processes can be coordinated, enabling efficient management of distributed data and resources. This approach enhances the scalability and stability of distributed machine learning systems while providing flexibility to be applied in various learning environments.

쿠버네티스에서 분산 학습 작업 성능 향상을 위한 오토스케일링 기반 동적 자원 조정 오퍼레이터 (Dynamic Resource Adjustment Operator Based on Autoscaling for Improving Distributed Training Job Performance on Kubernetes)

  • 정진원;유헌창
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권7호
    • /
    • pp.205-216
    • /
    • 2022
  • 딥러닝 분산 학습에 사용되는 많은 도구 중 하나는 컨테이너 오케스트레이션 도구인 쿠버네티스에서 실행되는 큐브플로우이다. 그리고 큐브플로우에서 기본적으로 제공하는 오퍼레이터를 사용하여 텐서플로우 학습 작업을 관리할 수 있다. 하지만 파라미터 서버 아키텍처 기반의 딥러닝 분산 학습 작업을 고려할 때 기존의 오퍼레이터가 사용하는 스케줄링 정책은 분산학습 작업의 태스크 친화도를 고려하지 않으며 자원을 동적으로 할당하거나 해제하는 기능을 제공하지 않는다. 이는 작업의 완료 시간이 오래 걸리거나 낮은 자원 활용률로 이어질 수 있다. 따라서 본 논문에서는 작업의 완료 시간을 단축시키고 자원 활용률을 높이기 위해 딥러닝 분산 학습 작업을 효율적으로 스케줄링하는 새로운 오퍼레이터를 제안한다. 기존 오퍼레이터를 수정하여 새로운 오퍼레이터를 구현하고 성능 평가를 위한 실험을 수행한 결과, 제안한 스케줄링 정책은 평균 작업 완료 시간 감소율을 최대 84%, 평균 CPU 활용 증가율을 최대 92%까지 향상시킬 수 있음을 보여준다.

조업자 훈련을 위한 분산 교육시스템 구축 (Development of a Distributed OperatorTtraining System)

  • 조성일;장병무;문일
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 한국자동제어학술회의논문집(국내학술편); 포항공과대학교, 포항; 24-26 Oct. 1996
    • /
    • pp.1424-1427
    • /
    • 1996
  • OTS(Operator Training System) requires computation for the systematic training in real-time. So we have developed a distributed operator training system that is composed of workstation based server and PC based user modules. Sever and OM(OTS Manager) modules are located in the workstation server and user modules are located in PCs. User modules have DCS-like user interfaces and transfer data with OM over the coaxial ethernet. This paper delineates a total system architecture and definition of data transferring between OM and User module. Having applied this system to a batch process, we could analyze operator's tasks.

  • PDF

분산 음성인식 시스템의 성능향상을 위한 음소 빈도 비율에 기반한 VQ 코드북 설계 (A VQ Codebook Design Based on Phonetic Distribution for Distributed Speech Recognition)

  • 오유리;윤재삼;이길호;김홍국;류창선;구명완
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2006년도 춘계 학술대회 발표논문집
    • /
    • pp.37-40
    • /
    • 2006
  • In this paper, we propose a VQ codebook design of speech recognition feature parameters in order to improve the performance of a distributed speech recognition system. For the context-dependent HMMs, a VQ codebook should be correlated with phonetic distributions in the training data for HMMs. Thus, we focus on a selection method of training data based on phonetic distribution instead of using all the training data for an efficient VQ codebook design. From the speech recognition experiments using the Aurora 4 database, the distributed speech recognition system employing a VQ codebook designed by the proposed method reduced the word error rate (WER) by 10% when compared with that using a VQ codebook trained with the whole training data.

  • PDF

영양교사의 전문성 증진을 위한 직무연수에 관한 연구 - 경북지역 중심으로 - (Study on Job Training for Specialty Enhancement of School Nutrition Teachers - In Gyeongbuk Area -)

  • 박경숙;조성희
    • 대한영양사협회학술지
    • /
    • 제17권4호
    • /
    • pp.403-415
    • /
    • 2011
  • The present study was performed to evaluate the job training needs of school nutrition teachers in order to enhance their specialty. Three hundred and forty questionnaires were distributed to school nutrition teachers working at primary and high schools in the Gyeongbuk area while 45 were distributed to professors during 2010~2011. Three hundred and two questionnaires from school nutrition teachers and 33 from professors were returned and analyzed. The rate of teachers practicing nutrition education was 54%, and the educational content was obtained mainly from the internet. The top three problems the teachers encountered were 'lack of standardized educational materials', 'inexperience of teaching', and 'insufficiency of expert knowledge'. The teachers recognized 'training program' as the best solution. However, the job training program operated immediately after teachers were appointed scored only 3.03 out of 5.00. Important contents of the training program ranked highly by the teachers were 'development of education materials', 'nutrition counseling', and 'teaching method'. The professors included 'expert knowledge' in their top three contents. Both the teachers and professors agreed to increase the frequency of 'practice' in training methods. Other factors the teachers considered to be important were high quality, diversity, ability of the instructor, training cycle, and the institution in charge. From these results, it can be concluded that efficient job training programs are needed for school nutrition teachers according to the importance of the education contents and training methods. It is therefore suggested that a cooperation committee be composed of an educator, educatee, and related personal in a local education office in order to operate the program.

신경망 분산 학습을 위한 일반 납기를 갖는 시퀀싱 문제 (A Sequencing Problem with Generalized Due Dates for Distributed Training of Neural Networks)

  • 최병천;민윤홍
    • 한국빅데이터학회지
    • /
    • 제5권1호
    • /
    • pp.189-195
    • /
    • 2020
  • 본 논문은 딥러닝을 위한분산학습에서학습속도를 저하시키는 stale 문제를 최소화하기 위한 방법으로 데이터 시퀀싱을 제안하였다. 이데이터 시퀀싱 문제는일반 납기를 갖는 단일 공정 하에서 일찍 혹은 늦음 정도의 총합을 최소화 하는 스케줄링 문제로 모델링할 수 있다. 만약 최적해에서 크기가 작은 작업과 큰 작업의 순서가 미리 알려져 있다면, 이 스케줄링 문제가 효율적으로 풀린다는 것을 보였다.

가상훈련 콘텐츠 보급기관 개선방안에 관한 연구 (A Study on the Improvement Plan of a Virtual Training Content Supply Institution)

  • 양미석
    • 실천공학교육논문지
    • /
    • 제13권3호
    • /
    • pp.453-460
    • /
    • 2021
  • 본 연구는 K대학교 온라인평생교육원이 보급하는 가상훈련 콘텐츠를 운영하는 기관의 교육형태, 교육현황을 파악하고 가상훈련 콘텐츠 보급기관의 역할 및 개선방안 등을 살펴보는데 목적이 있다. 이를 위해 2020년 K대학교 온라인평생교육원이 보급한 가상훈련 콘텐츠를 운영하는 56개 기관을 대상으로 설문조사를 실시하고 최종 응답한 44개 기관의 설문을 분석하였다. 분석결과는 다음과 같다. 첫째, 가상훈련 운영기관의 교육형태는 가상훈련 교육매체는 PC를 활용, 활용한 콘텐츠 과정은 총 52과정, 교육형태는 이론+가상훈련 유형, 실습기간은 1-2주 기간을 가장 많이 적용하고 있다고 응답했다. 또한 교육현황을 살펴보니 가상훈련 대상은 주로 학생이며, 주로 기관 자체적으로 모집을 하며 운영규모는 1-20명, 개설 과정 수는 1-3개 정도, 담당 교·강사 수는 1-3명 정도라는 응답이 가장 많았다. 둘째, 가상훈련 콘텐츠 보급기관의 역할로 다양한 가상훈련 콘텐츠 개발과 가상훈련 교육과정 적용 및 활용방법 제시, 가상훈련 콘텐츠 질 제고 등이 필요하다고 응답하였다. 셋째, 가상훈련 콘텐츠 보급기관의 개선방안으로 가상훈련 콘텐츠 실무능력 연계 강화, 교·강사의 가상훈련 콘텐츠 활용교육, 다양한 가상훈련 콘텐츠 연계방안 제시, 가상훈련 콘텐츠 품질 관리 강화 등을 요구했다. 이에 본 연구는 가상훈련 콘텐츠 운영기관의 전반적 운영현황과 실태를 파악하고 공공 가상훈련 보급기관의 역할 정립 및 개선방안을 살펴보았다는데 의의가 있다.

A Study on the Improvement of On-board Training Program through the Analysis of Satisfaction Level

  • Kim, Hong-Ryeol;Kim, Bu-Gi
    • 해양환경안전학회지
    • /
    • 제19권3호
    • /
    • pp.270-276
    • /
    • 2013
  • The educational process and result of onboard training should be evaluated according to the 1995 Amendments to the International Convention on Standards of Training, Certification and Watch-keeping for seafarers(STCW), 1978. In particular, the revised Convention requires that a trainee's seagoing service must be recorded in each cadet's Training Record Book approved by the maritime administration responsible for the issuance of certificates of competency. Trainees for certification under regulation III/1 of the STCW Convention are required to complete an approved on-board training programme. The purpose of this paper is to understand the compliance of the education for an approved on-board training programme. The questionnaire was distributed among 110 cadets being trained on board the training ship of the maritime college of the Mokpo National Maritime University. In this study, we conducted the questionnaire survey which is related to the on-board training programme such as marine engineering; controlling the operation of the ship and care for persons on board; electrical, electronic and control engineering; etc. The survey revealed that onboard training program was normally satisfactory, however, lack of practical training tools and time have accounted for most of the reasons for dissatisfaction. Therefore, it is our goal to enhance the satisfactory value of onboard training education by analyzing the reason of the dissatisfaction.

이산 코사인 변환 기반 Gradient Leakage 방어 기법 (Gradient Leakage Defense Strategy based on Discrete Cosine Transform)

  • 박재훈;김광수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.2-4
    • /
    • 2021
  • 분산된 환경에서 머신 러닝의 학습 가중치를 공유하여 학습하는 방법은 훈련 데이터를 직접 공유하는 것이 아니기 때문에 안전한 것으로 여겨졌다. 하지만, 최근 연구에 따르면 악의적인 공격자가 공유된 가중치를 분석하여 원본 데이터를 완벽하게 복원할 수 있는 취약점이 발견되었다. Gradient Leakage Attack은 이러한 취약점을 이용해 훈련 데이터를 복원하는 공격 기법이다. 본 연구에서는 개별 장치에서 학습을 진행하고 가중치를 서버와 공유하는 학습 환경인 연합 학습 환경에서 해당 공격을 방어하기 위해 이산 코사인 변환에 기반한 이미지 변환 기법을 제시한다. 실험 결과, 우리의 이미지 변환 기법을 적용하면 공유된 가중치로부터 원본 데이터를 완벽하게 복원할 수 없다.

  • PDF

쿠버네티스에서 ML 워크로드를 위한 분산 인-메모리 캐싱 방법 (Distributed In-Memory Caching Method for ML Workload in Kubernetes)

  • 윤동현;송석일
    • Journal of Platform Technology
    • /
    • 제11권4호
    • /
    • pp.71-79
    • /
    • 2023
  • 이 논문에서는 기계학습 워크로드의 특징을 분석하고 이를 기반으로 기계학습 워크로드의 성능 향상을 위한 분산 인-메모리 캐싱 기법을 제안한다. 기계학습 워크로드의 핵심은 모델 학습이며 모델 학습은 컴퓨팅 집약적 (Computation Intensive)인 작업이다. 쿠버네티스 기반 클라우드 환경에서 컴퓨팅 프레임워크와 스토리지를 분리한 구조에서 기계학습 워크로드를 수행하는 것은 자원을 효과적으로 할당할 수 있지만, 네트워크 통신을 통해 IO가 수행되야 하므로 지연이 발생할 수 있다. 이 논문에서는 이런 환경에서 수행되는 머신러닝 워크로드의 성능을 향상하기 위한 분산 인-메모리 캐싱 기법을 제안한다. 특히, 제안하는 방법은 쿠버네티스 기반의 머신러닝 파이프라인 관리 도구인 쿠브플로우를 고려하여 머신러닝 워크로드에 필요한 데이터를 분산 인-메모리 캐시에 미리 로드하는 새로운 방법을 제안한다.

  • PDF