• Title/Summary/Keyword: 학습속도

Search Result 1,095, Processing Time 0.033 seconds

Level-Learning System Using Keller's PSI in U-Learning Environments : Focused on Underachiever (Keller의 PSI를 활용한 u-러닝 환경의 수준별 학습 시스템 : 학습 부진아를 중심으로)

  • Kim, Yeon-Jung;Jun, Woo-Chun
    • 한국정보교육학회:학술대회논문집
    • /
    • 2008.01a
    • /
    • pp.263-268
    • /
    • 2008
  • 학교의 학습 과정에 있어서 학습자 간의 학습 능력의 차이는 존재하며 이를 해결하기 위해 교육과정에서는 개별 학습과 수준별 학습을 권장한다. 유무선 인터넷을 통한 수준별 학습은 최근에 많은 연구가 되고 있는 u-러닝(Ubiquitous Learning) 환경에도 부합하며 학습자 개개인이 자신의 속도와 수준에 맞게 자기주도적으로 학습을 하기에 알맞은 방법이라 할 수 있다. 이에 본 연구에서는 학습자가 시간과 공간에 구애받지 않고 자율적으로 수준에 맞게 학습할 수 있는 수준별 학습 시스템을 설계하였다. 특히 시스템에 체계성을 더하기 위해 개별화 학습 체제 중에서 과거 많은 연구를 통해 그 효과성이 입증된 Keller의 PSI(Personal System of Instruction) 이론을 활용하여 시스템의 각 과정을 설계하였다. 본 시스템의 장점은 다음과 같다. 첫째, 학습자가 원하는 시간과 공간에서 자신의 속도에 맞게 학습할 수 있으므로 자기주도적인 학습 능력을 기를 수 있다. 둘째, 시스템 구성상 평가를 통해 일정한 기준에 미달하면 목표에 도달할 때까지 계속 학습하고 도전해야 하므로 궁극적으로 완전학습에 도달할 수 있다. 셋째, 제한된 교실 상황에서 벗어나 온라인에서의 학습 지원이 가능하므로 학습자의 개인차에 따른 수준별 학습을 관리하고 책임져야 하는 교사의 부담을 덜어준다.

  • PDF

Faster User Enrollment for Neural Speaker Verification Systems (신경망 기반 화자증명 시스템에서 더욱 향상된 사용자 등록속도)

  • Lee, Tae-Seung;Park, Sung-Won;Hwang, Byong-Won
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.10a
    • /
    • pp.1021-1026
    • /
    • 2003
  • While multilayer perceptrons (MLPs) have great possibility on the application to speaker verification, they suffer from inferior learning speed. To appeal to users, the speaker verification systems based on MLPs must achieve a reasonable enrolling speed and it is thoroughly dependent on the fast teaming of MLPs. To attain real-time enrollment on the systems, the previous two studies have been devoted to the problem and each satisfied the objective. In this paper, the two studies are combined and applied to the systems, on the assumption that each method operates on different optimization principle. By conducting experiments using an MLP-based speaker verification system to which the combination is applied on real speech database, the feasibility of the combination is verified from the results of the experiments.

  • PDF

Performance and Root Mean Squared Error of Kernel Relaxation by the Dynamic Change of the Moment (모멘트의 동적 변환에 의한 Kernel Relaxation의 성능과 RMSE)

  • 김은미;이배호
    • Journal of Korea Multimedia Society
    • /
    • v.6 no.5
    • /
    • pp.788-796
    • /
    • 2003
  • This paper proposes using dynamic momentum for squential learning method. Using The dynamic momentum improves convergence speed and performance by the variable momentum, also can identify it in the RMSE(root mean squared error). The proposed method is reflected using variable momentum according to current state. While static momentum is equally influenced on the whole, dynamic momentum algorithm can control the convergence rate and performance. According to the variable change of momentum by training. Unlike former classification and regression problems, this paper confirms both performance and regression rate of the dynamic momentum. Using RMSE(root mean square error ), which is one of the regression methods. The proposed dynamic momentum has been applied to the kernel adatron and kernel relaxation as the new sequential learning method of support vector machine presented recently. In order to show the efficiency of the proposed algorithm, SONAR data, the neural network classifier standard evaluation data, are used. The simulation result using the dynamic momentum has a better convergence rate, performance and RMSE than those using the static moment, respectively.

  • PDF

Implementation and Optimization of Distributed Deep learning based on Multi Layer Neural Network for Mobile Big Data at Apache Spark (아파치 스파크에서 모바일 빅 데이터에 대한 다계층 인공신경망 기반 분산 딥러닝 구현 및 최적화)

  • Myung, Rohyoung;Ahn, Beomjin;Yu, Heonchang
    • Proceedings of The KACE
    • /
    • 2017.08a
    • /
    • pp.201-204
    • /
    • 2017
  • 빅 데이터의 시대가 도래하면서 이전보다 데이터로부터 유의미한 정보를 추출하는 것에 대한 연구가 활발하게 진행되고 있다. 딥러닝은 텍스트, 이미지, 동영상 등 다양한 데이터에 대한 학습을 가능하게 할 뿐만 아니라 높은 학습 정확도를 보임으로써 차세대 머선러닝 기술로 각광 받고 있다. 그러나 딥러닝은 일반적으로 학습해야하는 데이터가 많을 뿐만 아니라 학습에 요구되는 시간이 매우 길다. 또한 데이터의 전처리 수준과 학습 모델 튜닝에 의해 학습정확도가 크게 영향을 받기 때문에 활용이 어렵다. 딥러닝에서 학습에 요구되는 데이터의 양과 연산량이 많아지면서 분산 처리 프레임워크 기반 분산 학습을 통해 학습 정확도는 유지하면서 학습시간을 단축시키는 사례가 많아지고 있다. 본 연구에서는 범용 분산 처리 프레임워크인 아파치 스파크에서 데이터 병렬화 기반 분산 학습 모델을 활용하여 모바일 빅 데이터 분석을 위한 딥러닝을 구현한다. 딥러닝을 구현할 때 분산학습을 통해 학습 속도를 높이면서도 학습 정확도를 높이기 위한 모델 튜닝 방법을 연구한다. 또한 스파크의 분산 병렬처리 효율을 최대한 끌어올리기 위해 파티션 병렬 최적화 기법을 적용하여 딥러닝의 학습속도를 향상시킨다.

  • PDF

Simple Kinematic Model Generation by Learning Control Inputs and Velocity Outputs of a Ship (선박의 제어 입력과 속도 출력 학습에 의한 단순 운동학 모델 생성)

  • Kim, Dong Jin;Yun, Kunhang
    • Journal of Navigation and Port Research
    • /
    • v.45 no.6
    • /
    • pp.284-297
    • /
    • 2021
  • A simple kinematic model for the prediction of ship manoeuvres based on trial data is proposed in this study. The model consists of first order differential equations in surge, sway, and yaw directions which simulate the time series of each velocity component. Actually instead of sea trial data, dynamic model simulations are conducted with randomly varied control inputs such as propeller revolution rates and rudder angles. Based on learning of control inputs and velocity outputs of dynamic model simulations in sufficient time, kinematic model coefficients are optimized so that the kinematic model can be approximately reproduce the velocity outputs of dynamic model simulations with arbitrary control inputs. The resultant kinematic model is verified with new dynamic simulation sets.

Extreme Learning Machine based Fuzzy Pattern Classifier for Face Recognition (얼굴인식을 위한 ELM 기반 퍼지 패턴분류기)

  • Oh, Sung-Kwun;Roh, Seok-Beom
    • Proceedings of the KIEE Conference
    • /
    • 2015.07a
    • /
    • pp.1369-1370
    • /
    • 2015
  • 본 논문에서는 얼굴 인식을 위하여 인공 신경망의 일종인 Extreme Learning Machine의 학습 알고리즘을 기반으로 하여 지능형 알고리즘인 퍼지 집합 이론을 이용하여 주변 노이즈에 매우 강한 특성을 보이며 학습 속도가 매우 빠른 새로운 패턴 분류기를 제안한다. 제안된 퍼지 패턴 분류기는 기존 신경회로망의 학습 속도에 비해 매우 빠른 학습 속도를 보이며, 패턴 분류기의 일반화 성능이 우수하다고 알려진 Extreme Learning Machine의 특성을 퍼지 집합 이론과 결합하여 퍼지 패턴 분류기의 일반화 성능을 개선하였다. 제안된 퍼지 패턴 분류기는 얼굴 인식 데이터를 이용하여 성능을 평가 하였다.

  • PDF

A Layer-by-Layer Learning Algorithm using Correlation Coefficient for Multilayer Perceptrons (상관 계수를 이용한 다층퍼셉트론의 계층별 학습)

  • Kwak, Young-Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.8
    • /
    • pp.39-47
    • /
    • 2011
  • Ergezinger's method, one of the layer-by-layer algorithms used for multilyer perceptrons, consists of an output node and can make premature saturations in the output's weight because of using linear least squared method in the output layer. These saturations are obstacles to learning time and covergence. Therefore, this paper expands Ergezinger's method to be able to use an output vector instead of an output node and introduces a learning rate to improve learning time and convergence. The learning rate is a variable rate that reflects the correlation coefficient between new weight and previous weight while updating hidden's weight. To compare the proposed method with Ergezinger's method, we tested iris recognition and nonlinear approximation. It was found that the proposed method showed better results than Ergezinger's method in learning convergence. In the CPU time considering correlation coefficient computation, the proposed method saved about 35% time than the previous method.

Modified Error Back Propagation Algorithm using the Approximating of the Hidden Nodes in Multi-Layer Perceptron (다층퍼셉트론의 은닉노드 근사화를 이용한 개선된 오류역전파 학습)

  • Kwak, Young-Tae;Lee, young-Gik;Kwon, Oh-Seok
    • Journal of KIISE:Software and Applications
    • /
    • v.28 no.9
    • /
    • pp.603-611
    • /
    • 2001
  • This paper proposes a novel fast layer-by-layer algorithm that has better generalization capability. In the proposed algorithm, the weights of the hidden layer are updated by the target vector of the hidden layer obtained by least squares method. The proposed algorithm improves the learning speed that can occur due to the small magnitude of the gradient vector in the hidden layer. This algorithm was tested in a handwritten digits recognition problem. The learning speed of the proposed algorithm was faster than those of error back propagation algorithm and modified error function algorithm, and similar to those of Ooyen's method and layer-by-layer algorithm. Moreover, the simulation results showed that the proposed algorithm had the best generalization capability among them regardless of the number of hidden nodes. The proposed algorithm has the advantages of the learning speed of layer-by-layer algorithm and the generalization capability of error back propagation algorithm and modified error function algorithm.

  • PDF

Data Segmentation System using Greedy Algorithm (Greedy 알고리즘을 사용한 데이터 분할 시스템)

  • Kim, Min-Woo;Kim, Se-Jun;Lee, Byung-Jun;Kim, Kyung-Tae;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.07a
    • /
    • pp.211-212
    • /
    • 2018
  • 머신 러닝 환경에서 많은 양의 데이터를 한꺼번에 학습하게 되면 데이터 트래픽이 증가함에 따라 흐름 정체가 발생하고 학습 품질이 저하되며 학습속도 지연 등의 문제가 발생한다. 본 연구는 머신러닝 환경에서 빅 데이터 학습 데이터 분할을 위한 핵심 목표인 Greedy 알고리즘에 대해 설명하고 간단한 Greedy 알고리즘을 사용하여 각각의 데이터 파티션을 생성하여 학습 속도의 효율성을 향상시키는 방법을 제안한다.

  • PDF

Deep Learning Model for Weather Forecast based on Knowledge Distillation using Numerical Simulation Model (수치 모델을 활용한 지식 증류 기반 기상 예측 딥러닝 모델)

  • 유선희;정은성
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.530-531
    • /
    • 2023
  • 딥러닝에서 지식 증류 기법은 큰 모델의 지식을 작은 모델로 전달하여 작은 모델의 성능을 개선하는 방식이다. 지식 증류 기법은 모델 경량화, 학습 속도 향상, 학습 정확도 향상 등에 활용될 수 있는데, 교사 모델이라 불리는 큰 모델은 일반적으로 학습된 딥러닝 모델을 사용한다. 본 연구에서는 학습된 딥러닝 모델 대신에 수치 기반 시뮬레이션 모델을 사용함으로써 어떠한 효과가 있는지 검증하였으며, 수치 모델을 활용한 기상 예측 모델에서의 지식 증류는 기존 단독 딥러닝 모델 학습 대비 더 작은 학습 횟수(epoch)에서도 동일한 에러 수준(RMSE)까지 도달하여, 학습 속도 측면에서 이득이 있음을 확인하였다.