• 제목/요약/키워드: Gradient-descent methods

검색결과 73건 처리시간 0.025초

두가지 gradient 방법의 벡터 선형 예측기에 대한 적용 비교 (Comparison with two Gradient Methods through the application to the Vector Linear Predictor)

  • 신광균;양승인
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1987년도 전기.전자공학 학술대회 논문집(II)
    • /
    • pp.1595-1597
    • /
    • 1987
  • Two gradient methods, steepest descent method and conjugate gradient descent method, are compar ed through application to vector linear predictors. It is found that the convergence rate of the conju-gate gradient descent method is much faster than that of the steepest descent method.

  • PDF

딥러닝을 위한 경사하강법 비교 (Comparison of Gradient Descent for Deep Learning)

  • 강민제
    • 한국산학기술학회논문지
    • /
    • 제21권2호
    • /
    • pp.189-194
    • /
    • 2020
  • 본 논문에서는 신경망을 학습하는 데 가장 많이 사용되고 있는 경사하강법에 대해 분석하였다. 학습이란 손실함수가 최소값이 되도록 매개변수를 갱신하는 것이다. 손실함수는 실제값과 예측값의 차이를 수치화 해주는 함수이다. 경사하강법은 오차가 최소화되도록 매개변수를 갱신하는데 손실함수의 기울기를 사용하는 것으로 현재 최고의 딥러닝 학습알고리즘을 제공하는 라이브러리에서 사용되고 있다. 그러나 이 알고리즘들은 블랙박스형태로 제공되고 있어서 다양한 경사하강법들의 장단점을 파악하는 것이 쉽지 않다. 경사하강법에서 현재 대표적으로 사용되고 있는 확률적 경사하강법(Stochastic Gradient Descent method), 모멘텀법(Momentum method), AdaGrad법 그리고 Adadelta법의 특성에 대하여 분석하였다. 실험 데이터는 신경망을 검증하는 데 널리 사용되는 MNIST 데이터 셋을 사용하였다. 은닉층은 2개의 층으로 첫 번째 층은 500개 그리고 두 번째 층은 300개의 뉴런으로 구성하였다. 출력 층의 활성화함수는 소프트 맥스함수이고 나머지 입력 층과 은닉 층의 활성화함수는 ReLu함수를 사용하였다. 그리고 손실함수는 교차 엔트로피 오차를 사용하였다.

An Application of the Clustering Threshold Gradient Descent Regularization Method for Selecting Genes in Predicting the Survival Time of Lung Carcinomas

  • Lee, Seung-Yeoun;Kim, Young-Chul
    • Genomics & Informatics
    • /
    • 제5권3호
    • /
    • pp.95-101
    • /
    • 2007
  • In this paper, we consider the variable selection methods in the Cox model when a large number of gene expression levels are involved with survival time. Deciding which genes are associated with survival time has been a challenging problem because of the large number of genes and relatively small sample size (n<

확산텐서자기공명영상에서 수정된 기울기강하법을 이용한 텐서 중간값 필터에 관한 연구 (A Study on the Tensor-Valued Median Filter Using the Modified Gradient Descent Method in DT-MRI)

  • 김성희;권기운;박인성;한봉수;김동윤
    • 대한의용생체공학회:의공학회지
    • /
    • 제28권6호
    • /
    • pp.817-824
    • /
    • 2007
  • Tractography using Diffusion Tensor Magnetic Resonance Imaging (DT-MRI) is a method to determine the architecture of axonal fibers in the central nervous system by computing the direction of the principal eigenvector in the white matter of the brain. However, the fiber tracking methods suffer from the noise included in the diffusion tensor images that affects the determination of the principal eigenvector. As the fiber tracking progresses, the accumulated error creates a large deviation between the calculated fiber and the real fiber. This problem of the DT-MRI tractography is known mathematically as the ill-posed problem which means that tractography is very sensitive to perturbations by noise. To reduce the noise in DT-MRI measurements, a tensor-valued median filter which is reported to be denoising and structure-preserving in fiber tracking, is applied in the tractography. In this paper, we proposed the modified gradient descent method which converges fast and accurately to the optimal tensor-valued median filter by changing the step size. In addition, the performance of the modified gradient descent method is compared with others. We used the synthetic image which consists of 45 degree principal eigenvectors and the corticospinal tract. For the synthetic image, the proposed method achieved 4.66%, 16.66% and 15.08% less error than the conventional gradient descent method for error measures AE, AAE, AFA respectively. For the corticospinal tract, at iteration number ten the proposed method achieved 3.78%, 25.71 % and 11.54% less error than the conventional gradient descent method for error measures AE, AAE, AFA respectively.

퍼셉트론 형태의 LVQ : LVQ의 일반화 (Perceptron-like LVQ : Generalization of LVQ)

  • 송근배;이행세
    • 전자공학회논문지CI
    • /
    • 제38권1호
    • /
    • pp.1-6
    • /
    • 2001
  • 본 논문에서는 Hebb 학습법에 기초한 Kohonen의 LVQ 학습법을 퍼셉트론 학습에 사용되는 경도 강하 (Gradient descent) 학습법에 의해 재해석한다. Kohonen의 LVQ는 학습법에 따라 두 가지로 나뉠 수 있는데 하나는 자율학습 LVQ(ULVQ)이며 다른 하나는 타율학습 LVQ(SLVQ)이다. 두 경우 모두 출력뉴런의 목표 값을 적당히 생성할 경우 타율학습 경도 강하학습법으로 표현될 수 있다. 결과적으로 LVQ학습법은 타율학습 경도 강하 학습법의 특수한 형태임을 알 수 있으며 또한 LVQ는 보다 일반화된 '퍼셉트론 형태의 LVQ(PLVQ)'알고리즘으로 표현될 수 있음을 알 수 있다. 본 논문에서는 이를 증명하고 결론을 맺는다.

  • PDF

점진적 하강 방법을 이용한 속성값 기반의 가중치 계산방법 (Gradient Descent Approach for Value-Based Weighting)

  • 이창환;배주현
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.381-388
    • /
    • 2010
  • 나이브 베이시안 알고리즘은 데이터 마이닝의 여러 분야에서 적용되고 있으며 좋은 성능을 보여주고 있다. 하지만 이 학습 방법은 모든 속성의 가중치가 동일하다는 가정을 하고 있으며 이러한 가정으로 인하여 가끔 정확도가 떨어지는 현상이 발생한다. 이러한 문제를 보완하기 위하여 나이브 베이시안에서 속성의 가중치를 조절하는 다수의 연구가 제안되어 이러한 단점을 보완하고 있다. 본 연구에서는 나이브 베이시안 학습에서 기존의 속성에 가중치를 부여하는 방식에서 한걸음 나아가 속성의 값에 가중치를 부여하는 새로운 방식을 연구하였다. 이러한 속성값의 가중치를 계산하기 위하여 점진적 하강(gradient descent) 방법을 이용하여 가중치를 계산하는 방식을 제안하였다. 제안된 알고리즘은 다수의 데이터를 이용하여 속성 가중치 방식과 비교하였고 대부분의 경우에 더 좋은 성능을 제공함을 알 수 있었다.

Hybrid Fuzzy Adaptive Control of LEGO Robots

  • Vaseak, Jan;Miklos, Marian
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제2권1호
    • /
    • pp.65-69
    • /
    • 2002
  • The main drawback of “classical”fuzzy systems is the inability to design and maintain their database. To overcome this disadvantage many types of extensions adding the adaptivity property to those systems were designed. This paper deals with one of them a new hybrid adaptation structure, called gradient-incremental adaptive fuzzy controller connecting gradient-descent methods with the so-called self-organizing fuzzy logic controller designed by Procyk and Mamdani. The aim is to incorporate the advantages of both Principles. This controller was implemented and tested on the system of LEGO robots. The results and comparison to a ‘classical’(non-adaptive) fuzzy controller designed by a human operator are also shown here.

FCM 클러스터링 알고리즘에 기초한 퍼지 모델링 (Fuzzy Modeling based on FCM Clustering Algorithm)

  • 윤기찬;오성권
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.373-373
    • /
    • 2000
  • In this paper, we propose a fuzzy modeling algorithm which divides the input space more efficiently than convention methods by taking into consideration correlations between components of sample data. The proposed fuzzy modeling algorithm consists of two steps: coarse tuning, which determines consequent parameters approximately using FCRM clustering method, and fine tuning, which adjusts the premise and consequent parameters more precisely by gradient descent algorithm. To evaluate the performance of the proposed fuzzy mode, we use the numerical data of nonlinear function.

  • PDF

심층 신경망 병렬 학습 방법 연구 동향 (A survey on parallel training algorithms for deep neural networks)

  • 육동석;이효원;유인철
    • 한국음향학회지
    • /
    • 제39권6호
    • /
    • pp.505-514
    • /
    • 2020
  • 심층 신경망(Deep Neural Network, DNN) 모델을 대량의 학습 데이터로 학습시키기 위해서는 많은 시간이 소요되기 때문에 병렬 학습 방법이 필요하다. DNN의 학습에는 일반적으로 Stochastic Gradient Descent(SGD) 방법이 사용되는데, SGD는 근본적으로 순차적인 처리가 필요하므로 병렬화하기 위해서는 다양한 근사(approximation) 방법을 적용하게 된다. 본 논문에서는 기존의 DNN 병렬 학습 알고리즘들을 소개하고 연산량, 통신량, 근사 방법 등을 분석한다.

실측 철도 진동 데이터베이스를 이용한 철도진동 평가 시스템 개발 (Development of Railway Vibration Evaluation System Using Actual Railway Vibration Database)

  • 이현준;서은성;황영섭
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권4호
    • /
    • pp.153-162
    • /
    • 2019
  • 최근 철도소음으로 인해 발생하는 궤도 주변 구조물의 민원 방지와 궤도 주변 산업단지의 초정밀 장비들의 정상적인 운영을 위해 철도 진동을 정량적으로 평가할 수 있는 기술개발이 필요하다. 기존의 해석적인 방법은 매우 복잡한 동적 응답 모델이 요구되며, 요구 모델의 부정확성으로 인한 결과의 신뢰성을 확보하기 어려운 문제가 있다. 따라서, 본 논문에서는 철도 진동에 영향을 주는 요소들을 분류한 국내 철도진동 실측 데이터베이스를 기반으로 Linear Regression, Gradient Descent 기법을 이용해 철도 운행으로부터 발생되는 진동값을 추론하는 철도진동 평가 알고리즘 및 시스템을 제안한다. 제안된 알고리즘으로 얻은 추론결과는 기존의 해석적 방법에 비해 높은 효율성과 정확성을 보인다.