• 제목/요약/키워드: Activation Functions

검색결과 665건 처리시간 0.027초

민첩한 활성함수를 이용한 합성곱 신경망의 성능 향상 (Performance Improvement Method of Convolutional Neural Network Using Agile Activation Function)

  • 공나영;고영민;고선우
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제9권7호
    • /
    • pp.213-220
    • /
    • 2020
  • 합성곱 신경망은 합성곱층과 완전연결층으로 구성되어 있다. 합성곱층과 완전연결층의 각 층에서는 비선형 활성함수를 사용하고 있다. 활성함수는 뉴런 간에 신호를 전달할 때 입력신호가 일정 기준 이상이면 신호를 전달하고 기준에 도달하지 못하면 신호를 보내지 않을 수 있는 뉴런의 정보전달 방법을 모사하는 함수이다. 기존의 활성함수는 손실함수와 관계성을 가지고 있지 않아 최적해를 찾아가는 과정이 늦어지는 점을 개선하기 위해 활성함수를 일반화한 민첩한 활성함수를 제안하였다. 민첩한 활성함수의 매개변수는 역전파 과정에서, 매개변수에 대한 손실함수의 1차 미분계수를 이용한 학습과정을 통해 최적의 매개변수를 선택하는 방법으로 손실함수를 감소시킴으로써 심층신경망의 성능을 향상시킬 수 있다. MNIST 분류문제를 통하여 민첩한 활성함수가 기존의 활성함수에 비해 우월한 성능을 가짐을 확인하였다.

파라메트릭 활성함수를 이용한 기울기 소실 문제의 완화 (Alleviation of Vanishing Gradient Problem Using Parametric Activation Functions)

  • 고영민;고선우
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권10호
    • /
    • pp.407-420
    • /
    • 2021
  • 심층신경망은 다양한 문제를 해결하는데 널리 사용되고 있다. 하지만 은닉층이 깊은 심층신경망을 학습하는 동안 빈번히 발생하는 기울기 소실 또는 폭주 문제는 심층신경망 학습의 큰 걸림돌이 되고 있다. 본 연구에서는 기울기 소실이 발생하는 원인 중 비선형활성함수에 의해 발생할 수 있는 기울기 소실 문제를 완화하기 위해 파라메트릭 활성함수를 제안한다. 제안된 파라메트릭 활성함수는 입력 데이터의 특성에 따라 활성함수의 크기 및 위치를 변환시킬 수 있는 파라미터를 적용하여 얻을 수 있으며 역전파과정을 통해 활성함수의 미분 크기에 제한이 없는 손실함수를 최소화되도록 학습시킬 수 있다. 은닉층 수가 10개인 XOR문제와 은닉층 수가 8개인 MNIST 분류문제를 통하여 기존 비선형활성함수와 파라메트릭활성함수의 성능을 비교하였고 제안한 파라메트릭 활성함수가 기울기 소실 완화에 우월한 성능을 가짐을 확인하였다.

The Effector Functions of Mature T Lymphocytes Are Impaired in Transgenic Mice Expressing the SH2 Domain of TSAd/Lad

  • Choi, Youngbong;Park, Eunkyung;Ahn, Eunseon;Park, Inyoung;Yun, Yungdae
    • Molecules and Cells
    • /
    • 제28권3호
    • /
    • pp.183-188
    • /
    • 2009
  • TSAd/Lad is a T cell adaptor molecule involved in $p56^{lck}$-mediated T cell activation. To investigate the functions of TSAd in T cells, we generated transgenic (TG) mice expressing the SH2 domain of TSAd (TSAd-SH2) under the control of the $p56^{lck}$ proximal promoter. In T cells from TSAd-SH2 TG mice, T cell receptor (TCR)-mediated early signaling events, such as $Ca^{2+}$ flux and ERK activation, were normal; however, late activation events, such as IL-2 production and proliferation, were significantly reduced. Moreover, TCR-induced cell adhesion to extracellular matrix (ECM) proteins and migration through ECM proteins were defective in T cells from TSAd-SH2 TG mice. Furthermore, the contact hypersensitivity (CHS) reaction, an inflammatory response mainly mediated by T helper 1 (Th1) cells, was inhibited in TSAd-SH2 TG mice. Taken together, these results show that TSAd, particularly the SH2 domain of TSAd, is essential for the effector functions of T cells.

코사인 모듈화 된 가우스 활성화 함수를 사용한 캐스케이드 코릴레이션 학습 알고리즘의 성능 향상 (An Improvement of Performance for Cascade Correlation Learning Algorithm using a Cosine Modulated Gaussian Activation Function)

  • 이상화;송해상
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.107-115
    • /
    • 2006
  • 본 논문에서는 캐스케이드 코릴레이션 학습 알고리즘을 위한 새로운 클래스의 활성화 함수를 소개한다. 이 함수는 코사인으로 모듈화된 가우스 함수로서 편의상 이 활성화 함수를 코스가우스(CosGauss) 함수라고 칭하기로 한다. 이 함수는 기존의 시그모이드 함수(sigmoidal function), 하이퍼볼릭탄젠트 함수(hyperbolic tangent function), 가우스 함수(gaussian function)에 비해서 등성이(ridge)를 더 많이 얻을 수 있다. 이러한 등성이들로 인하여 빠른 속도로 수렴하고 패턴인식 속도를 향상 시켜서 학습 능력을 향상시킬 수 있다. 캐스케이드 코릴레이션 네트워크에 이 활성화 함수를 사용하여 중요한 기준 문제(benchmark problem)의 하나인 이중나선 문제(two spirals problem)에 대하여 실험하여 다른 활성화 함수들과 결과 값을 비교하였다.

  • PDF

A Binary Classifier Using Fully Connected Neural Network for Alzheimer's Disease Classification

  • Prajapati, Rukesh;Kwon, Goo-Rak
    • Journal of Multimedia Information System
    • /
    • 제9권1호
    • /
    • pp.21-32
    • /
    • 2022
  • Early-stage diagnosis of Alzheimer's Disease (AD) from Cognitively Normal (CN) patients is crucial because treatment at an early stage of AD can prevent further progress in the AD's severity in the future. Recently, computer-aided diagnosis using magnetic resonance image (MRI) has shown better performance in the classification of AD. However, these methods use a traditional machine learning algorithm that requires supervision and uses a combination of many complicated processes. In recent research, the performance of deep neural networks has outperformed the traditional machine learning algorithms. The ability to learn from the data and extract features on its own makes the neural networks less prone to errors. In this paper, a dense neural network is designed for binary classification of Alzheimer's disease. To create a classifier with better results, we studied result of different activation functions in the prediction. We obtained results from 5-folds validations with combinations of different activation functions and compared with each other, and the one with the best validation score is used to classify the test data. In this experiment, features used to train the model are obtained from the ADNI database after processing them using FreeSurfer software. For 5-folds validation, two groups: AD and CN are classified. The proposed DNN obtained better accuracy than the traditional machine learning algorithms and the compared previous studies for AD vs. CN, AD vs. Mild Cognitive Impairment (MCI), and MCI vs. CN classifications, respectively. This neural network is robust and better.

Fire resistance prediction of slim-floor asymmetric steel beams using single hidden layer ANN models that employ multiple activation functions

  • Asteris, Panagiotis G.;Maraveas, Chrysanthos;Chountalas, Athanasios T.;Sophianopoulos, Dimitrios S.;Alam, Naveed
    • Steel and Composite Structures
    • /
    • 제44권6호
    • /
    • pp.769-788
    • /
    • 2022
  • In this paper a mathematical model for the prediction of the fire resistance of slim-floor steel beams based on an Artificial Neural Network modeling procedure is presented. The artificial neural network models are trained and tested using an analytical database compiled for this purpose from analytical results based on FEM. The proposed model was selected as the optimum from a plethora of alternatives, employing different activation functions in the context of Artificial Neural Network technique. The performance of the developed model was compared against analytical results, employing several performance indices. It was found that the proposed model achieves remarkably improved predictions of the fire resistance of slim-floor steel beams. Moreover, based on the optimum developed AN model a closed-form equation for the estimation of fire resistance is derived, which can prove a useful tool for researchers and engineers, while at the same time can effectively support the teaching of this subject at an academic level.

활성함수 변화에 따른 초해상화 모델 성능 비교 (A Performance Comparison of Super Resolution Model with Different Activation Functions)

  • 유영준;김대희;이재구
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제9권10호
    • /
    • pp.303-308
    • /
    • 2020
  • ReLU(Rectified Linear Unit) 함수는 제안된 이후로 대부분의 깊은 인공신경망 모델들에서 표준 활성함수로써 지배적으로 사용되었다. 이후에 ReLU를 대체하기 위해 Leaky ReLU, Swish, Mish 활성함수가 제시되었는데, 이들은 영상 분류 과업에서 기존 ReLU 함수 보다 향상된 성능을 보였다. 따라서 초해상화(Super Resolution) 과업에서도 ReLU를 다른 활성함수들로 대체하여 성능 향상을 얻을 수 있는지 실험해볼 필요성을 인지하였다. 본 연구에서는 초해상화 과업에서 안정적인 성능을 보이는 EDSR(Enhanced Deep Super-Resolution Network) 모델에 활성함수들을 변경하면서 성능을 비교하였다. 결과적으로 EDSR의 활성함수를 변경하면서 진행한 실험에서 해상도를 2배로 변환하는 경우, 기존 활성함수인 ReLU가 실험에 사용된 다른 활성함수들 보다 비슷하거나 높은 성능을 보였다. 해상도를 4배로 변환하는 경우에서는 Leaky ReLU와 Swish 함수가 기존 ReLU 함수 대비 다소 향상된 성능을 보임을 확인하였다. Leaky ReLU를 사용했을 때 기존 ReLU보다 영상의 품질을 정량적으로 평가할 수 있는 PSNR과 SSIM 평가지표가 평균 0.06%, 0.05%, Swish를 사용했을 때는 평균 0.06%, 0.03%의 성능 향상을 확인할 수 있었다. 또한 해상도를 8배로 변환하는 경우에서는 Mish 함수가 기존 ReLU 함수 대비 다소 향상된 성능을 보임을 확인하였다. Mish를 사용했을 때 기존 ReLU보다 PSNR과 SSIM 평가지표가 평균 0.06%, 0.02%의 성능 향상을 확인할 수 있었다. 결론적으로 해상도를 4배로 변환하는 초해상화의 경우는 Leaky ReLU와 Swish가, 해상도를 8배로 변환하는 초해상화의 경우는 Mish가 ReLU 대비 향상된 성능을 보였다. 향후 연구에서는 다른 초해상화 모델에서도 성능 향상을 위해 활성함수를 Leaky ReLU, Swish, Mish로 대체하는 비교실험을 수행하는 것도 필요하다고 판단된다.

활성화 함수 근사를 통한 지수함수 기반 신경망 마스킹 기법 (Masking Exponential-Based Neural Network via Approximated Activation Function)

  • 김준섭;김규상;박동준;박수진;김희석;홍석희
    • 정보보호학회논문지
    • /
    • 제33권5호
    • /
    • pp.761-773
    • /
    • 2023
  • 본 논문에서는 딥러닝 분야에서 사용되는 신경망 모델, 그중에서도 다중 계층 퍼셉트론 모델에 사용되는 지수함수 기반의 활성화 함수를 근사 함수로 대체하고, 근사 함수에 마스킹을 적용함으로써 신경망 모델의 추론 과정의 전력 분석 저항성을 높이는 방법을 제안한다. 이미 학습된 값을 사용하여 연산하는 인공 신경망의 추론 과정은 그 특성상 가중치나 편향 등의 내부 정보가 부채널 공격에 노출될 위험성이 있다. 다만 신경망 모델의 활성화 함수 계층에서는 매우 다양한 함수를 사용하고, 특히 지수함수 기반의 활성화 함수에는 마스킹 기법 등 통상적인 부채널 대응기법을 적용하기가 어렵다. 따라서 본 연구에서는 지수함수 기반의 활성화 함수를 단순한 형태로 근사하여도 모델의 치명적인 성능 저하가 일어나지 않음을 보이고, 근사 함수에 마스킹을 적용함으로써 전력 분석으로부터 안전한 순방향 신경망 모델을 제안하고자 한다.

장기요양서비스 수급 후기노인의 인지향상 프로그램 중재 효과 (Effects of a Cognition Activation Program for the Institutionalized Old-Old in Korea)

  • 이홍자;이도현
    • 지역사회간호학회지
    • /
    • 제24권4호
    • /
    • pp.427-437
    • /
    • 2013
  • Purpose: This study was conducted to test effects of a cognition activation program on ADL, cognitive functions, depression, and QOL in the institutionalized elderly. Methods: The subjects were 40 elders who were admitted to a nursing home, with 20 of them in the experimental group and the other 20 in the control group. Data were collected from September 1 to December 17, 2012. The experimental group participated in a 12 week intervention program. ADL, cognitive functions, depression, and QOL were measured before and after the intervention. Data were analyzed by t-test and regression analysis of the SPSS and AMOS programs. Results: ADL (t=2.468, p=.017), depression (t=-2.625, p=012), and QOL (t=2.428, p=.020) were more significantly improved in the experimental group than in the control group, but there were no statistical differences in cognitive function between the two groups. Cognitive functions had positive effects on ADL (CR=-2.263, p=.024) and depression affected QOL (CR=-7.248, p<.001). Conclusion: The intervention program had positive effects on ADL, depression, and QOL except cognition. Cognitive functions of elders dramatically decrease after age 85, and it takes too much time to improve it. Therefore the program for the improvement of cognitive functions should be provided as early as possible.

Design of a Pseudo Gaussian Function Network Using Asymmetric Activation Functions

  • Kim, Byung-Man;Cho, Hyung-Suck
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.43.3-43
    • /
    • 2001
  • In conventional RBF network, the activation functions of hidden layers generally are symmetric functions like gaussian function. This has been considered to be one of the limiting factors for the network to speed up learning of actuately describing a given function. To avoid this criticism, we propose a pseudo gaussian function (PGF) whose deviation is changed according to the direction of incoming pattern. This property helps to estimate the given function more effectively with a minimal number of centers because of its flexibility of functional representation. A level set method is used to describe the asymmetric shape of deviation of the pseudo gaussian function. To demonstrate the performance of the proposed network ...

  • PDF