• 제목/요약/키워드: hidden layer

검색결과 511건 처리시간 0.023초

Pi-Sigma 신경 회로망을 이용한 로봇의 역 보정 (The Robot Inverse Calibration Using a Pi-Sigma Neural Networks)

  • 정재원;김수현;곽윤근
    • 한국정밀공학회지
    • /
    • 제14권12호
    • /
    • pp.86-94
    • /
    • 1997
  • This paper proposes the robot inverse calibration method using a neural networks. A high-order networks called Pi-Sigma networks has been used. The Pi-Sigma networks uses linear summing units in the hidden layer and product unit in output layer. The inverse calibration model which compensates the diff- erence of joint variables only between measuring value and analytic value about the desired pose(position, orientation) of a robot is proposed. The compensated values are determined by using the weights obtained from the learning process of the neural networks previously. To prove the reasonableness, the SCARA type direct drive robot(4-DOF) and anthropomorphic robot(6-DOF) are simulated. It shows that the proposed calibration method can reduce the errors of the joint variables from .+-. 5 .deg. to .+-. 0.1 .deg. .

  • PDF

인공신경망을 이용한 선박의 자동접안 제어에 관한 연구 (A Study of the Automatic Berthing System of a Ship Using Artificial Neural Network)

  • 배철한;이승건;이상의;김주한
    • 한국항해항만학회지
    • /
    • 제32권8호
    • /
    • pp.589-596
    • /
    • 2008
  • 선박의 접안운동을 자동화하기 위하여 인공신경망(Artificial Neural Network, 이하 ANN)에 의한 제어를 수행하였다. ANN은 시스템의 비선형성이 표현 가능하므로 접안운동과 같은 비선형성이 강한 조종운동에 적합하다. 입력층과 출력층 사이에 하나 이상의 중간층이 존재하는 다층 인식자(Multi-layer perceptron)를 사용하였고, 교사 데이터(Teaching data)와 역전파(Back-Propagation) 알고리즘을 사용하여 신경망의 출력값과 목표 출력값 사이의 오차가 최소가 되도록 신경망 학습을 수행하였다. 접안 시 저속조종 수학모델을 사용하여 접안 시뮬레이션을 수행하였으며, ANN의 입력층 성분(unit)이 8개인 구조와 6개인 구조의 접안 제어를 비교하였다. 시뮬레이션 결과, 두 ANN에 의하여 접안 경로 선택에 차이가 나타났으나 접안 조건은 모두 만족하였다.

최적화된 pRBF 뉴럴 네트워크에 의한 정적 상황 인지 시스템에 관한 연구 (A Study on Static Situation Awareness System with the Aid of Optimized Polynomial Radial Basis Function Neural Networks)

  • 오성권;나현석;김욱동
    • 전기학회논문지
    • /
    • 제60권12호
    • /
    • pp.2352-2360
    • /
    • 2011
  • In this paper, we introduce a comprehensive design methodology of Radial Basis Function Neural Networks (RBFNN) that is based on mechanism of clustering and optimization algorithm. We can divide some clusters based on similarity of input dataset by using clustering algorithm. As a result, the number of clusters is equal to the number of nodes in the hidden layer. Moreover, the centers of each cluster are used into the centers of each receptive field in the hidden layer. In this study, we have applied Fuzzy-C Means(FCM) and K-Means(KM) clustering algorithm, respectively and compared between them. The weight connections of model are expanded into the type of polynomial functions such as linear and quadratic. In this reason, the output of model consists of relation between input and output. In order to get the optimal structure and better performance, Particle Swarm Optimization(PSO) is used. We can obtain optimized parameters such as both the number of clusters and the polynomial order of weights connection through structural optimization as well as the widths of receptive fields through parametric optimization. To evaluate the performance of proposed model, NXT equipment offered by National Instrument(NI) is exploited. The situation awareness system-related intelligent model was built up by the experimental dataset of distance information measured between object and diverse sensor such as sound sensor, light sensor, and ultrasonic sensor of NXT equipment.

신경회로망을 이용한 음성인식과 그 학습 (Speech Recognition and Its Learning by Neural Networks)

  • 이권현
    • 한국통신학회논문지
    • /
    • 제16권4호
    • /
    • pp.350-357
    • /
    • 1991
  • 본 논문에서는 전화번호 서비스시 사용되고 있는 영(zero)에서 일까지의 2종류의 숫자음(한글발음의 셈수와 한자발음의 읽음수) 22개에 대하여 신경회로망을 이용한 음성인식 실험의 결과와 학습과정에서 나타난 제 현상에 관해 논하였다. 신경회로망은 입력단과 출력단만을 갖는 2단구조와 한 개의 은익단을 갖는 3단구조의 회로망으로 은익단의 뉴론(Neuron) 수를 11, 12 및 44개로 가변해 가면서 BP(Back-Propagation) 알고리즘에 의하여 학습하였고 학습과정에서는 학습팩터(Learning factor), 학습방법(예로써 Random or Cycle), 모멘텀(Momentum)등을 조정해 가면서 최적의 학습과정을 찾고자 하였다. 실험결과 2단구조에 의한 화자독립의 경우 최고 96%의 인식율을 나타냈고 학습과정이 너무 많을 경우 오히려 인식율이 낮아졌으며 이 현상은 3단구조의 회로망에서 더욱 두드러지게 나타났다.

  • PDF

딥러닝을 위한 경사하강법 비교 (Comparison of Gradient Descent for Deep Learning)

  • 강민제
    • 한국산학기술학회논문지
    • /
    • 제21권2호
    • /
    • pp.189-194
    • /
    • 2020
  • 본 논문에서는 신경망을 학습하는 데 가장 많이 사용되고 있는 경사하강법에 대해 분석하였다. 학습이란 손실함수가 최소값이 되도록 매개변수를 갱신하는 것이다. 손실함수는 실제값과 예측값의 차이를 수치화 해주는 함수이다. 경사하강법은 오차가 최소화되도록 매개변수를 갱신하는데 손실함수의 기울기를 사용하는 것으로 현재 최고의 딥러닝 학습알고리즘을 제공하는 라이브러리에서 사용되고 있다. 그러나 이 알고리즘들은 블랙박스형태로 제공되고 있어서 다양한 경사하강법들의 장단점을 파악하는 것이 쉽지 않다. 경사하강법에서 현재 대표적으로 사용되고 있는 확률적 경사하강법(Stochastic Gradient Descent method), 모멘텀법(Momentum method), AdaGrad법 그리고 Adadelta법의 특성에 대하여 분석하였다. 실험 데이터는 신경망을 검증하는 데 널리 사용되는 MNIST 데이터 셋을 사용하였다. 은닉층은 2개의 층으로 첫 번째 층은 500개 그리고 두 번째 층은 300개의 뉴런으로 구성하였다. 출력 층의 활성화함수는 소프트 맥스함수이고 나머지 입력 층과 은닉 층의 활성화함수는 ReLu함수를 사용하였다. 그리고 손실함수는 교차 엔트로피 오차를 사용하였다.

출력기반 적응제어기법을 이용한 틸트로터 항공기의 회전익 모드 설계연구 (Flight Control of Tilt-Rotor Airplane In Rotary-Wing Mode Using Adaptive Control Based on Output-Feedback)

  • 하철근;임재형
    • 한국항공우주학회지
    • /
    • 제38권3호
    • /
    • pp.228-235
    • /
    • 2010
  • 본 논문에서는 틸트로터 항공기의 회전익 모드에 대한 자율비행 유도제어 알고리즘을 적응제어기법을 이용하여 설계하는 것이다. 이를 위해 우선 출력기반 근사적 궤환선형화 기법을 통하여 알고리즘의 내부루프를 구성하고 그로부터 발생하는 모델오차를 단일 은닉층-신경망을 적용하여 상쇄하였다. 그리고 리아푸노프 안정성 이론에 따른 적응제어 갱신법칙은 선형 관측기를 기반으로 설계하였다. 나아가 외부루프는 경로점 유도법칙으로부터 생성되는 궤적을 추종하도록 하였으며 특히 엄밀한 자동착륙 궤적추종 성능 향상을 위하여 방향각 및 비행경로각 시선유도법칙을 설계하였다. 틸트로터 비선형 모델 시뮬레이션 결과는 콜렉티브 입력에서 보이는 순간적인 작동기 포화현상 이외에는 만족할 만한 안정성과 추종성능을 보여 주고 있다.

RBFN을 이용한 Bayesian Equalizer에서의 비선형 다층 결합 기법 (Nonlinear Multilayer Combining Techniques in Bayesian Equalizer Using Radial Basis Function Network)

  • 최수용;고균병;홍대식
    • 한국통신학회논문지
    • /
    • 제28권5C호
    • /
    • pp.452-460
    • /
    • 2003
  • 본 논문에서는 optimal Bayesian equalization solution인 RBF(radial basis function)를 이용한 등화기 (RE)의 구조를 보다 단순화하고, 비선형 왜곡 등의 심각한 정보 신호의 손상에 대한 보상 능력을 향상시키기 위하여 비선형 다층 결합을 갖는 RBF측 이용한 등화기(RNE)를 새로이 제안한다. 기존의 RE는 RBF로 구성된 은닉층의 출력 값을 선형 결합하여 등화기 출력을 얻는다. 이와 달리 새로이 제안하는 RNE는 기존의 RE에서 RBF로 구성된 은닉층의 출력 값에 대한 결합 기법으로 perceptron을 이용한 비선형 다층 결합을 사용한다. 제안한 equalizer를 결정궤환 방식이 있는 경우와 없는 경우의 등화기로 각각 구현한다. 실험 결과 제안한 등화기는 선형 간섭이 존재하는 디지털 통신 시스템과 비선형 왜곡이 존재하는 자기기록 시스템에서보다 간단한 구조로 기존의 optimal Bayesian 등화기와 거의 같거나 우수한 비트 오류 화률 성능 및 MSE(men squared error) 수렴 특성을 나타내었다.

NS-2에서 IEEE 802.11의 Busy-tone PHY 모듈 설계 및 구현 (Busy-tone PHY Module with IEEE 802.11 Design and Implementation in NS-2)

  • 유대훈;최웅철
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권7호
    • /
    • pp.189-197
    • /
    • 2008
  • NS-2 시뮬레이터는 가장 널리 사용되고 있는 유/무선 통신 시뮬레이터이다. IEEE 802.11 모듈이 NS-2로 구현된 이후, 많은 연구원들이 이것을 이용하여 다양한 MAC 계층 메커니즘에 대한 연구가 진행되었다. 이러한 연구에서 성능 상의 이슈로 가장 중요한 문제는 hidden terminal 문제이다. 그리고 이 문제를 해결을 하기 위해 Busy-tone를 이용하는 BTMA(Busy-tone Multiple Access) DBTMA(Dual Busy-tone Multiple Access) 등과 같은 방법들이 제안되었다. 이러한 Bust-tone을 사용하기 위해서는 충돌 방지를 위해 데이터 채널 이외의 주파수 대역을 사용하는 채널이 필요하며 다수개의 채널은 하나의 MAC 계층에서 관리 될 수 있어야 한다. 본 논문에서는 최신 버전의 NS-2에서 제공되는 IEEE 802.11 모듈을 이용하여 Busy-tone PHY 모듈을 구현하였고 이 모듈을 적용한 수정된 RI-BTMA를 구현하고 성능을 검증하였다.

  • PDF

주성분 분석법과 선형판별 분석법을 이용한 최적화된 방사형 기저 함수 신경회로망 분류기의 설계 (Design of Optimized Radial Basis Function Neural Networks Classifier with the Aid of Principal Component Analysis and Linear Discriminant Analysis)

  • 김욱동;오성권
    • 한국지능시스템학회논문지
    • /
    • 제22권6호
    • /
    • pp.735-740
    • /
    • 2012
  • 본 연구에서는 주성분 분석법 및 선형 판별 분석법을 이용한 다항식 방사형 기저 함수 신경회로망 분류기의 설계 방법론을 소개한다. 주성분 분석법과 선형판별 분석법을 사용하여 주어진 데이터의 정보 손실을 최소화한 특징데이터를 생성하고 이를 다항식 방사형 기저함수 신경회로망의 입력데이터로 사용한다. 방사형 기저 함수 신경회로망의 은닉층은 FCM 클러스터링 알고리즘으로 구성되며 연결가중치는 1차 선형식을 사용하였다. 최적의 분류기 설계를 위해서 최근에 제안된 Artificial Bee Colony(ABC) 최적화 알고리즘을 사용하여 구조 및 파라미터를 동조하였다. ABC 알고리즘을 통해 주성분 분석법과 선형판별 분석법의 고유벡터의 수 및 FCM 클러스터링 알고리즘의 퍼지화 계수등의 파라미터를 동조한다. 제안된 분류기는 대표적인 Machine Learning(ML) 데이터를 사용하여 성능을 평가하며 기존 분류기와 성능을 비교한다.

터커 분해 및 은닉층 병렬처리를 통한 임베디드 시스템의 다중 DNN 가속화 기법 (Multi-DNN Acceleration Techniques for Embedded Systems with Tucker Decomposition and Hidden-layer-based Parallel Processing)

  • 김지민;김인모;김명선
    • 한국정보통신학회논문지
    • /
    • 제26권6호
    • /
    • pp.842-849
    • /
    • 2022
  • 딥러닝 기술의 발달로 무인 자동차, 드론, 로봇 등의 임베디드 시스템 분야에서 DNN을 활용하는 사례가 많아지고 있다. 대표적으로 자율주행 시스템의 경우 정확도가 높고 연산량이 큰 몇 개의 DNN들을 동시에 수행하는 것이 필수적이다. 하지만 상대적으로 낮은 성능을 갖는 임베디드 환경에서 다수의 DNN을 동시에 수행하면 추론에 걸리는 시간이 길어진다. 이러한 현상은 추론 결과에 따른 동작이 제때 이루어지지 않아 비정상적인 기능을 수행하는 문제를 발생시킬 수 있다. 이를 해결하기 위하여 본 논문에서 제안한 솔루션은 먼저 연산량이 큰 DNN에 터커 분해 기법을 적용하여 연산량을 감소시킨다. 그다음으로 DNN 모델들을 GPU 내부에서 은닉층 단위로 최대한 병렬적으로 수행될 수 있게 한다. 실험 결과 DNN의 추론 시간이 제안된 기법을 적용하기 전 대비 최대 75.6% 감소하였다.