• 제목/요약/키워드: Recurrent neural network(RNN)

검색결과 226건 처리시간 0.028초

Hybrid 리커런트 신경망을 이용한 시스템 식별 (System Identification Using Hybrid Recurrent Neural Networks)

  • 최한고;고일환;김종인
    • 융합신호처리학회논문지
    • /
    • 제6권1호
    • /
    • pp.45-52
    • /
    • 2005
  • 동적 신경망은 temporal 신호처리가 요구되는 여러 분야에 사용되어 왔다. 본 논문에서는 다층 리커런트 신경망(RNN)의 동특성을 더 향상시키기 위해 지역 궤환 신경망(LRNN)과 광역 궤환 신경망(GRNN)으로 구성된 합성 신경망을 사용하여 시스템 식별을 다루고 있다. 합성 신경망의 구조는 LRNN으로 IIR-MLP를, GRNN으로 Elman RNN을 결합하고 있다. 합성신경망은 선형과 비선형 시스템 식별을 통해 평가되었으며 상대적인 성능평가를 위해 Elman RNN과 IIR-MLP 신경망과 비교하고 있다. 시뮬레이션 결과에 의하면 합성 신경망은 학습속도와 정확도에서 더 우수하게 동작하였으며, 이러한 사실은 비선형 시스템 식별에 있어서 합성 신경망이 기존의 다층 리커런트 신경망보다 더 효과적인 신경망이 될 수 있음을 보여주었다.

  • PDF

지역 및 광역 리커런트 신경망을 이용한 비선형 적응예측 (Nonlinear Adaptive Prediction using Locally and Globally Recurrent Neural Networks)

  • 최한고
    • 대한전자공학회논문지SP
    • /
    • 제40권1호
    • /
    • pp.139-147
    • /
    • 2003
  • 동적 신경망은 신호예측과 같이 temporal 신호처리가 요구되는 여러 분야에 적용되어 왔다. 본 논문에서는 다층 리커런트 신경망(RNN)의 동특성을 향상시키기 위해 지역 궤환 신경망(LRNN)과 광역 궤환 신경망(CRNN)으로 구성된 합성 신경망을 제안하고, 적응필터로 제안된 신경망을 사용하여 비선형 적응예측을 다루고 있다. 합성 신경망은 LRNN으로 IIR-MLP와 CRNN으로 Elman RNN 신경망으로 구성되어 있다. 제안된 신경망은 비선형 신호예측을 통해 평가되었으며, 예측 성능의 상대적인 비교를 위해 Elman RNN과 IIR-MLP 신경망과 상호 비교하였다. 실험결과에 의하면 합성 신경망은 수렴속도과 정확도에서 더 우수한 성능을 보여줌으로써, 제안된 신경망이 기존의 다층 리커런트 신경망보다 비정적 신호에 대한 비선형 예측에 더 효과적인 예측모델임을 확인하였다.

EVS 코덱에서 보청기를 위한 RNN 기반의 음성/음악 분류 성능 향상 (Improvement of Speech/Music Classification Based on RNN in EVS Codec for Hearing Aids)

  • 강상익;이상민
    • 재활복지공학회논문지
    • /
    • 제11권2호
    • /
    • pp.143-146
    • /
    • 2017
  • 본 논문에서는 recurrent neural network (RNN)을 이용하여 보청기 시스템을 위한 기존의 3GPP enhanced voice services (EVS) 코덱의 음성/음악 분류 성능을 향상시키는 방법을 제시한다. 구체적으로, EVS의 음성/음악 분류 알고리즘에서 사용된 특징벡터만을 사용하여 효과적으로 RNN을 구성한 분류기법을 제시한다. 다양한 음악장르 및 잡음 환경에 대해 시스템의 성능을 평가한 결과 RNN을 이용하였을 때 기존의 EVS의 방법보다 우수한 음성/음악 분류 성능을 보였다.

딥러닝을 이용한 시퀀스 기반의 여행경로 추천시스템 -제주도 사례- (Sequence-Based Travel Route Recommendation Systems Using Deep Learning - A Case of Jeju Island -)

  • 이희준;이원석;최인혁;이충권
    • 스마트미디어저널
    • /
    • 제9권1호
    • /
    • pp.45-50
    • /
    • 2020
  • 딥 러닝의 발전에 따라 추천시스템에서 딥 러닝 기반의 인공신경망을 활용한 연구가 활발히 진행되고 있다. 특히, RNN(Recurrent Neural Network)기반의 추천시스템은 데이터의 순차적 특성을 고려하기 때문에 추천시스템에서 좋은 성과를 보여주고 있다. 본 연구는 RNN기반의 알고리즘인 GRU(Gated Recurrent Unit)와 세션 기반 병렬 미니배치(Session Parallel mini-batch)기법을 활용한 여행경로 추천 시스템을 제안한다. 본 연구는 top1과 bpr(Bayesian personalized ranking) 오차함수의 앙상블을 통해 추천 성과를 향상시켰다. 또한, 데이터 내에 순차적인 특성을 고려한 RNN기반 추천 시스템은 여행경로에 내재된 여행지의 의미가 반영된 추천이 이루어진다는 것을 확인되었다.

Forecasting realized volatility using data normalization and recurrent neural network

  • Yoonjoo Lee;Dong Wan Shin;Ji Eun Choi
    • Communications for Statistical Applications and Methods
    • /
    • 제31권1호
    • /
    • pp.105-127
    • /
    • 2024
  • We propose recurrent neural network (RNN) methods for forecasting realized volatility (RV). The data are RVs of ten major stock price indices, four from the US, and six from the EU. Forecasts are made for relative ratio of adjacent RVs instead of the RV itself in order to avoid the out-of-scale issue. Forecasts of RV ratios distribution are first constructed from which those of RVs are computed which are shown to be better than forecasts constructed directly from RV. The apparent asymmetry of RV ratio is addressed by the Piecewise Min-max (PM) normalization. The serial dependence of the ratio data renders us to consider two architectures, long short-term memory (LSTM) and gated recurrent unit (GRU). The hyperparameters of LSTM and GRU are tuned by the nested cross validation. The RNN forecast with the PM normalization and ratio transformation is shown to outperform other forecasts by other RNN models and by benchmarking models of the AR model, the support vector machine (SVM), the deep neural network (DNN), and the convolutional neural network (CNN).

Recurrent Neural Network를 이용한 이미지 캡션 생성 (Image Caption Generation using Recurrent Neural Network)

  • 이창기
    • 정보과학회 논문지
    • /
    • 제43권8호
    • /
    • pp.878-882
    • /
    • 2016
  • 이미지의 내용을 설명하는 캡션을 자동으로 생성하는 기술은 이미지 인식과 자연어처리 기술을 필요로 하는 매우 어려운 기술이지만, 유아 교육이나 이미지 검색, 맹인들을 위한 네비게이션 등에 사용될 수 있는 중요한 기술이다. 본 논문에서는 이미지 캡션 생성을 위해 Convolutional Neural Network(CNN)으로 인코딩된 이미지 정보를 입력으로 갖는 이미지 캡션 생성에 최적화된 Recurrent Neural Network(RNN) 모델을 제안하고, 실험을 통해 본 논문에서 제안한 모델이 Flickr 8K와 Flickr 30K, MS COCO 데이터 셋에서 기존의 연구들보다 높은 성능을 얻음을 보인다.

단어의 의미와 문맥을 고려한 순환신경망 기반의 문서 분류 (Document Classification using Recurrent Neural Network with Word Sense and Contexts)

  • 주종민;김남훈;양형정;박혁로
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권7호
    • /
    • pp.259-266
    • /
    • 2018
  • 본 논문에서는 단어의 순서와 문맥을 고려하는 특징을 추출하여 순환신경망(Recurrent Neural Network)으로 문서를 분류하는 방법을 제안한다. 단어의 의미를 고려한 word2vec 방법으로 문서내의 단어를 벡터로 표현하고, 문맥을 고려하기 위해 doc2vec으로 입력하여 문서의 특징을 추출한다. 문서분류 방법으로 이전 노드의 출력을 다음 노드의 입력으로 포함하는 RNN 분류기를 사용한다. RNN 분류기는 신경망 분류기 중에서도 시퀀스 데이터에 적합하기 때문에 문서 분류에 좋은 성능을 보인다. RNN에서도 그라디언트가 소실되는 문제를 해결해주고 계산속도가 빠른 GRU(Gated Recurrent Unit) 모델을 사용한다. 실험 데이터로 한글 문서 집합 1개와 영어 문서 집합 2개를 사용하였고 실험 결과 GRU 기반 문서 분류기가 CNN 기반 문서 분류기 대비 약 3.5%의 성능 향상을 보였다.

A Study on Word Sense Disambiguation Using Bidirectional Recurrent Neural Network for Korean Language

  • Min, Jihong;Jeon, Joon-Woo;Song, Kwang-Ho;Kim, Yoo-Sung
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권4호
    • /
    • pp.41-49
    • /
    • 2017
  • Word sense disambiguation(WSD) that determines the exact meaning of homonym which can be used in different meanings even in one form is very important to understand the semantical meaning of text document. Many recent researches on WSD have widely used NNLM(Neural Network Language Model) in which neural network is used to represent a document into vectors and to analyze its semantics. Among the previous WSD researches using NNLM, RNN(Recurrent Neural Network) model has better performance than other models because RNN model can reflect the occurrence order of words in addition to the word appearance information in a document. However, since RNN model uses only the forward order of word occurrences in a document, it is not able to reflect natural language's characteristics that later words can affect the meanings of the preceding words. In this paper, we propose a WSD scheme using Bidirectional RNN that can reflect not only the forward order but also the backward order of word occurrences in a document. From the experiments, the accuracy of the proposed model is higher than that of previous method using RNN. Hence, it is confirmed that bidirectional order information of word occurrences is useful for WSD in Korean language.

순환 신경망을 이용한 보행단계 분류기 (A Gait Phase Classifier using a Recurrent Neural Network)

  • 허원호;김은태;박현섭;정준영
    • 제어로봇시스템학회논문지
    • /
    • 제21권6호
    • /
    • pp.518-523
    • /
    • 2015
  • This paper proposes a gait phase classifier using a Recurrent Neural Network (RNN). Walking is a type of dynamic system, and as such it seems that the classifier made by using a general feed forward neural network structure is not appropriate. It is known that an RNN is suitable to model a dynamic system. Because the proposed RNN is simple, we use a back propagation algorithm to train the weights of the network. The input data of the RNN is the lower body's joint angles and angular velocities which are acquired by using the lower limb exoskeleton robot, ROBIN-H1. The classifier categorizes a gait cycle as two phases, swing and stance. In the experiment for performance verification, we compared the proposed method and general feed forward neural network based method and showed that the proposed method is superior.

Recurrent Neural Network with Backpropagation Through Time Learning Algorithm for Arabic Phoneme Recognition

  • Ismail, Saliza;Ahmad, Abdul Manan
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1033-1036
    • /
    • 2004
  • The study on speech recognition and understanding has been done for many years. In this paper, we propose a new type of recurrent neural network architecture for speech recognition, in which each output unit is connected to itself and is also fully connected to other output units and all hidden units [1]. Besides that, we also proposed the new architecture and the learning algorithm of recurrent neural network such as Backpropagation Through Time (BPTT, which well-suited. The aim of the study was to observe the difference of Arabic's alphabet like "alif" until "ya". The purpose of this research is to upgrade the people's knowledge and understanding on Arabic's alphabet or word by using Recurrent Neural Network (RNN) and Backpropagation Through Time (BPTT) learning algorithm. 4 speakers (a mixture of male and female) are trained in quiet environment. Neural network is well-known as a technique that has the ability to classified nonlinear problem. Today, lots of researches have been done in applying Neural Network towards the solution of speech recognition [2] such as Arabic. The Arabic language offers a number of challenges for speech recognition [3]. Even through positive results have been obtained from the continuous study, research on minimizing the error rate is still gaining lots attention. This research utilizes Recurrent Neural Network, one of Neural Network technique to observe the difference of alphabet "alif" until "ya".

  • PDF