• 제목/요약/키워드: GRU

검색결과 204건 처리시간 0.026초

구조적 압축을 통한 FPGA 기반 GRU 추론 가속기 설계 (Implementation of FPGA-based Accelerator for GRU Inference with Structured Compression)

  • 채병철
    • 한국정보통신학회논문지
    • /
    • 제26권6호
    • /
    • pp.850-858
    • /
    • 2022
  • 리소스가 제한된 임베디드 장치에 GRU를 배포하기 위해 이 논문은 구조적 압축을 가능하게 하는 재구성 가능한 FPGA 기반 GRU 가속기를 설계한다. 첫째, 조밀한 GRU 모델은 하이브리드 양자화 방식과 구조화된 top-k 프루닝에 의해 크기가 대폭 감소한다. 둘째, 본 연구에서 제시하는 재사용 컴퓨팅 패턴에 의해 외부 메모리 액세스에 대한 에너지 소비가 크게 감소한다. 마지막으로 가속기는 알고리즘-하드웨어 공동 설계 워크플로의 이점을 얻는 구조화된 희소 GRU 모델을 처리할 수 있다. 또한 모든 차원, 시퀀스 길이 및 레이어 수를 사용하여 GRU 모델에 대한 추론 작업을 유연하게 수행할 수 있다. Intel DE1-SoC FPGA 플랫폼에 구현된 제안된 가속기는 일괄 처리가 없는 구조화된 희소 GRU 네트워크에서 45.01 GOPs를 달성하였다. CPU 및 GPU의 구현과 비교할 때 저비용 FPGA 가속기는 대기 시간에서 각각 57배 및 30배, 에너지 효율성에서 300배 및 23.44배 향상을 달성한다. 따라서 제안된 가속기는 실시간 임베디드 애플리케이션에 대한 초기 연구로서 활용, 향후 더 발전될 수 있는 잠재력을 보여준다.

GRU 기반의 도시부 도로 통행속도 예측 모형 개발 (Development of a Speed Prediction Model for Urban Network Based on Gated Recurrent Unit)

  • 김호연;이상수;황재성
    • 한국ITS학회 논문지
    • /
    • 제22권1호
    • /
    • pp.103-114
    • /
    • 2023
  • 본 연구에서는 도시부 도로의 다양한 자료를 수집하여 통행속도 변화에 대한 영향을 분석하였고, 이와 같은 빅데이터를 활용하여 GRU 기반의 단기 통행속도 예측 모형을 개발하였다. 그리고 Baseline 모형과 이중지수평활 모형을 비교 모형으로 선정하여 RMSE 지표로 예측 오차를 평가하였다. 모형 평가 결과, Baseline 모형과 이중지수평활 모형의 RMSE는 평균 7.46, 5.94값으로 각각 산출되었다. 그리고 GRU 모형으로 예측한 평균 RMSE는 5.08 값이 산출되었다. 15개 링크별로 편차가 있지만, 대부분의 경우 GRU 모형의 오차가 최소의 값을 나타내었고, 추가적인 산점도 분석 결과도 동일한 결과를 제시하였다. 이러한 결과로부터 도시부 도로의 통행속도 정보 생성 과정에서 GRU 기반의 예측 모형 적용 시 예측 오차를 감소시키고 모형 적용 속도의 개선을 기대할 수 있을 것으로 판단된다.

GRU 기법을 활용한 서울시 공공자전거 수요예측 모델 개발 (Development of Demand Forecasting Model for Public Bicycles in Seoul Using GRU)

  • 이승운;곽기영
    • 지능정보연구
    • /
    • 제28권4호
    • /
    • pp.1-25
    • /
    • 2022
  • 2020년 1월 국내에 첫 코로나19 확진자가 발생한 후 버스와 지하철 같은 대중교통이 아닌 공공자전거와 같은 개인형 이동수단에 대한 관심이 증가하였다. 서울시에서 운영하는 공공자전거인 '따릉이'에 대한 수요 역시 증가하였다. 본 연구에서는 서울시 공공자전거의 최근 3년간(2019~2021) 시간대별 대여이력을 바탕으로 게이트 순환 유닛(GRU, Gated Recurrent Unit)의 수요예측 모델을 제시하였다. 본 연구에서 제시하는 GRU 방법의 유용성은 서울시 영등포구 여의도에 위치한 여의나루 1번 출구의 대여이력을 바탕으로 검증하였다. 특히, 동일한 조건에서 다중선형회귀 모델 및 순환신경망 모델들과 이를 비교 분석하였다. 아울러, 모델 개발시 기상요소 이외에 서울시 생활인구를 변수로 활용하여 이에 대한 검증도 함께 진행하였다. 모델의 성능지표로는 MAE와 RMSE를 사용하였고, 이를 통해 본 연구에서 제안하는 GRU 모델의 유용성을 제시하였다. 분석결과 제안한 GRU 모델이 전통적인 기법인 다중선형회귀 모델과 최근 각광받고 있는 LSTM 모델 및 Conv-LSTM 모델보다 예측 정확도가 높게 나타났다. 또한 분석에 소요되는 시간도 GRU 모델이 LSTM 모델, Conv-LSTM 모델보다 짧았다. 본 연구를 통해 서울시 공공자전거의 수요예측을 보다 빠르고 정확하게 하여 향후 재배치 문제 등의 해결에 도움이 될 수 있을 것이다.

Bidirectional GRU-GRU CRF 기반 참고문헌 메타데이터 인식 (Bidirectional GRU-GRU CRF based Citation Metadata Recognition)

  • 김선우;지선영;설재욱;정희석;최성필
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.461-464
    • /
    • 2018
  • 최근 학술문헌이 급격하게 증가함에 따라, 학술문헌간의 연결성 및 메타데이터 추출 등의 핵심 자원으로서 활용할 수 있는 참고문헌에 대한 활용 연구가 진행되고 있다. 본 연구에서는 국내 학술지의 참고문헌이 가진 각 메타데이터를 자동적으로 인식하여 추출할 수 있는 참고문헌 메타데이터 인식에 대하여, 연속적 레이블링 방법론을 기반으로 접근한다. 심층학습 기술 중 연속적 레이블링에 우수한 성능을 보이고 있는 Bidirectional GRU-GRU CRF 모델을 기반으로 참고문헌 메타데이터 인식에 적용하였으며, 2010년 이후의 10종의 학술지내의 144,786건의 논문을 활용하여 추출한 169,668건의 참고문헌을 가공하여 실험하였다. 실험 결과, 실험집합에 대하여 F1 점수 97.21%의 우수한 성능을 보였다.

  • PDF

Korean Sentiment Analysis Using Natural Network: Based on IKEA Review Data

  • Sim, YuJeong;Yun, Dai Yeol;Hwang, Chi-gon;Moon, Seok-Jae
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권2호
    • /
    • pp.173-178
    • /
    • 2021
  • In this paper, we find a suitable methodology for Korean Sentiment Analysis through a comparative experiment in which methods of embedding and natural network models are learned at the highest accuracy and fastest speed. The embedding method compares word embeddeding and Word2Vec. The model compares and experiments representative neural network models CNN, RNN, LSTM, GRU, Bi-LSTM and Bi-GRU with IKEA review data. Experiments show that Word2Vec and BiGRU had the highest accuracy and second fastest speed with 94.23% accuracy and 42.30 seconds speed. Word2Vec and GRU were found to have the third highest accuracy and fastest speed with 92.53% accuracy and 26.75 seconds speed.

MAGRU: Multi-layer Attention with GRU for Logistics Warehousing Demand Prediction

  • Ran Tian;Bo Wang;Chu Wang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권3호
    • /
    • pp.528-550
    • /
    • 2024
  • Warehousing demand prediction is an essential part of the supply chain, providing a fundamental basis for product manufacturing, replenishment, warehouse planning, etc. Existing forecasting methods cannot produce accurate forecasts since warehouse demand is affected by external factors such as holidays and seasons. Some aspects, such as consumer psychology and producer reputation, are challenging to quantify. The data can fluctuate widely or do not show obvious trend cycles. We introduce a new model for warehouse demand prediction called MAGRU, which stands for Multi-layer Attention with GRU. In the model, firstly, we perform the embedding operation on the input sequence to quantify the external influences; after that, we implement an encoder using GRU and the attention mechanism. The hidden state of GRU captures essential time series. In the decoder, we use attention again to select the key hidden states among all-time slices as the data to be fed into the GRU network. Experimental results show that this model has higher accuracy than RNN, LSTM, GRU, Prophet, XGboost, and DARNN. Using mean absolute error (MAE) and symmetric mean absolute percentage error(SMAPE) to evaluate the experimental results, MAGRU's MAE, RMSE, and SMAPE decreased by 7.65%, 10.03%, and 8.87% over GRU-LSTM, the current best model for solving this type of problem.

SC-GRU encoder-decoder 모델을 이용한 자연어생성 (Natural Language Generation Using SC-GRU Encoder-Decoder Model)

  • 김건영;이창기
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2017년도 제29회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.167-171
    • /
    • 2017
  • 자연어 생성은 특정한 조건들을 만족하는 문장을 생성하는 연구로, 이러한 조건들은 주로 표와 같은 축약되고 구조화된 의미 표현으로 주어지며 사용자가 자연어로 생성된 문장을 받아야 하는 어떤 분야에서든 응용이 가능하다. 본 논문에서는 SC(Semantically Conditioned)-GRU기반 encoder-decoder모델을 이용한 자연어 생성 모델을 제안한다. 본 논문에서 제안한 모델이 SF Hotel 데이터에서는 0.8645 BLEU의 성능을, SF Restaurant 데이터에서는 0.7570 BLEU의 성능을 보였다.

  • PDF

SC-GRU encoder-decoder 모델을 이용한 자연어생성 (Natural Language Generation Using SC-GRU Encoder-Decoder Model)

  • 김건영;이창기
    • 한국어정보학회:학술대회논문집
    • /
    • 한국어정보학회 2017년도 제29회 한글및한국어정보처리학술대회
    • /
    • pp.167-171
    • /
    • 2017
  • 자연어 생성은 특정한 조건들을 만족하는 문장을 생성하는 연구로, 이러한 조건들은 주로 표와 같은 축약되고 구조화된 의미 표현으로 주어지며 사용자가 자연어로 생성된 문장을 받아야 하는 어떤 분야에서든 응용이 가능하다. 본 논문에서는 SC(Semantically Conditioned)-GRU기반 encoder-decoder모델을 이용한 자연어 생성 모델을 제안한다. 본 논문에서 제안한 모델이 SF Hotel 데이터에서는 0.8645 BLEU의 성능을, SF Restaurant 데이터에서는 0.7570 BLEU의 성능을 보였다.

  • PDF

Gated recurrent unit (GRU) 신경망을 이용한 적혈구 침강속도 예측 (Forecasting of erythrocyte sedimentation rate using gated recurrent unit (GRU) neural network)

  • 이재진;홍현지;송재민;염은섭
    • 한국가시화정보학회지
    • /
    • 제19권1호
    • /
    • pp.57-61
    • /
    • 2021
  • In order to determine erythrocyte sedimentation rate (ESR) indicating acute phase inflammation, a Westergren method has been widely used because it is cheap and easy to be implemented. However, the Westergren method requires quite a long time for 1 hour. In this study, a gated recurrent unit (GRU) neural network was used to reduce measurement time of ESR evaluation. The sedimentation sequences of the erythrocytes were acquired by the camera and data processed through image processing were used as an input data into the neural network models. The performance of a proposed models was evaluated based on mean absolute error. The results show that GRU model provides best accurate prediction than others within 30 minutes.

A Study on Korean Sentiment Analysis Rate Using Neural Network and Ensemble Combination

  • Sim, YuJeong;Moon, Seok-Jae;Lee, Jong-Youg
    • International Journal of Advanced Culture Technology
    • /
    • 제9권4호
    • /
    • pp.268-273
    • /
    • 2021
  • In this paper, we propose a sentiment analysis model that improves performance on small-scale data. A sentiment analysis model for small-scale data is proposed and verified through experiments. To this end, we propose Bagging-Bi-GRU, which combines Bi-GRU, which learns GRU, which is a variant of LSTM (Long Short-Term Memory) with excellent performance on sequential data, in both directions and the bagging technique, which is one of the ensembles learning methods. In order to verify the performance of the proposed model, it is applied to small-scale data and large-scale data. And by comparing and analyzing it with the existing machine learning algorithm, Bi-GRU, it shows that the performance of the proposed model is improved not only for small data but also for large data.