• 제목/요약/키워드: Long Short-Term Memory Units

검색결과 20건 처리시간 0.032초

음향 데이터로부터 얻은 확장된 음소 단위를 이용한 한국어 자유발화 음성인식기의 성능 (Performance of Korean spontaneous speech recognizers based on an extended phone set derived from acoustic data)

  • 방정욱;김상훈;권오욱
    • 말소리와 음성과학
    • /
    • 제11권3호
    • /
    • pp.39-47
    • /
    • 2019
  • 본 논문에서는 대량의 음성 데이터를 이용하여 기존의 음소 세트를 확장하여 자유발화 음성인식기의 성능을 향상시키는 방법을 제안한다. 제안된 방법은 먼저 방송 데이터에서 가변 길이의 음소 세그먼트를 추출한 다음 LSTM 구조를 기반으로 고정 길이의 잠복벡터를 얻는다. 그런 다음, k-means 군집화 알고리즘을 사용하여 음향적으로 유사한 세그먼트를 군집시키고, Davies-Bouldin 지수가 가장 낮은 군집 수를 선택하여 새로운 음소 세트를 구축한다. 이후, 음성인식기의 발음사전은 가장 높은 조건부 확률을 가지는 각 단어의 발음 시퀀스를 선택함으로써 업데이트된다. 새로운 음소 세트의 음향적 특성을 분석하기 위하여, 확장된 음소 세트의 스펙트럼 패턴과 세그먼트 지속 시간을 시각화하여 비교한다. 제안된 단위는 자유발화뿐만 아니라, 낭독체 음성인식 작업에서 음소 단위 및 자소 단위보다 더 우수한 성능을 보였다.

중학교에서 공-막대 모형을 이용한 수업의 효과 분석 (Analysis of the Effects of Teaching Method Using Ball-and-Stick Models in the Middle School)

  • 진희자;박광서;김동진;김경미;박국태
    • 대한화학회지
    • /
    • 제48권1호
    • /
    • pp.77-84
    • /
    • 2004
  • 이 연구는 중학교 과학 교과서에 제시된 물질과 관련된 개념 이해에 대한 문제점을 분석하여 개선 방안을 제시하는데 목적이 있다. 연구를 위하여 과학 교과서 중 관련 단원 내용을 분석하여, 공-막대(ball-and-stick) 모형을 개발하고 이를 이용한 수업의 효과를 분석하였다. 연구 대상은 서울 지역 여자 중학교 2학년 130명이며, 전통적인 강의식 수업과 공-막대 모형을 이용한 수업의 효과를 중학생들의 인지 수준에 따라 살펴보았다. 수업 전에는 학습자의 특성을 알아보기 위해 논리적 사고력 검사를 실시하였고, 수업 후에는 개념 검사, 과학에 관련된 태도 검사 등을 실시하였다. 그리고 10개월 후에 파지 효과를 알아보기 위해 개념 검사를 다시 한번 더 실시하였다. 연구 결과에 의하면 공-막대 모형을 이용한 수업을 실시한 실험 집단이 과학 개념의 이해도와 파지 효과에서 유의미하게 높은 효과가 있었으며, 또한 과학에 대한 태도와 과학 교과에 대한 태도에서 모두 긍정적인 효과가 있었다. 그리고 인지 수준별로는 구체적 조작기의 학습자에게서 파지 효과가 높았다. 이러한 연구 결과로 볼 때, 구체적 조작기와 과도기가 많은 중학생들에게는 모형을 이용하여 직접 조립하고 구체적으로 물질의 형태를 만들어 보도록 하는 것이 학습 흥미도를 높여 주며, 물질이라는 거시 세계와 원자라는 미시 세계를 연결시켜 주어 학생들이 올바른 과학 개념을 형성하는데 효과적인 것으로 생각된다.

깊은 신경망 기반 대용량 텍스트 데이터 분류 기술 (Large-Scale Text Classification with Deep Neural Networks)

  • 조휘열;김진화;김경민;장정호;엄재홍;장병탁
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권5호
    • /
    • pp.322-327
    • /
    • 2017
  • 문서 분류 문제는 오랜 기간 동안 자연어 처리 분야에서 연구되어 왔다. 우리는 기존 컨볼루션 신경망을 이용했던 연구에서 나아가, 순환 신경망에 기반을 둔 문서 분류를 수행하였고 그 결과를 종합하여 제시하려 한다. 컨볼루션 신경망은 단층 컨볼루션 신경망을 사용했으며, 순환 신경망은 가장 성능이 좋다고 알려져 있는 장기-단기 기억 신경망과 회로형 순환 유닛을 활용하였다. 실험 결과, 분류 정확도는 Multinomial Naïve Bayesian Classifier < SVM < LSTM < CNN < GRU의 순서로 나타났다. 따라서 텍스트 문서 분류 문제는 시퀀스를 고려하는 것 보다는 문서의 feature를 추출하여 분류하는 문제에 가깝다는 것을 확인할 수 있었다. 그리고 GRU가 LSTM보다 문서의 feature 추출에 더 적합하다는 것을 알 수 있었으며 적절한 feature와 시퀀스 정보를 함께 활용할 때 가장 성능이 잘 나온다는 것을 확인할 수 있었다.

비트코인 가격 예측을 위한 LSTM 모델의 Hyper-parameter 최적화 연구 (A Study on the Hyper-parameter Optimization of Bitcoin Price Prediction LSTM Model)

  • 김준호;성한울
    • 한국융합학회논문지
    • /
    • 제13권4호
    • /
    • pp.17-24
    • /
    • 2022
  • 비트코인은 정부나 금융기관에 의존되어 있지 않은 전자 거래를 지향하며 만들어진 peer-to-peer 방식의 암호화폐이다. 비트코인은 최초 발행 이후 거대한 블록체인 금융 시장을 생성했고, 이에 따라 기계 학습을 이용한 비트코인 가격 데이터를 예측하는 연구들이 활발해졌다. 그러나 기계 학습 연구의 비효율적인 Hyper-parameter 최적화 과정이 연구 진행에 있어 비용적인 측면을 악화시키고 있다. 본 논문은 LSTM(Long Short-Term Memory) 층을 사용하는 비트코인 가격 예측 모델에서 가장 대표적인 Hyper-parameter 중 Timesteps, LSTM 유닛의 수, 그리고 Dropout 비율의 전체 조합을 구성하고 각각의 조합에 대한 예측 성능을 측정하는 실험을 통해 정확한 비트코인 가격 예측을 위한 Hyper-parameter 최적화의 방향성을 분석하고 제시한다.

Consistency check algorithm for validation and re-diagnosis to improve the accuracy of abnormality diagnosis in nuclear power plants

  • Kim, Geunhee;Kim, Jae Min;Shin, Ji Hyeon;Lee, Seung Jun
    • Nuclear Engineering and Technology
    • /
    • 제54권10호
    • /
    • pp.3620-3630
    • /
    • 2022
  • The diagnosis of abnormalities in a nuclear power plant is essential to maintain power plant safety. When an abnormal event occurs, the operator diagnoses the event and selects the appropriate abnormal operating procedures and sub-procedures to implement the necessary measures. To support this, abnormality diagnosis systems using data-driven methods such as artificial neural networks and convolutional neural networks have been developed. However, data-driven models cannot always guarantee an accurate diagnosis because they cannot simulate all possible abnormal events. Therefore, abnormality diagnosis systems should be able to detect their own potential misdiagnosis. This paper proposes a rulebased diagnostic validation algorithm using a previously developed two-stage diagnosis model in abnormal situations. We analyzed the diagnostic results of the sub-procedure stage when the first diagnostic results were inaccurate and derived a rule to filter the inconsistent sub-procedure diagnostic results, which may be inaccurate diagnoses. In a case study, two abnormality diagnosis models were built using gated recurrent units and long short-term memory cells, and consistency checks on the diagnostic results from both models were performed to detect any inconsistencies. Based on this, a re-diagnosis was performed to select the label of the second-best value in the first diagnosis, after which the diagnosis accuracy increased. That is, the model proposed in this study made it possible to detect diagnostic failures by the developed consistency check of the sub-procedure diagnostic results. The consistency check process has the advantage that the operator can review the results and increase the diagnosis success rate by performing additional re-diagnoses. The developed model is expected to have increased applicability as an operator support system in terms of selecting the appropriate AOPs and sub-procedures with re-diagnosis, thereby further increasing abnormal event diagnostic accuracy.

BIS(Bus Information System) 정확도 향상을 위한 머신러닝 적용 방안 연구 (A Study on the Application of Machine Learning to Improve BIS (Bus Information System) Accuracy)

  • 장준용;박준태
    • 한국ITS학회 논문지
    • /
    • 제21권3호
    • /
    • pp.42-52
    • /
    • 2022
  • BIS(Bus Information System) 서비스는 대도시를 포함하여 중소도시까지 전국적으로 확대운영되는 추세이며, 이용자의 만족도는 지속적으로 향상되고 있다. 이와 함께 버스도착시간 신뢰성 향상 관련 기술개발, 오차 최소화를 위한 개선 연구가 지속되고 있으며 무엇보다 정보 정확도의 중요성이 부각되고 있다. 본 연구에서는 기계학습 방법인 LSTM을 이용하여 정확도 성능을 평가하였으며 기존 칼만필터, 뉴럴 네트워크 등 방법론과 비교하였다. 실제 여행시간과 예측값에 대해 표준오차를 분석한 결과 LSTM 기계학습 방법이 기존 알고리즘에 비해 정확도는 약 1% 높고, 표준오차는 약 10초 낮은 것으로 분석되었다. 반면 총 162개 구간 중 109개 구간(67.3%) 우수한 것으로 분석되어 LSTM 방법이 전적으로 우수한 것은 아닌 것으로 나타났다. 구간 특성 분석을 통한 알고리즘 융합시 더욱 향상된 정확도 예측이 가능할 것으로 판단된다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.

딥러닝의 모형과 응용사례 (Deep Learning Architectures and Applications)

  • 안성만
    • 지능정보연구
    • /
    • 제22권2호
    • /
    • pp.127-142
    • /
    • 2016
  • 딥러닝은 인공신경망(neural network)이라는 인공지능분야의 모형이 발전된 형태로서, 계층구조로 이루어진 인공신경망의 내부계층(hidden layer)이 여러 단계로 이루어진 구조이다. 딥러닝에서의 주요 모형은 합성곱신경망(convolutional neural network), 순환신경망(recurrent neural network), 그리고 심층신뢰신경망(deep belief network)의 세가지라고 할 수 있다. 그 중에서 현재 흥미로운 연구가 많이 발표되어서 관심이 집중되고 있는 모형은 지도학습(supervised learning)모형인 처음 두 개의 모형이다. 따라서 본 논문에서는 지도학습모형의 가중치를 최적화하는 기본적인 방법인 오류역전파 알고리즘을 살펴본 뒤에 합성곱신경망과 순환신경망의 구조와 응용사례 등을 살펴보고자 한다. 본문에서 다루지 않은 모형인 심층신뢰신경망은 아직까지는 합성곱신경망 이나 순환신경망보다는 상대적으로 주목을 덜 받고 있다. 그러나 심층신뢰신경망은 CNN이나 RNN과는 달리 비지도학습(unsupervised learning)모형이며, 사람이나 동물은 관찰을 통해서 스스로 학습한다는 점에서 궁극적으로는 비지도학습모형이 더 많이 연구되어야 할 주제가 될 것이다.

강수-일유출량 추정 LSTM 모형의 구축을 위한 자료 수집 방안 (Data collection strategy for building rainfall-runoff LSTM model predicting daily runoff)

  • 김동균;강석구
    • 한국수자원학회논문집
    • /
    • 제54권10호
    • /
    • pp.795-805
    • /
    • 2021
  • 본 연구는 소양강댐 유역을 대상으로 LSTM 기반의 일유출량 추정 딥러닝 모형을 개발한 후, 모형구조 및 입력자료의 다양한 조합에 대한 모형의 정확도를 살폈다. 첫 12년(1997.1.1-2008.12.31) 동안의 유역평균 일강수량, 일기온, 일풍속 (이상 입력), 일평균 유량 (출력)으로 이루어진 데이터베이스를 기반으로 모형을 구축하였으며, 이후 12년(2009.1.1-2020.12.31) 동안의 자료를 사용하여 Nash-Sutcliffe Model Efficiency Coefficient (NSE)와 RMSE를 살폈다. 가장 높은 정확도를 보인 조합은 64개의 은닉유닛을 가진 LSTM 모형 구조에 가능한 모든 입력자료(12년치의 일강수량, 일기온, 일풍속)를 활용한 경우로서 검증기간의 NSE와 RMSE는 각각 0.862와 76.8 m3/s를 기록하였다. LSTM의 은닉유닛이500개를 초과하는 경우 과적합으로 인한 모형의 성능 저하가 나타나기 시작했으며, 1000개를 초과하는 경우 과적합 문제가 두드러졌다. 12년치의 일강수만 입력자료로 활용한 경우에도 매우 높은 성능(NSE=0.8~0.84)의 모형이 구축되었으며, 한 해의 자료만을 활용하여 학습한 경우에도 충분히 활용 가능한 정확도(NSE=0.63~0.85)를 가진 모형을 구축할 수 있었다. 특히 유량의 변동성이 큰 한 해의 자료만을 활용하여 모형을 학습한 경우 매우 높은 정확도(NSE=0.85)의 모형이 구축되었다. 학습자료가 중유량과 양극한의 유량을 모두 포함한 경우라면 5년 이상의 입력자료는 모형의 성능을 크게 개선시키지 못했다.

Hierarchical Attention Network를 이용한 복합 장애 발생 예측 시스템 개발 (Development of a complex failure prediction system using Hierarchical Attention Network)

  • 박영찬;안상준;김민태;김우주
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.127-148
    • /
    • 2020
  • 데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.