• 제목/요약/키워드: Memory and Learning Training

검색결과 168건 처리시간 0.028초

시각적 기술 학습과 전이에 미치는 개인차의 효과 (Individual Difference Effects on Perceptual Skill Learning and Transfer)

  • 노윤진;이희승;손영우
    • 인지과학
    • /
    • 제15권3호
    • /
    • pp.1-14
    • /
    • 2004
  • 본 연구에서는 순차적으로 자극이 제시되는 시각 구별 과제에서 개인차가 기술의 습득과 전이에 어떻게 영향을 미치는지 알아보았다. 여기서는 개인 차이를 세 가지 측면에서 측정하였는데 인지 양식의 차이, 작업 기억 용량의 수준, 그리고 의사 결정 방식의 차이를 가지고 개인 차이를 분류하였다. 시각 구별 과제에서는 크게 훈련 과정과 전이 과정으로 나누어 훈련 과정의 난이도가 전이 과정에서 어떠한 영향을 미치는지 알아보았는데, 특히 훈련 난이도는 인지 양식과 그리고 작업 기억 용량과의 상호 작용을 통하여 전이 과제에서의 정확도에 영향을 미친 것으로 나타났다. 본 연구에서 얻어진 결과는 시각 구별과 관련한 인터페이스를 디자인하는데 있어서 개인차를 고려하는 것이 필요함을 시사하였다.

  • PDF

Feature Selection with Ensemble Learning for Prostate Cancer Prediction from Gene Expression

  • Abass, Yusuf Aleshinloye;Adeshina, Steve A.
    • International Journal of Computer Science & Network Security
    • /
    • 제21권12spc호
    • /
    • pp.526-538
    • /
    • 2021
  • Machine and deep learning-based models are emerging techniques that are being used to address prediction problems in biomedical data analysis. DNA sequence prediction is a critical problem that has attracted a great deal of attention in the biomedical domain. Machine and deep learning-based models have been shown to provide more accurate results when compared to conventional regression-based models. The prediction of the gene sequence that leads to cancerous diseases, such as prostate cancer, is crucial. Identifying the most important features in a gene sequence is a challenging task. Extracting the components of the gene sequence that can provide an insight into the types of mutation in the gene is of great importance as it will lead to effective drug design and the promotion of the new concept of personalised medicine. In this work, we extracted the exons in the prostate gene sequences that were used in the experiment. We built a Deep Neural Network (DNN) and Bi-directional Long-Short Term Memory (Bi-LSTM) model using a k-mer encoding for the DNA sequence and one-hot encoding for the class label. The models were evaluated using different classification metrics. Our experimental results show that DNN model prediction offers a training accuracy of 99 percent and validation accuracy of 96 percent. The bi-LSTM model also has a training accuracy of 95 percent and validation accuracy of 91 percent.

Servo control strategy for uni-axial shake tables using long short-term memory networks

  • Pei-Ching Chen;Kui-Xing Lai
    • Smart Structures and Systems
    • /
    • 제32권6호
    • /
    • pp.359-369
    • /
    • 2023
  • Servo-motor driven uniaxial shake tables have been widely used for education and research purposes in earthquake engineering. These shake tables are mostly displacement-controlled by a digital proportional-integral-derivative (PID) controller; however, accurate reproduction of acceleration time histories is not guaranteed. In this study, a control strategy is proposed and verified for uniaxial shake tables driven by a servo-motor. This strategy incorporates a deep-learning algorithm named Long Short-Term Memory (LSTM) network into a displacement PID feedback controller. The LSTM controller is trained by using a large number of experimental data of a self-made servo-motor driven uniaxial shake table. After the training is completed, the LSTM controller is implemented for directly generating the command voltage for the servo motor to drive the shake table. Meanwhile, a displacement PID controller is tuned and implemented close to the LSTM controller to prevent the shake table from permanent drift. The control strategy is named the LSTM-PID control scheme. Experimental results demonstrate that the proposed LSTM-PID improves the acceleration tracking performance of the uniaxial shake table for both bare condition and loaded condition with a slender specimen.

대규모 신경회로망 분산 GPU 기계 학습을 위한 Caffe 확장 (Extending Caffe for Machine Learning of Large Neural Networks Distributed on GPUs)

  • 오종수;이동호
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제7권4호
    • /
    • pp.99-102
    • /
    • 2018
  • Caffe는 학술 연구용으로 널리 사용되는 신경회로망 학습 소프트웨어이다. 신경회로망 구조 결정에서 가장 중요한 요소에 GPU 기억 용량이 포함된다. 예를 들어 많은 객체 검출 소프트웨어는 신경회로망이 12GB 이하의 기억 용량을 사용하게 하여 하나의 GPU에 적합하게 설계되어 있다. 본 논문에서는 큰 신경회로망을 두 개 이상의 GPU에 분산 저장하여 12GB 이상의 기억 용량을 사용할 수 있게 Caffe를 확장하였다. 확장된 소프트웨어를 검증하기 위하여 3개 GPU를 가진 PC에서 최신 객체 검출 소프트웨어의 배치 크기에 따른 학습 효율을 실험하였다.

β-Asarone이 Lipopolysaccharide에 의한 생쥐 해마의 염증성 사이토카인 발현과 학습 및 기억 장애에 미치는 영향 (Effects of β-Asarone on Pro-Inflammatory Cytokines and Learning and Memory Impairment in Lipopolysaccharide-Treated Mice)

  • 최문숙;곽희준;권기중;황지모;신정원;손낙원
    • 대한본초학회지
    • /
    • 제28권6호
    • /
    • pp.119-127
    • /
    • 2013
  • Objectives : ${\beta}$-Asarone (BAS) is an active ingredient in Acori Rhizoma. This study investigated anti-neuroinflammatory and memory ameliorating effects of BAS in systemic lipopolysaccharide (LPS)-treated C57BL/6 mice. Methods : BAS was administered orally at doses of 7.5, 15, and 30 mg/kg for 3 days prior to LPS (3 mg/kg, intraperitoneal) injection. Pro-inflammatory cytokine mRNA, including tumor necrosis factor-${\alpha}$ (TNF-ㅍ), interleukin (IL)-$1{\beta}$ and IL-6, was measured in hippocampus tissue using real-time polymerase chain reaction at 4 h after the LPS injection. An ameliorating effect of 30 mg/kg BAS on learning and memory impairment in the LPS-treated mice was verified using the Morris water maze test. Results : BAS significantly attenuated up-regulation of TNF-${\alpha}$, IL-$1{\beta}$, and IL-6 mRNA in hippocampus tissue of the LPS-treated mice. In acquisition training test, BAS improved learning performance of the LPS-treated mice with a significant decrease of escape latency to the platform. In memory retention test, BAS also ameliorated memory impairment of the LPS-treated mice with a significant increase of swimming time in zones neighboring to the platform, number of target heading, and memory score. Conclusion : The results suggest that inhibition of pro-inflammatory cytokines and neuroinflammation in the hippocampus by BAS could be one of the mechanisms for BAS-mediated ameliorating effect on learning and memory impairment in LPS-treated mice.

유아 언어학습에 대한 하이퍼망 메모리 기반 모델 (Hypernetwork Memory-Based Model for Infant's Language Learning)

  • 이지훈;이은석;장병탁
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권12호
    • /
    • pp.983-987
    • /
    • 2009
  • 유아들의 언어습득에 있어서 중요한 점 하나는 학습자에 대한 언어환경의 노출이다. 유아가 접하는 언어환경은 부모와 같은 인간뿐만 아니라 각종 미디어와 같은 인공적 환경도 포함되며, 유아는 이러한 방대한 언어환경을 탐색하면서 언어를 학습한다. 본 연구는 대용량의 언어 데이터 노출이 영향을 미치는 유아언어학습을 유연하고 적절하게 모사하는 인지적 기제에 따른 기계학습 방식을 제안한다. 유아의 초기 언어학습은 문장수준의 학습과 생성 같은 행동들이 수반되는데, 이는 언어 코퍼스에 대한 노출만으로 모사가 가능하다. 모사의 핵심은 언어 하이퍼망 구조를 가진 기억기반 학습모델이다. 언어 하이퍼망은 언어구성 요소들 간의 상위차원 관계 표상을 가능케 함으로써 새로운 데이터 스트림에 대해 유사구조의 적용과 이용을 도모하여 발달적이고 점진적인 학습을 모사한다. 본 연구에서는 11 개의 유아용 비디오로부터 추출한 문장 32744개를 언어 하이퍼망을 통한 점진적 학습을 수행하여 문장을 생성해 유아의 점진적, 발달적 학습을 모사하였다.

CTC를 이용한 LSTM RNN 기반 한국어 음성인식 시스템 (LSTM RNN-based Korean Speech Recognition System Using CTC)

  • 이동현;임민규;박호성;김지환
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권1호
    • /
    • pp.93-99
    • /
    • 2017
  • Long Short Term Memory (LSTM) Recurrent Neural Network (RNN)를 이용한 hybrid 방법은 음성 인식률을 크게 향상시켰다. Hybrid 방법에 기반한 음향모델을 학습하기 위해서는 Gaussian Mixture Model (GMM)-Hidden Markov Model (HMM)로부터 forced align된 HMM state sequence가 필요하다. 그러나, GMM-HMM을 학습하기 위해서 많은 연산 시간이 요구되고 있다. 본 논문에서는 학습 속도를 향상하기 위해, LSTM RNN 기반 한국어 음성인식을 위한 end-to-end 방법을 제안한다. 이를 구현하기 위해, Connectionist Temporal Classification (CTC) 알고리즘을 제안한다. 제안하는 방법은 기존의 방법과 비슷한 인식률을 보였지만, 학습 속도는 1.27 배 더 빨라진 성능을 보였다.

Deep learning-based LSTM model for prediction of long-term piezoresistive sensing performance of cement-based sensors incorporating multi-walled carbon nanotube

  • Jang, Daeik;Bang, Jinho;Yoon, H.N.;Seo, Joonho;Jung, Jongwon;Jang, Jeong Gook;Yang, Beomjoo
    • Computers and Concrete
    • /
    • 제30권5호
    • /
    • pp.301-310
    • /
    • 2022
  • Cement-based sensors have been widely used as structural health monitoring systems, however, their long-term sensing performance have not actively investigated. In this study, a deep learning-based methodology is adopted to predict the long-term piezoresistive properties of cement-based sensors. Samples with different multi-walled carbon nanotube contents (0.1, 0.3, and 0.5 wt.%) are fabricated, and piezoresistive tests are conducted over 10,000 loading cycles to obtain the training data. Time-dependent degradation is predicted using a modified long short-term memory (LSTM) model. The effects of different model variables including the amount of training data, number of epochs, and dropout ratio on the accuracy of predictions are analyzed. Finally, the effectiveness of the proposed approach is evaluated by comparing the predictions for long-term piezoresistive sensing performance with untrained experimental data. A sensitivity of 6% is experimentally examined in the sample containing 0.1 wt.% of MWCNTs, and predictions with accuracy up to 98% are found using the proposed LSTM model. Based on the experimental results, the proposed model is expected to be applied in the structural health monitoring systems to predict their long-term piezoresistice sensing performances during their service life.

심층 신경망 기반 대화처리 기술 동향 (Trends in Deep-neural-network-based Dialogue Systems)

  • 권오욱;홍택규;황금하;노윤형;최승권;김화연;김영길;이윤근
    • 전자통신동향분석
    • /
    • 제34권4호
    • /
    • pp.55-64
    • /
    • 2019
  • In this study, we introduce trends in neural-network-based deep learning research applied to dialogue systems. Recently, end-to-end trainable goal-oriented dialogue systems using long short-term memory, sequence-to-sequence models, among others, have been studied to overcome the difficulties of domain adaptation and error recognition and recovery in traditional pipeline goal-oriented dialogue systems. In addition, some research has been conducted on applying reinforcement learning to end-to-end trainable goal-oriented dialogue systems to learn dialogue strategies that do not appear in training corpora. Recent neural network models for end-to-end trainable chit-chat systems have been improved using dialogue context as well as personal and topic information to produce a more natural human conversation. Unlike previous studies that have applied different approaches to goal-oriented dialogue systems and chit-chat systems respectively, recent studies have attempted to apply end-to-end trainable approaches based on deep neural networks in common to them. Acquiring dialogue corpora for training is now necessary. Therefore, future research will focus on easily and cheaply acquiring dialogue corpora and training with small annotated dialogue corpora and/or large raw dialogues.

CNN-LSTM 기반의 자율주행 기술 (CNN-LSTM based Autonomous Driving Technology)

  • 박가은;황치운;임세령;장한승
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1259-1268
    • /
    • 2023
  • 본 연구는 딥러닝의 합성곱과 순환신경망 네트워크를 기반으로 시각센서를 이용해 속도(Throttle)와 조향(Steering) 제어 기술을 제안한다. 학습 트랙을 시계, 반시계 방향으로 주행하며 카메라 영상 이미지와 조종 값 데이터를 수집하고 효율적인 학습을 위해 데이터 샘플링, 전처리 과정을 거쳐 Throttle과 Steering을 예측하는 모델을 생성한다. 이후 학습에 사용되지 않은 다른 환경의 테스트 트랙을 통해 검증을 진행하여 최적의 모델을 찾고 이를 CNN(Convolutional Neural Network)과 비교하였다. 그 결과 제안하는 딥러닝 모델의 성능이 뛰어남을 확인했다.