• Title/Summary/Keyword: 두뇌모사

Search Result 6, Processing Time 0.021 seconds

The design of capacitor-based self-powered artificial neural networks devices (커패시터 기반 자가발전 인공 신경망 디바이스 설계)

  • Kim, Yongjoo;Kim, Taeho
    • The Journal of the Convergence on Culture Technology
    • /
    • v.6 no.3
    • /
    • pp.361-367
    • /
    • 2020
  • This paper proposes the battery-less ultra-low-power self-powered cooperating artificial neural networks device for embedded and IoT systems. This device can work without extraneous power supplying and can cooperate with other neuromorphic devices to build large-scale neural networks. This device has energy harvesting modules, so that can build a self-powered system and be used everywhere without space constraints for power supplying.

Evaluating a successor representation-based reinforcement learning algorithm in the 2-stage Markov decision task (2-stage 마르코프 의사결정 상황에서 Successor Representation 기반 강화학습 알고리즘 성능 평가)

  • Kim, So-Hyeon;Lee, Jee Hang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.910-913
    • /
    • 2021
  • Successor representation (SR) 은 두뇌 내 해마의 공간 세포가 인지맵을 구성하여 환경을 학습하고, 이를 활용하여 변화하는 환경에서 유연하게 최적 전략을 수립하는 기전을 모사한 강화학습 방법이다. 특히, 학습한 환경 정보를 활용, 환경 구조 안에서 목표가 변화할 때 강인하게 대응하여 일반 model-free 강화학습에 비해 빠르게 보상 변화에 적응하고 최적 전략을 찾는 것으로 알려져 있다. 본 논문에서는 SR 기반 강화학습 알고리즘이 보상의 변화와 더불어 환경 구조, 특히 환경의 상태 천이 확률이 변화하여 보상의 변화를 유발하는 상황에서 어떠한 성능을 보이는 지 확인하였다. 벤치마크 알고리즘으로 SR 의 특성을 목적 기반 강화학습으로 통합한 SR-Dyna 를 사용하였고, 환경 상태 천이 불확실성과 보상 변화가 동시에 나타나는 2-stage 마르코프 의사결정 과제를 실험 환경으로 사용하였다. 시뮬레이션 결과, SR-Dyna 는 환경 내 상태 천이 확률 변화에 따른 보상 변화에는 적절히 대응하지 못하는 결과를 보였다. 본 결과를 통해 두뇌의 강화학습과 알고리즘 강화학습의 차이를 이해하여, 환경 변화에 강인한 강화학습 알고리즘 설계를 기대할 수 있다.

An analysis of learning performance changes in spiking neural networks(SNN) (Spiking Neural Networks(SNN) 구조에서 뉴런의 개수와 학습량에 따른 학습 성능 변화 분석)

  • Kim, Yongjoo;Kim, Taeho
    • The Journal of the Convergence on Culture Technology
    • /
    • v.6 no.3
    • /
    • pp.463-468
    • /
    • 2020
  • Artificial intelligence researches are being applied and developed in various fields. In this paper, we build a neural network by using the method of implementing artificial intelligence in the form of spiking natural networks (SNN), the next-generation of artificial intelligence research, and analyze how the number of neurons in that neural networks affect the performance of the neural networks. We also analyze how the performance of neural networks changes while increasing the amount of neural network learning. The findings will help optimize SNN-based neural networks used in each field.

A Structure of Spiking Neural Networks(SNN) Compiler and a performance analysis of mapping algorithm (Spiking Neural Networks(SNN)를 위한 컴파일러 구조와 매핑 알고리즘 성능 분석)

  • Kim, Yongjoo;Kim, Taeho
    • The Journal of the Convergence on Culture Technology
    • /
    • v.8 no.5
    • /
    • pp.613-618
    • /
    • 2022
  • Research on artificial intelligence based on SNN (Spiking Neural Networks) is drawing attention as a next-generation artificial intelligence that can overcome the limitations of artificial intelligence based on DNN (Deep Neural Networks) that is currently popular. In this paper, we describe the structure of the SNN compiler, a system SW that generate code from SNN description for neuromorphic computing systems. We also introduce the algorithms used for compiler implementation and present experimental results on how the execution time varies in neuromorphic computing systems depending on the the mapping algorithm. The mapping algorithm proposed in the text showed a performance improvement of up to 3.96 times over a random mapping. The results of this study will allow SNNs to be applied in various neuromorphic hardware.

인공 신경망 기법을 이용한 제지공정의 지절 원인 분석

  • 이진희;이학래
    • Proceedings of the Korea Technical Association of the Pulp and Paper Industry Conference
    • /
    • 2001.04a
    • /
    • pp.168-168
    • /
    • 2001
  • 제지공정의 지절 현상은 많은 공정 변수들이 복합적으로 작용하여 발생하는 가장 큰 공정 트러블 중의 하나이다. 지절은 생산량 감소 뿐만 아니라 발생 후 공정의 복구 와 정리, 생산재가동 및 공정의 재안정화를 위해 많은 시간과 비용, 그리고 노력이 투 입되어야 하므로 공정의 효율과 생산성을 크게 저하시키는 요인이다. 그러나 지절 현상 의 복잡성 때문에 이에 대해 쉽게 접근하거나 해결하지 못하고 있는 것이 현실이지만 그 필요성은 더욱 더 증대되고 있다. 본 연구에서는 최근 들어 각종 산업분야에서 복잡 한 공정상의 결점 발견 및 진단에 효과적이라고 인정받고 있는 예측 분석기법인 인공 신경망(artificial neural network) 시율레이션과 일반적인 통계기법 중의 하나인 주성분 분석을 이용하여 제지 공정의 지절 현상의 검토 가능성을 타진하였다. 인공신경망이란 인간두뇌에서 일어나는 자극-반응-학습과정을 모사하여 현실세계에 존재하는 다양한 현상들의 업력벡터와 출력상태 간의 비선형 mapping올 컴퓨터 시율 레이션을 통하여 분석하고자 하는 기법으로, 여러 가지 현상들을 학습을 통해서 인식하 는 신경망 내의 신경단위들이 병렬처리에 의해 많은 양의 자료에 대한 추론이나 판단 을 신속하고 정확하게 해주는 특징이 있으며 실시간 패턴인식이나 분류 응용분야에도 매우 매력적으로 이용되고 있는 방법이다. 이러한 인공 신경망 기법 중에서도 본 연구 에서는 퍼셉트론의 한계점을 극복하기 위하여 입력총과 출력층에 한 개 이상의 은닉층 ( (hidden layer)을 사용하여 다층 네트워으로 구성하고, 모든 입력패턴에 대하여 발생하 는 오차함수를 최소화하는 방향으로 연결강도를 조정하는 back propagation 학습 알고 리즘을 사용하였다. 지절의 원인으로 추정 가능한 공정인자들을 변수로 하여 최적의 인 공신경망을 구축하기 위해 학습률과 모멘트 상수의 변화 및 은닉층의 수와 출력층의 뉴런 수를 조절하는 동의 작업을 거쳐 네트워크의 정확도가 높은 인공신경망을 설계하 였다. 또한 이러한 인공신경망과의 비교분석을 위해 동일한 공정 데이터들올 이용하여 보편적으로 사용하는 통계기법 중의 하나인 주성분회귀분석을 실시하였다. 주성분 분석은 여러 개의 반응변수에 대하여 얻어진 다변량 자료의 다차원적인 변 수들을 축소, 요약하는 차원의 단순화와 더불어 서로 상관되어있는 반응변수들 상호간 의 복잡한 구조를 분석하는 기법이다. 본 발표에서는 공정 자료를 활용하여 인공신경망 과 주성분분석을 통해 공정 트러블의 발생에 영향 하는 인자들을 보다 현실적으로 추 정하고, 그 대책을 모색함으로써 이를 최소화할 수 있는 방안을 소개하고자 한다.

  • PDF

Evaluating SR-Based Reinforcement Learning Algorithm Under the Highly Uncertain Decision Task (불확실성이 높은 의사결정 환경에서 SR 기반 강화학습 알고리즘의 성능 분석)

  • Kim, So Hyeon;Lee, Jee Hang
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.8
    • /
    • pp.331-338
    • /
    • 2022
  • Successor representation (SR) is a model of human reinforcement learning (RL) mimicking the underlying mechanism of hippocampal cells constructing cognitive maps. SR utilizes these learned features to adaptively respond to the frequent reward changes. In this paper, we evaluated the performance of SR under the context where changes in latent variables of environments trigger the reward structure changes. For a benchmark test, we adopted SR-Dyna, an integration of SR into goal-driven Dyna RL algorithm in the 2-stage Markov Decision Task (MDT) in which we can intentionally manipulate the latent variables - state transition uncertainty and goal-condition. To precisely investigate the characteristics of SR, we conducted the experiments while controlling each latent variable that affects the changes in reward structure. Evaluation results showed that SR-Dyna could learn to respond to the reward changes in relation to the changes in latent variables, but could not learn rapidly in that situation. This brings about the necessity to build more robust RL models that can rapidly learn to respond to the frequent changes in the environment in which latent variables and reward structure change at the same time.