• 제목/요약/키워드: hidden layer

검색결과 511건 처리시간 0.025초

CNN 은닉층 증가에 따른 인공지능 정확도 평가: 뇌출혈 CT 데이터 (Evaluation of Artificial Intelligence Accuracy by Increasing the CNN Hidden Layers: Using Cerebral Hemorrhage CT Data)

  • 김한준;강민지;김은지;나용현;박재희;백수은;심수만;홍주완
    • 한국방사선학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-6
    • /
    • 2022
  • 딥러닝은 다량의 데이터 속에서 핵심적인 내용을 요약해 학습하는 알고리즘의 집합으로 의료영상 분야에서 병변을 진단하는 목적으로 사용되기 위해 발전하고 있다. 본 논문에서는 뇌출혈 진단 정확성을 평가하기 위해 CNN을 이용해 뇌실질 CT 영상과 뇌출혈이 의심되는 뇌실질 CT의 진단 정확도를 도출하였다. 은닉층 수에 따른 정확도를 비교한 결과 은닉층이 증가할수록 정확도가 높아졌다. 본 연구에서 도출된 CT 뇌출혈 유무 분석 결과는 앞으로 의료영상 분야와 인공지능 접목에 관한 연구에서 기초 자료로 사용될 것으로 사료된다.

퍼지 추론 메커니즘에 기반 한 다항식 네트워크 패턴 분류기의 설계와 이의 최적화 (The Design of Polynomial Network Pattern Classifier based on Fuzzy Inference Mechanism and Its Optimization)

  • 김길성;박병준;오성권
    • 한국지능시스템학회논문지
    • /
    • 제17권7호
    • /
    • pp.970-976
    • /
    • 2007
  • 본 연구에서는 퍼지 추론 메커니즘에 기반 한 다항식 네트워크 패턴 분류기(Polynomial Network Pattern Classifier; PNC)를 설계하고 Particle Swarm Optimization 알고리즘을 이용하여 PNC 파라미터, 즉, 학습률, 모멘텀 계수, FCM 클러스터링의 퍼지화 계수(fuzzification Coefficient)를 최적화한다. 제안된 PNC 구조는 FCM 클러스터링에 기반한 분할 함수를 활성 함수로 사용하며, 다항식 함수로 구성된 연결가중치를 사용함으로서 기존 신경회로망 분류기의 선형적인 특성을 개선한다. PNC 구조는 언어적 해석관점에서 "If-then"의 퍼지 규칙으로 표현되며 퍼지 추론 메커니즘에 의해 구동된다. 즉 조건부, 결론부, 추론부 세 가지의 기능적 모듈로 나뉘어 네트워크 구조가 형성된다. 조건부는 FCM 클러스터링을 사용하여 입력 공간을 분할하고, 결론부는 분할된 로컬 영역을 다항식 함수로 표현한다. 마지막으로, 네트워크의 최종출력은 추론부의 퍼지추론에 의한다. 제안된 PNC는 다항식 기반 구조의 퍼지 추론 특성으로 인해 출력 공간상에 비선형 판별 함수(nonlinear discernment function)가 생성되어 분류기로서의 성능을 높인다.

MLP에 기반한 감정인식 모델 개발 (Development of Emotion Recognition Model based on Multi Layer Perceptron)

  • 이동훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권3호
    • /
    • pp.372-377
    • /
    • 2006
  • 본 논문에서, 우리는 뇌파를 이용하여 사용자의 감정을 인식하는 감정인식 모델을 제안한다. 사용자의 감정을 인식하기 위해서는 우선 생체 데이터나 감정 데이터를 포함한 뇌파의 정량적인 데이터를 획득하는 방법이 필요하며 다음으로 획득된 뇌파를 통하여 현재 사용자의 감정 상태를 규명하는 패턴인식 기법이 중요한 문제가 된다. 본 논문에서는 뇌파를 통하여 현재 사용자의 감정 상태를 규명하고 인식할 수 있는 패턴인식 기법으로 Multi Layer Perceptron(MLP)을 사용한 패턴인식 기법을 사용한다. 본 논문에서 제안한 감정인식 모델의 실험을 위하여 특정 공간 내에서 여러 피험자의 감정별 뇌파를 측정하고, 측정된 뇌파로 집중도 및 안정도를 도출하여 유의미한 데이터로 감정 DB를 구축한다. 감정별 DB를 본 논문에서 제안한 감정인식 모델로 학습한 후 새로운 사용자의 뇌파로 현재 사용자의 감정을 인식한다. 마지막으로 피험자의 수와 은닉 노드의 수에 따른 인식률의 변화를 측정함으로서 뇌파를 이용한 감정인식 모델의 성능을 평가한다.

순환신경망 기초 실습 사례 개발 (Development of Basic Practice Cases for Recurrent Neural Networks)

  • 허경
    • 실천공학교육논문지
    • /
    • 제14권3호
    • /
    • pp.491-498
    • /
    • 2022
  • 본 논문에서는 비전공자들을 위한 교양과정으로, 기초 순환신경망 과목 커리큘럼을 설계하는데 필수적으로 요구되는 순환신경망 SW 실습 사례를 개발하였다. 개발된 SW 실습 사례는 순환신경망의 동작원리를 이해시키는 데 초점을 두고, 시각화된 전체 동작 과정을 확인할 수 있도록 스프레드시트를 사용하였다. 개발된 순환신경망 실습 사례는 지도학습 방식의 텍스트완성 훈련데이터 생성, 입력층, 은닉층, 상태층(컨텍스트 노드) 그리고 출력층을 차례대로 구현하고, 텍스트 데이터에 대해 순환신경망의 성능을 테스트하는 것으로 구성되었다. 본 논문에서 개발한 순환신경망 실습사례는 다양한 문자 수를 갖는 단어를 자동 완성한다. 제안한 순환신경망 실습사례를 활용하여, 한글 또는 영어 단어를 구성하는 최대 문자 수를 다양하게 확장하여 자동 완성하는 인공지능 SW 실습 사례를 만들 수 있다. 따라서, 본 순환신경망 기초 실습 사례의 활용도가 높다고 할 수 있다.

Text-Independent Speaker Identification System Based On Vowel And Incremental Learning Neural Networks

  • Heo, Kwang-Seung;Lee, Dong-Wook;Sim, Kwee-Bo
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.1042-1045
    • /
    • 2003
  • In this paper, we propose the speaker identification system that uses vowel that has speaker's characteristic. System is divided to speech feature extraction part and speaker identification part. Speech feature extraction part extracts speaker's feature. Voiced speech has the characteristic that divides speakers. For vowel extraction, formants are used in voiced speech through frequency analysis. Vowel-a that different formants is extracted in text. Pitch, formant, intensity, log area ratio, LP coefficients, cepstral coefficients are used by method to draw characteristic. The cpestral coefficients that show the best performance in speaker identification among several methods are used. Speaker identification part distinguishes speaker using Neural Network. 12 order cepstral coefficients are used learning input data. Neural Network's structure is MLP and learning algorithm is BP (Backpropagation). Hidden nodes and output nodes are incremented. The nodes in the incremental learning neural network are interconnected via weighted links and each node in a layer is generally connected to each node in the succeeding layer leaving the output node to provide output for the network. Though the vowel extract and incremental learning, the proposed system uses low learning data and reduces learning time and improves identification rate.

  • PDF

확률적 근사법과 후형질과 알고리즘을 이용한 다층 신경망의 학습성능 개선 (Improving the Training Performance of Multilayer Neural Network by Using Stochastic Approximation and Backpropagation Algorithm)

  • 조용현;최흥문
    • 전자공학회논문지B
    • /
    • 제31B권4호
    • /
    • pp.145-154
    • /
    • 1994
  • This paper proposes an efficient method for improving the training performance of the neural network by using a hybrid of a stochastic approximation and a backpropagation algorithm. The proposed method improves the performance of the training by appliying a global optimization method which is a hybrid of a stochastic approximation and a backpropagation algorithm. The approximate initial point for a stochastic approximation and a backpropagation algorihtm. The approximate initial point for fast global optimization is estimated first by applying the stochastic approximation, and then the backpropagation algorithm, which is the fast gradient descent method, is applied for a high speed global optimization. And further speed-up of training is made possible by adjusting the training parameters of each of the output and the hidden layer adaptively to the standard deviation of the neuron output of each layer. The proposed method has been applied to the parity checking and the pattern classification, and the simulation results show that the performance of the proposed method is superior to that of the backpropagation, the Baba's MROM, and the Sun's method with randomized initial point settings. The results of adaptive adjusting of the training parameters show that the proposed method further improves the convergence speed about 20% in training.

  • PDF

신경회로망을 이용한 전동기의 고장 부분 탐지 (Failure Detection of Motors using Artifical Neural Networks)

  • 이권현;강희조
    • 한국통신학회논문지
    • /
    • 제17권1호
    • /
    • pp.47-57
    • /
    • 1992
  • 전동기 회전시 발생되는 소음이 전동기 구조상의 소손부분 및 정도에 따라 서로 다른 소음의 특징을 갖는다는 점을 고려하여 신경회로망을 이용한 시그널(소음)인식 시스템으로써 전동기의 고장부분 탐지에 적용하였다. 적용된 신경회로망은 역전파(back-propagation)알고리즘을 써서 학습하였고 2개의 은역층을 갖는 4단 신경회로망으로 구성 되었다. 실혐 결과 전동기의 구조와 출력이 거의 일치하는 경우에는 고정 부분에 대한 항상 바른 판정을 내릴 수 있었으나 출력은 유사하더라도 전동기의 구조가 상이한 경우나 전동기 제작회사가 다른 경우에는 부정확한 판정으로 나타난다.

  • PDF

신경회로망을 이용한 수도 증발산량 예측 -백프로파게이션과 카운터프로파게이션 알고리즘의 적용- (Estimating Evapotranspiration of Rice Crop Using Neural Networks -Application of Back-propagation and Counter-propagation Algorithm-)

  • 이남호;정하우
    • 한국농공학회지
    • /
    • 제36권2호
    • /
    • pp.88-95
    • /
    • 1994
  • This paper is to evaluate the applicability of neural networks to the estimation of evapotranspiration. Two neural networks were developed to forecast daily evapotranspiration of the rice crop with back-propagation and counter-propagation algorithm. The neural network trained by back-propagation algorithm with delta learning rule is a three-layer network with input, hidden, and output layers. The other network with counter-propagation algorithm is a four-layer network with input, normalizing, competitive, and output layers. Training neural networks was conducted using daily actual evapotranspiration of rice crop and daily climatic data such as mean temperature, sunshine hours, solar radiation, relative humidity, and pan evaporation. During the training, neural network parameters were calibrated. The trained networks were applied to a set of field data not used in the training. The created response of the back-propagation network was in good agreement with desired values and showed better performances than the counter-propagation network did. Evaluating the neural network performance indicates that the back-propagation neural network may be applied to the estimation of evapotranspiration of the rice crop. This study does not provide with a conclusive statement as to the ability of a neural network to evapotranspiration estimating. More detailed study is required for better understanding and evaluating the behavior of neural networks.

  • PDF

골프공 인식을 위한 OpenCV 기반 신경망 최적화 구조 (Optimal Structures of a Neural Network Based on OpenCV for a Golf Ball Recognition)

  • 김강철
    • 한국전자통신학회논문지
    • /
    • 제10권2호
    • /
    • pp.267-274
    • /
    • 2015
  • 본 논문은 OpenCV 라이브러리를 기반으로 골프공 인식을 위한 신경망의 최적화 구조와 관심영역의 빛의 명도를 계산한다. 개발된 시스템은 전처리, 영상처리, 기계 학습 과정으로 구성되며, 기계 학습과정은 테스트 영상으로부터 골프공과 다른 오브젝트에 대한 Hu의 7 불변 모멘트, 가로 및 세로 비율 또는 면적으로부터 계산된 ${\pi}$를 입력으로 사용하여 다층 퍼셉트론을 기반으로 학습모델을 구한다. 다층 퍼셉트론에 대한 최적의 은닉층과 노드의 수를 결정하도록 모의 실험한 결과 2개의 은닉층과 각 은닉층에 9개의 노드를 가질 때 최대의 인식율과 최소 실행 시간을 얻었다. 그리고 관심영역의 최적 명도는 200으로 계산되었다.

Consciousness, Cognition and Neural Networks in the Brain: Advances and Perspectives in Neuroscience

  • Muhammad Saleem;Muhammad Hamid
    • International Journal of Computer Science & Network Security
    • /
    • 제23권2호
    • /
    • pp.47-54
    • /
    • 2023
  • This article reviews recent advances and perspectives in neuroscience related to consciousness, cognition, and neural networks in the brain. The neural mechanisms underlying cognitive processes, such as perception, attention, memory, and decision-making, are explored. The article also examines how these processes give rise to our experience of consciousness. The implications of these findings for our understanding of the brain and its functions are presented, as well as potential applications of this knowledge in fields such as medicine, psychology, and artificial intelligence. Additionally, the article explores the concept of a quantum viewpoint concerning consciousness, cognition, and creativity and how incorporating DNA as a key element could reconcile classical and quantum perspectives on human behaviour, consciousness, and cognition, as explained by genomic psychological theory. Furthermore, the article explains how the human brain processes external stimuli through the sensory nervous system and how it can be simulated using an artificial neural network (ANN) consisting of one input layer, multiple hidden layers, and an output layer. The law of learning is also discussed, explaining how ANNs work and how the modification of weight values affects the output and input values. The article concludes with a discussion of future research directions in this field, highlighting the potential for further discoveries and advancements in our understanding of the brain and its functions.