• 제목/요약/키워드: Learning pattern

검색결과 1,285건 처리시간 0.029초

CAI 수업 형태가 중학교 가정 교과의 학습에 미치는 효과 (Effect of CAI on Home Economics Class of Middle School25)

  • 임현아;조필교
    • 한국가정과교육학회지
    • /
    • 제8권1호
    • /
    • pp.51-57
    • /
    • 1996
  • The purpose of this study were to examine the difference of the effect of CAI and students’attitude to Home Economics Class through CAI. 120 girl students of the first year were chosen at B middle school in Daegu. Among them each 30 students were classified into 4 groups; High Intelligence group/Individual learning pattern, High Intelligence group/Small group learning pattern, Low Intelligence group/Individual learning pattern, Low Intelligence group/Small group learning pattern. The task of learning was “management of washing”Unit of the second grade. The data were processed with Cronbach’s ${\alpha}$, t-test, ANOVA by SPSS/PC(sup)+. The research findings are as follows: 1. In the verification of CAI Learning effect according to student group pattern, there is no difference between Individual learning pattern and Small group learning pattern in Achivement and Retention of learning. 2. In the verification of CAI Learning effect according to student intelligence level, there is no difference between High Intelligence group and Low Intelligence group in Achivement and Retention of learning. 3. The result of students’attitude to Home Economics Class verificated is an follows. (1) Individual learning pattern is more attensive than Small group learning pattern, but there is no difference in Intelligence level. (2) Low Intelligence group is more positive than High Intelligence group, and Small group learning pattern is more positive than Individual learning pattern in a view of Home Economics Class after using CAI.

  • PDF

Supervised Competitive Learning Neural Network with Flexible Output Layer

  • Cho, Seong-won
    • 한국지능시스템학회논문지
    • /
    • 제11권7호
    • /
    • pp.675-679
    • /
    • 2001
  • In this paper, we present a new competitive learning algorithm called Dynamic Competitive Learning (DCL). DCL is a supervised learning method that dynamically generates output neurons and initializes automatically the weight vectors from training patterns. It introduces a new parameter called LOG (Limit of Grade) to decide whether an output neuron is created or not. If the class of at least one among the LOG number of nearest output neurons is the same as the class of the present training pattern, then DCL adjusts the weight vector associated with the output neuron to learn the pattern. If the classes of all the nearest output neurons are different from the class of the training pattern, a new output neuron is created and the given training pattern is used to initialize the weight vector of the created neuron. The proposed method is significantly different from the previous competitive learning algorithms in the point that the selected neuron for learning is not limited only to the winner and the output neurons are dynamically generated during the learning process. In addition, the proposed algorithm has a small number of parameters, which are easy to be determined and applied to real-world problems. Experimental results for pattern recognition of remote sensing data and handwritten numeral data indicate the superiority of DCL in comparison to the conventional competitive learning methods.

  • PDF

가변 학습을 적용한 퍼지 ART 신경망의 패턴 인식 능력 향상 (Improvement of Pattern Recognition Capacity of the Fuzzy ART with the Variable Learning)

  • 이창주;손병희;홍희식
    • 한국통신학회논문지
    • /
    • 제38B권12호
    • /
    • pp.954-961
    • /
    • 2013
  • 본 논문은 퍼지ART의 학습 방법의 하나인 FCSR(Fast Commit Slow Recode)에서 패턴 인식을 향상시키기 위해 가변 학습을 이용하는 새로운 학습방법을 제안하였다. 기존의 학습 방법은 연결 강도(대표패턴)의 갱신에 고정된 학습률이 사용된다. 이 방법은 같은 카테고리 내의 입력패턴과 대표패턴의 유사성의 정도와 관계없이 고정된 학습률로 연결 강도를 갱신한다. 이 경우 카테고리 경계에 있는 유사성이 낮은 입력패턴이 연결강도의 갱신에 크게 영향을 주게 된다. 따라서 잡음 환경에서 이것은 불필요한 카테고리 증식의 원인이 되고, 패턴 인식 능력을 낮추는 문제가 된다. 제안된 방법에서는 대표 패턴과 입력 패턴 사이에 유사성이 적을수록 연결강도의 갱신에 입력패턴의 기여를 낮추어간다. 그 결과 잡음환경에서 퍼지 ART의 불필요한 카테고리 증식을 억제하였고, 패턴 인식 능력을 향상시켰다.

사이버강의 수강생들의 교과목별 학습시간 분석 (Analysis of Learning Hour in Cyber Classes of Major and Non-Major Subjects)

  • 문봉희
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.243-251
    • /
    • 2008
  • 많은 대학교에서 사이버 강의는 오늘날 중요한 교육 형태로 자리 잡아가고 있다. 수강생이 많은 교양교과목과 전공의 일부 교과목들을 사이버강의로 진행하고 있다. 그러나 실제로 사이버 강의의 수요자이면서 주체인 학습자에 대한 현황 분석 연구는 거의 이루어지지 않아서, 학습자의 특성에 맞게 사이버 강의가 제공되고 있는지에 대한 연구는 부족하다. 본 연구는 사이버 강의 과정에 이루어지는 학생들의 로그 파일을 이용하여 학습자들의 교양과목과 전공과목의 학습시간 유형을 시간대별, 요일별, 주차별로 분석하고, 효율적으로 학습효과를 높일 수 있는 방안들을 제시하였다. 학생들의 학습시간이 30분 이내인 로그인이 50%이상이며, 강의외적인 요소에 이런닝 시스템 자원을 낭비하고 있어서 개선이 필요하다.

  • PDF

학부 사이버강의 수강생들의 로그인과 학습 시간 분석 (Analysis of Login and Learning Hour in Cyber Classes of Undergraduate Students)

  • 문봉희
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권5호
    • /
    • pp.171-177
    • /
    • 2007
  • 이런닝(e-Learning)에서의 사이버 강의는 오늘날 중요한 교육 형태로 자리 잡아가고 있다. 그러나 실제로 사이버 강의의 수요자이면서 주체인 학습자에 대한 현황 분석 연구는 거의 이루어지지 않아서, 학습자의 특성에 맞게 사이버 강의가 제공되고 있는지에 대한 연구는 부족하다. 본 연구는 사이버 강의 과정에 이루어지는 학생들의 로그 파일을 이용하여 학습자들의 로그인과 학습시간 유형을 시간대별, 요일별, 주차별로 분석하고, 효율적으로 학습효과를 높일 수 있는 방안들을 제시하였다. 학생들의 학습시간이 30분이내인 로그인이 50%이상이며, 강의외적인 요소에 이런닝 시스템 자원을 낭비하고 있어서 개선이 필요하다.

  • PDF

가변 가중 평균 학습을 적용한 퍼지 ART 신경망의 성능 향상 (Improvement of Properties of the Fuzzy ART with the Variable Weighed Average Learning)

  • 이창주;손병희
    • 한국통신학회논문지
    • /
    • 제42권2호
    • /
    • pp.366-373
    • /
    • 2017
  • 본 논문은 그로스버그(Grossberg)에 의해 개발된 퍼지 ART 신경 회로망의 성능을 향상시키기 위하여 가변가중 평균(VWA) 학습 방법을 제안한다. 기존의 방법인 고속수용저속부호화(FCSR)는 입력패턴이 임의의 카테고리 내에 포함될 때 카테고리를 대표하는 대표패턴의 갱신이 입력패턴과의 거리(유사성)와 관계없이 고정 학습률로 갱신되고, 또한 이를 개선한 가변학습(VL)은 대표패턴과 입력패턴 사이의 거리를 대표패턴의 갱신에 반영하여 카테고리 증식 문제와 패턴 인식률을 개선한다. 그러나 두 방법 모두 학습 시 퍼지 AND에 의한 과도한 학습이 필수적으로 발생하여 카테고리 증식 문제와 패턴 인식 향상에 한계를 갖는다. 제안된 방법은 카테고리를 대표하는 대표패턴의 갱신 시 대표패턴과 입력패턴 사이의 거리를 반영한 가중평균 학습을 적용하여 대표패턴의 과도한 학습을 억제한다. 시뮬레이션 결과 기존의 학습 방법인 고속수용저속부호화(FCSR)와 가변학습(VL) 보다 제안된 가변가중평균(VWA) 학습 방법이 잡음 환경에서 대표패턴의 과도한 학습을 억제하여 퍼지 ART 신경 회로망의 카테고리 증식문제를 완화하고 패턴 인식률을 향상시키는 것을 보여준다.

Area Extraction of License Plates Using an Artificial Neural Network

  • Kim, Hyun-Yul;Lee, Seung-Kyu;Lee, Geon-Wha;Park, Young-rok
    • 한국정보전자통신기술학회논문지
    • /
    • 제7권4호
    • /
    • pp.212-222
    • /
    • 2014
  • In the current study, the authors propose a method for extracting license plate regions by means of a neural network trained to output the plate's center of gravity. The method is shown to be effective. Since the learning pattern presentation positions are defined by random numbers, a different pattern is submitted to the neural network for learning each time, which enables it to form a neural network with high universality of coverage. The article discusses issues of the optimal learning surface for a license plate covered by the learning pattern, the effect of suppression learning of the number and pattern enlargement/reduction and of concentration value conversion. Results of evaluation tests based on pictures of 595 vehicles taken at an under-ground parking garage demonstrated detection rates of 98.5%, 98.7%, and 100%, respectively.

분류오차유발 패턴벡터 학습을 위한 학습네트워크 (Learning Networks for Learning the Pattern Vectors causing Classification Error)

  • 이용구;최우승
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권5호
    • /
    • pp.77-86
    • /
    • 2005
  • 본 논문에서는 분류오차를 추출하고 학습하여 분류성능을 개선하는 LVQ 학습 알고리즘을 설계하였다. 제안된 LVQ학습 알고리즘은 초기기준백터의 학습을 위해 SOM을 이용하고, LVQ 출력뉴런의 부류지정을 위하여 out-star 학습법을 사용하는 학습네트워크이다. 분류오차가 발생되는 패턴백터로 추출하기 위하여 오차유발조건을 제안하였고, 이 조건을 이용하여 분류오차를 유발시키는 입력패턴벡터로 구성되는 패턴백터공간을 구성하여 분류오차가 발생되는 패턴백터를 학습시키므로 분류오차수를 감소시키고, 패턴분류성능을 개선하였다. 제안된 학습알고리즘의 성능을 검증하기 위하여 Fisher의 Iris 데이터와 EMG 데이터를 학습백터 및 시험 백터로 사용하여 시뮬레이션 하였고, 제안된 학습방식의 분류 성능은 기존의 LVQ와 비교되어 기존의 학습방식보다 우수한 분류성공률을 확인하였다.

  • PDF

시공간패턴인식 신경회로망의 설계 (Neural Network Design for Spatio-temporal Pattern Recognition)

  • 임정수;이종호
    • 대한전기학회논문지:전력기술부문A
    • /
    • 제48권11호
    • /
    • pp.1464-1471
    • /
    • 1999
  • This paper introduces complex-valued competitive learning neural network for spatio-temporal pattern recognition. There have been quite a few neural networks for spatio-temporal pattern recognition. Among them, recurrent neural network, TDNN, and avalanche model are acknowledged as standard neural network paradigms for spatio-temporal pattern recognition. Recurrent neural network has complicated learning rules and does not guarantee convergence to global minima. TDNN requires too many neurons, and can not be regarded to deal with spatio-temporal pattern basically. Grossberg's avalanche model is not able to distinguish long patterns, and has to be indicated which layer is to be used in learning. In order to remedy drawbacks of the above networks, unsupervised competitive learning using complex umber is proposed. Suggested neural network also features simultaneous recognition, time-shift invariant recognition, stable categorizing, and learning rate modulation. The network is evaluated by computer simulation with randomly generated patterns.

  • PDF

혼합 데이터 마이닝 기법인 불일치 패턴 모델의 특성 연구 (Characteristics on Inconsistency Pattern Modeling as Hybrid Data Mining Techniques)

  • 허준;김종우
    • Journal of Information Technology Applications and Management
    • /
    • 제15권1호
    • /
    • pp.225-242
    • /
    • 2008
  • PM (Inconsistency Pattern Modeling) is a hybrid supervised learning technique using the inconsistence pattern of input variables in mining data sets. The IPM tries to improve prediction accuracy by combining more than two different supervised learning methods. The previous related studies have shown that the IPM was superior to the single usage of an existing supervised learning methods such as neural networks, decision tree induction, logistic regression and so on, and it was also superior to the existing combined model methods such as Bagging, Boosting, and Stacking. The objectives of this paper is explore the characteristics of the IPM. To understand characteristics of the IPM, three experiments were performed. In these experiments, there are high performance improvements when the prediction inconsistency ratio between two different supervised learning techniques is high and the distance among supervised learning methods on MDS (Multi-Dimensional Scaling) map is long.

  • PDF