• Title/Summary/Keyword: 다중 학습

Search Result 1,008, Processing Time 0.033 seconds

Automatic Text Classification Using Hybrid Multiple Model Schemes (하이브리드 다중 모델 학습 기법을 이용한 자동 문서 분류)

  • 명순희;조형근;김인철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.253-255
    • /
    • 2002
  • 본 논문에서는 다중 모델 기계학습 기법을 이용하여 문서 자동 분류의 성능과 신뢰도를 향상시킬 수 있는 연구와 실험 결과를 기술하였다. 기존의 다중 모텔 기계 학습법들이 훈련 데이터 또는 학습 알고리즘의 편향에 의한 오류를 극복하고 한 것들인데 비해 본 논문에서 제안한 메타 학습을 이용한 하이브리드 다중 모델 방식은 이 두 가지의 오류 원인을 동시에 해소하고자 하였다. 다양한 문서 집합에 대한 실험 결과, 본 연구에서 제안한 하이브리드 다중 모델 학습법이 전반적으로 기존의 일반 다중모델 학습법들에 비해 높은 성능을 보였으며, 다중 모델의 결합 방식으로서 메타 학습이 투표 방식에 비해 효율적인 것으로 나타났다.

  • PDF

Automatic Text Categorization Using Hybrid Multiple Model Schemes (하이브리드 다중모델 학습기법을 이용한 자동 문서 분류)

  • 명순희;김인철
    • Journal of the Korean Society for information Management
    • /
    • v.19 no.4
    • /
    • pp.35-51
    • /
    • 2002
  • Inductive learning and classification techniques have been employed in various research and applications that organize textual data to solve the problem of information access. In this study, we develop hybrid model combination methods which incorporate the concepts and techniques for multiple modeling algorithms to improve the accuracy of text classification, and conduct experiments to evaluate the performances of proposed schemes. Boosted stacking, one of the extended stacking schemes proposed in this study yields higher accuracy relative to the conventional model combination methods and single classifiers.

SOM-Based State Generalization for Multiagent Reinforcement Learning (다중에이전트 강화학습을 위한 SOM기반의 상태 일한화)

  • 임문택;김인철
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2002.11a
    • /
    • pp.399-408
    • /
    • 2002
  • 다중 에이전트 학습이란 다중 에이전트 환경에서 에이전트간의 조정을 위한 행동전략을 학습하는 것을 말한다. 본 논문에서는 에이전트간의 통신이 불가능한 다중 에이전트 환경에서 각 에이전트들이 서로 독립적으로 대표적인 강화학습법인 Q학습을 전개함으로써 서로 효과적으로 협조할 수 있는 행동전략을 학습하려고 한다. 하지만 단일 에이전트 경우에 비해 보다 큰 상태-행동 공간을 갖는 다중 에이전트환경에서는 강화학습을 통해 효과적으로 최적의 행동 전략에 도달하기 어렵다는 문제점이 있다. 이 문제에 대한 기존의 접근방법은 크게 모듈화 방법과 일반화 방법이 제안되었으나 모두 나름의 제한을 가지고 있다. 본 논문에서는 대표적인 다중 에이전트 학습 문제의 예로서 먹이와 사냥꾼 문제(Prey and Hunters Problem)를 소개하고 이 문제영역을 통해 이와 같은 강화학습의 문제점을 살펴보고, 해결책으로 신경망 SOM을 이용한 일반화 방법인 QSOM 학습법을 제안한다. 이 방법은 기존의 일반화 방법과는 달리 군집화 기능을 제공하는 신경망 SOM을 이용함으로써 명확한 다수의 훈련 예가 없어도 효과적으로 이전에 경험하지 못했던 상태-행동들에 대한 Q값을 예측하고 이용할 수 있다는 장점이 있다. 또한 본 논문에서는 실험을 통해 QSOM 학습법의 일반화 효과와 성능을 평가하였다.

  • PDF

Adaptive Multilayered Student Modeling using Agent (Agent 기반 적응적 다중 학습자 모델링)

  • 이성곤;유영동
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 1999.10a
    • /
    • pp.263-268
    • /
    • 1999
  • 지능형 교육 시스템에서 학습자 모델은 학습자의 반응을 토대로 교수모듈과 전문가 모듈을 연계하여 새로운 학습자 모델을 제시하는 역할을 수행하고 있으며, 이는 성공적인 지능형 교육 시스템의 구현에 있어서 핵심적인 부분이다. 따라서 많은 대학교 및 연구소에서 그동안 학습자 모형에 관한 많은 연구가 이루어져오고 있다. 그러나 대부분의 연구는 단일 학습자 모형을 기반으로 두고 있으며, 이러한 단일 학습자 모형을 이용한 시스템들은 학습자의 지식 또는 학습자의 성향을 정확히 파악하기는 어려움을 갖고 있을 뿐만 아니라 다른 모듈과의 인터페이스 부분에서 중복된 많은 정보를 가지고 있다. 따라서 본 논문에서는 학습자의 지식을 정확하게 진단하고 각 모듈간의 중복된 정보를 보완할 수 있는 다중 학습자 모형을 개발하여 구현하였다. 또한 이러한 다중 학습자 모형을 최적으로 수행할 수 있도록 하기위하여 agent기법을 적용하였다. Agent를 이용한 다중 학습자 모형을 적용하여 구현한 시스템은 첫째, 단계적인 접근 방법으로 보다 정확한 학습자의 지식 진단이 가능하다. 둘째, 학습과정중 학습자의 심리 상태 및 학습자의 선호도 등 파악이 용이하다. 셋째, 교수모듈과 전문가 모듈과의 연계에 있어서 정보의 중복됨의 최소화 등의 장점을 제공한다.

  • PDF

Educational Strategy based on Learning Styles and Multiple intelligences in Programming Education (프로그래밍 교육에서 학습스타일과 다중지능을 고려한교육방안)

  • Cho, Eun-Ae;Kim, Soo-Hwan;Han, Seon-Kwan
    • 한국정보교육학회:학술대회논문집
    • /
    • 2009.08a
    • /
    • pp.61-66
    • /
    • 2009
  • 프로그래밍 교육이 학습자의 논리적 사고력 증진, 문제해결 능력, 성취감과 자신감 획득 등 학습자의 고등 인지 능력을 발달시킨다는 사실이 많은 연구에서 나타나고 있으며, 다양한 교육용프로그래밍 언어가 개발되어 현장에 적용되고 있다. 또한 프로그래밍 교육의 필요성이 확산됨에 따라 프로그래밍 교육 방안도 다양하게 시도되고 있다. 전통적인 교육에서와 마찬가지로 프로그래밍 학습에서도 효율적인 학습을 위해서는 학습자들의 학습스타일과 다중지능을 고려한 교육이 필요한 실정이다. 즉, 효과적인 프로그래밍 교육을 위해서는 다양한 학습자들의 특성을 파악하고 학습자에게 적합한 교육 방안을 적용하는 것이 필요하다. 따라서 본 연구에서는 효율적인 프로그래밍 교육을 위해 학습자의 학습스타일과 다중지능 간의 관계를 분석하고, 그 결과를 바탕으로 프로그래밍 교육에 있어 학습스타일과 다중지능을 고려한 교육 전략을 제시하였다. 본 연구의 결과는 학습자에게 특성을 고려한 적합한 교육을 실시함으로써 학습자의 흥미를 유발하고, 프로그래밍 교육의 학습효과를 증진하는데 기여하게 될 것이다.

  • PDF

Efficient Reinforcement Learning System in Multi-Agent Environment (다중 에이전트 환경에서 효율적인 강화학습 시스템)

  • Hong, Jung-Hwan;Kang, Jin-Beom;Choi, Joong-Min
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.393-396
    • /
    • 2006
  • 강화학습은 환경과 상호작용하는 과정을 통하여 목표를 이루기 위한 전략을 학습하는 방법으로써 에이전트의 학습방법으로 많이 사용한다. 독립적인 에이전트가 아닌 상호 의사소통이 가능한 다중 에이전트 환경에서 에이전트의 학습정보를 서로 검색 및 공유가 가능하다면 환경이 거대하더라도 기존의 강화학습 보다 빠르게 학습이 이루어질 것이다. 하지만 아직 다중 에이전트 환경에서 학습 방법에 대한 연구가 미흡하여 학습정보의 검색과 공유에 대해 다양한 방법들이 요구되고 있다. 본 논문에서는 대상 에이전트 학습 정보와 주변 에이전트들의 학습 정보 사이에 편집거리를 비교하여 유사한 에이전트를 찾고 그 에이전트 정보를 강화학습 사전정보로 사용함으로써 학습속도를 향상시킨 ED+Q-Learning 시스템을 제안한다.

  • PDF

Integrating Multiple Classifiers in a GA-based Inductive Learning Environment (유전 알고리즘 기반 귀납적 학습 환경에서 분류기의 통합)

  • Kim, Yeong-Joon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.10 no.3
    • /
    • pp.614-621
    • /
    • 2006
  • We have implemented a multiclassifier learning approach in a GA-based inductive learning environment that learns classification rules that are similar to rules used in PROSPECTOR. In the multiclassifier learning approach, a classification system is constructed with several classifiers that are obtained by running a GA-based learning system several times to improve the overall performance of a classification system. To implement the multiclassifier learning approach, we need a decision-making scheme that can draw a decision using multiple classifiers. In this paper, we introduce two decision-making schemes: one is based on combining posterior odds given by classifiers to each class and the other one is a voting scheme based on ranking assigned to each class by classifiers. We also present empirical results that evaluate the effect of the multiclassifier learning approach on the GA-based inductive teaming environment.

A development and evaluation of practical problem-based Home Economics lesson plans applying to multiple intelligence teaching.learning strategy - Focused on the unit 'Nutrition & Meals' of middle school Home Economics subject matter - (다중지능 교수.학습 방법을 적용한 실천적 문제 중심 가정과 교수.학습 과정안의 개발과 평가 - 중학교 가정과 '청소년의 영양과 식사' 단원을 중심으로 -)

  • Choi, Seong-Youn;Chae, Jung-Hyun
    • Journal of Korean Home Economics Education Association
    • /
    • v.23 no.1
    • /
    • pp.87-111
    • /
    • 2011
  • The purpose of this study was to develop and evaluate practical problem-based Home Economics lesson plans applying to the multiple intelligence teaching learning strategy, focused on the unit 'Nutrition & Meals' of middle school Home Economics subject matter. To achieve this purpose, the lesson plans were developed and evaluated from the 72 middle school students in Chongju after implementing the instruction. The data from the questionnaire were analyzed by SPSS/WIN 12.0 and content analysis. The results were as follows: First, the objectives of practical problem-based 'Nutrition & Meals' Instruction using multiple intelligence teaching strategy were to understand the importance of nutrition and health in an adolescent period and to develop good eating habits. The Practical Problem was 'What should I do for good eating habits?' and the learning contents were healthy life, the kinds and functions of nutriments, food pyramid and a food guide. The learning activities were progressed by various types of teaching and learning methods including 8 types of multiple intelligence teaching strategy. The lesson plans were developed according to the process of practical problem solving model. 6 periods of lesson plans and worksheets were developed. Second, the practical problem-based instruction using multiple intelligence teaching-learning strategy were evaluated to increase students' positive learning attitudes, motivation, and good eating habits.

  • PDF

Discriminating User Attributes in Social Text based on Multi-Instance Learning (다중 인스턴스 학습 기반 사용자 프로파일 식별)

  • Song, Hyun-Je;Kim, A-Yeong;Park, Seong-Bae
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.47-52
    • /
    • 2012
  • 본 논문에서는 소셜 네트워크 서비스에서 사용자가 작성한 텍스트로부터 그 사용자 프로파일 식별하는 문제를 다룬다. 프로파일 식별 관련 기존 연구에서는 개별 텍스트를 하나의 학습 단위로 간주하고 이를 기반으로 학습 모델을 구축한다. 프로파일을 식별하고자 하는 사용자의 텍스트들이 주어지면 각 텍스트마다 프로파일을 식별하고, 식별된 결과들을 합쳐 최종 프로파일로 선택한다. 하지만 SNS 특성상 프로파일을 식별하는 데에 영향을 끼치지 않는 텍스트들이 다수 존재하며, 기존 연구들은 이 텍스트들을 특별한 처리없이 학습 및 테스트에 사용함으로 인해 프로파일 식별 성능이 저하되는 문제점이 있다. 본 논문에서는 다중 인스턴스 학습(Multi-Instance Learning)을 기반으로 사용자 프로파일을 식별한다. 제안한 방법은 사용자가 작성한 텍스트 전체, 즉 텍스트 집합을 학습 단위로 간주하고 다중 인스턴스 학습 문제로 변환하여 프로파일을 식별한다. 다중 인스턴스 학습을 사용함으로써 프로파일 식별에 유의미한 텍스트들만이 고려되고 그 결과 프로파일 식별에 영향을 끼치지 않는 텍스트로부터의 성능 하락을 최소화할 수 있다. 실험을 통해 제안한 방법이 기존 학습 방법보다 성별, 나이, 결혼/연애 상태를 식별함에 있어서 더 좋은 성능을 보인다.

  • PDF

A Performance Improvement Technique for Nash Q-learning using Macro-Actions (매크로 행동을 이용한 내시 Q-학습의 성능 향상 기법)

  • Sung, Yun-Sik;Cho, Kyun-Geun;Um, Ky-Hyun
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.3
    • /
    • pp.353-363
    • /
    • 2008
  • A multi-agent system has a longer learning period and larger state-spaces than a sin91e agent system. In this paper, we suggest a new method to reduce the learning time of Nash Q-learning in a multi-agent environment. We apply Macro-actions to Nash Q-learning to improve the teaming speed. In the Nash Q-teaming scheme, when agents select actions, rewards are accumulated like Macro-actions. In the experiments, we compare Nash Q-learning using Macro-actions with general Nash Q-learning. First, we observed how many times the agents achieve their goals. The results of this experiment show that agents using Nash Q-learning and 4 Macro-actions have 9.46% better performance than Nash Q-learning using only 4 primitive actions. Second, when agents use Macro-actions, Q-values are accumulated 2.6 times more. Finally, agents using Macro-actions select less actions about 44%. As a result, agents select fewer actions and Macro-actions improve the Q-value's update. It the agents' learning speeds improve.

  • PDF