• Title/Summary/Keyword: Learning Agent

Search Result 448, Processing Time 0.035 seconds

협력 e-러닝 학습 환경 구축 및 에이전트 적용 방안 (Design of Collaborative e-Learning Environment and Collaborative Learning Agent)

  • 장호욱;서희전;문경애
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.11-16
    • /
    • 2004
  • 지식 정보화 시대의 새로운 교육 형태와 패러다임으로 시간과 장소에 구애받지 않고 학습할 수 있으며 학습자 중심 교육을 제공하는 e-러닝에 대한 관심이 고조되고 있다. 그러나 기대에 비해서는 현재까지 e-러닝에 대한 폭발적인 수요와 성장은 발생하지 않고 있는데, 현재 대부분의 e-러닝 교육 형태가 기존의 일방적인 주입식 교육 형태를 단순히 디지털화 하여 학습 콘텐츠의 반복 학습을 제공하는데 그쳐 학습자들의 적극적인 참여와 관심을 이끌어 내는데 실패하였기 때문이다. e-러닝 환경에서 학습자들의 자발적인 참여를 이끌어내고 학습의 몰입도를 높이기 위해 학습 과제를 여러 명의 학생들이 상호 의존하여 공동으로 해결함으로써 학습 목표를 달성하는 형태의 협력학습에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 학습자들 간의 상호작용 을 높이면서 학습행위를 촉진시키기 위한 협력 e-러닝 환경 구축 및 협력학습촉진 에이전트 적용 방안을 제시한다.

  • PDF

작업별 위치기반 지수학습 효과를 갖는 2-에이전트 스케줄링 문제를 위한 시뮬레이티드 어닐링 (Simulated Annealing for Two-Agent Scheduling Problem with Exponential Job-Dependent Position-Based Learning Effects)

  • 최진영
    • 한국시뮬레이션학회논문지
    • /
    • 제24권4호
    • /
    • pp.77-88
    • /
    • 2015
  • 본 논문은 작업별 위치기반 지수학습 효과를 갖는 2-에이전트 단일기계 스케줄링 문제를 고려한다. 에이전트 A는 가중 완료 시간의 합을 최소화하며, 에이전트 B는 총소요시간에 대한 상한 값을 만족하는 조건을 갖는다. 본 연구에서는 먼저 우수해/가능해에 대한 특성을 개발하고, 이를 이용하여 최적 해를 찾기 위한 분지한계 알고리즘을 설계한다. 또한 근사 최적 해를 구하기 위해 6가지 다른 초기해 생성 방법을 이용한 시뮬레이티드 어닐링 알고리즘을 제안한다. 수치 실험을 통해 제안된 알고리즘의 우수한 성능을 검증한다. 실험 결과, 다른 초기해 생성 방법들 간에는 %errors 차이가 유의하게 발생하지 않았으며, 에이전트 A의 작업 순서를 무작위로 생성할 때 성능이 좋아짐을 발견하였다. 반면에, 에이전트 B의 초기해 생성 방법은 성능에 영향을 미치지 않았다.

지능형 에이전트를 이용한 개인화된 유.무선 뉴스 검색 시스템 (Personalized Wire and Wireless News Retrieval System Using Intelligent Agent)

  • 한선미;우진운
    • 정보처리학회논문지B
    • /
    • 제8B권6호
    • /
    • pp.609-616
    • /
    • 2001
  • 오늘날 인터넷이 보편화되면서 정보 검색 및 뉴스 검색들이 일반화되고 있지만 엄청난 정보의 양과 다양성 등으로 인해 사용자들은 오히려 정보 검색의 어려움을 호소하고 있다. 이에 본 논문에서는 사용자 편의의 뉴스 검색과 사용자의 요구와 취향이 반영될 수 있도록 BPN(Back Propagation Neural Network)의 학습 기능을 가진 지능형 에이전트를 이용하여 뉴스 기사를 필터링하는 뉴스 검색 시스템을 제안한다. 이 시스템은 여러 신문사의 기사를 수집 및 통합하여 그 날의 주요 기사들을 데이터베이스에 저장하는 수집 에이전트, 사용자가 입력한 키워드를 이용하여 BPN 기법으로 학습시키는 학습 에이전트 등으로 구성되어 있다. 또한 정보 통신 기술의 눈부신 발달로 무선 인터넷이 급속히 보급되는 현실을 감안하여 무선으로도 이러한 서비스를 제공할 수 있도록 시스템을 구성하였다.

  • PDF

An Improved Domain-Knowledge-based Reinforcement Learning Algorithm

  • Jang, Si-Young;Suh, Il-Hong
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.1309-1314
    • /
    • 2003
  • If an agent has a learning ability using previous knowledge, then it is expected that the agent can speed up learning by interacting with environment. In this paper, we present an improved reinforcement learning algorithm using domain knowledge which can be represented by problem-independent features and their classifiers. Here, neural networks are employed as knowledge classifiers. To show the validity of our proposed algorithm, computer simulations are illustrated, where navigation problem of a mobile robot and a micro aerial vehicle(MAV) are considered.

  • PDF

Generating Cooperative Behavior by Multi-Agent Profit Sharing on the Soccer Game

  • Miyazaki, Kazuteru;Terada, Takashi;Kobayashi, Hiroaki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.166-169
    • /
    • 2003
  • Reinforcement learning if a kind of machine learning. It aims to adapt an agent to a given environment with a clue to a reward and a penalty. Q-learning [8] that is a representative reinforcement learning system treats a reward and a penalty at the same time. There is a problem how to decide an appropriate reward and penalty values. We know the Penalty Avoiding Rational Policy Making algorithm (PARP) [4] and the Penalty Avoiding Profit Sharing (PAPS) [2] as reinforcement learning systems to treat a reward and a penalty independently. though PAPS is a descendant algorithm of PARP, both PARP and PAPS tend to learn a local optimal policy. To overcome it, ion this paper, we propose the Multi Best method (MB) that is PAPS with the multi-start method[5]. MB selects the best policy in several policies that are learned by PAPS agents. By applying PS, PAPS and MB to a soccer game environment based on the SoccerBots[9], we show that MB is the best solution for the soccer game environment.

  • PDF

지능형 헤드헌팅 서비스를 위한 협업 딥 러닝 기반의 중개 채용 서비스 시스템 설계 및 구현 (Design and Implementation of Agent-Recruitment Service System based on Collaborative Deep Learning for the Intelligent Head Hunting Service)

  • 이현호;이원진
    • 한국멀티미디어학회논문지
    • /
    • 제23권2호
    • /
    • pp.343-350
    • /
    • 2020
  • In the era of the Fourth Industrial Revolution in the digital revolution is taking place, various attempts have been made to provide various contents in a digital environment. In this paper, agent-recruitment service system based on collaborative deep learning is proposed for the intelligent head hunting service. The service system is improved from previous research [7] using collaborative deep learning for more reliable recommendation results. The Collaborative deep learning is a hybrid recommendation algorithm using "Recurrent Neural Network(RNN)" specialized for exponential calculation, "collaborative filtering" which is traditional recommendation filtering methods, and "KNN-Clustering" for similar user analysis. The proposed service system can expect more reliable recommendation results than previous research and showed high satisfaction in user survey for verification.

Flexible Labeling Mechanism in LQ-learning for Maze Problems

  • Lee, Haeyeon;Hiroyuki Kamaya;Kenichi Abe;Hiroyuki Kamaya
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.22.2-22
    • /
    • 2001
  • Recently, Reinforcement Learning (RL) methods in MDP have been extended and applied to the POMDP problems. Currently, hierarchical RL methods are widely studied. However, they have the drawback that the learning time and memories are exhausted only for keeping the hierarchical structure, though they aren´t necessary. On the other hand, our "Labeling Q-learning (LQ-learning) proposed previously, has no hierarchical structure, but adopts a characteristic internal memory mechanism. Namely, LQ-1earning agent percepts the state by pair of observation and its label, and the agent can distinguish states, which look as same, but obviously different, more exactly. So to speak, at each step t, we define a new type of perception of its environment ~ot = (ot, $\theta$t), where of is conventional observation, and $\theta$t is the label attached to the observation. Then the conventional ...

  • PDF

Agent with Low-latency Overcoming Technique for Distributed Cluster-based Machine Learning

  • Seo-Yeon, Gu;Seok-Jae, Moon;Byung-Joon, Park
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제15권1호
    • /
    • pp.157-163
    • /
    • 2023
  • Recently, as businesses and data types become more complex and diverse, efficient data analysis using machine learning is required. However, since communication in the cloud environment is greatly affected by network latency, data analysis is not smooth if information delay occurs. In this paper, SPT (Safe Proper Time) was applied to the cluster-based machine learning data analysis agent proposed in previous studies to solve this delay problem. SPT is a method of remotely and directly accessing memory to a cluster that processes data between layers, effectively improving data transfer speed and ensuring timeliness and reliability of data transfer.

초등과학 수업을 위한 애니메이션 기반 튜터링 다이얼로그 에이전트 개발 (On the Development of Animated Tutoring Dialogue Agent for Elementary School Science Learning)

  • 정상목;한병래;송기상
    • 정보교육학회논문지
    • /
    • 제9권4호
    • /
    • pp.673-684
    • /
    • 2005
  • 본 연구에서는 인간 교사를 모사하는 "컴퓨터 교사" 역할을 하는 애니메이션 된 튜터링 다이얼로그 에이전트를 구현하고 초등학교 과학과 교수-학습 자료와 통합시켜서 자연어를 기반으로 한 일대일 대화를 통한 교수 학습이 이루어지는 교수-학습 시스템을 개발하였다. 개발된 교수용 다이얼로그 에이전트는 학습자의 대답을 분석하고, 웹 코스웨어를 학습한 후에 초등과학 학습과제에서 요구되는 성취 수준과 비교하여 적절한 질문이나 대답을 제공하는데, TTS(Text-to-Speech) 기능을 이용하여 학습자에게 구어체로 질문이나 대답을 주는 기능을 갖고 있으며 애니메이션 된 인간 교사의 얼굴을 통하여 학습자에게 피드백을 제시할 수 있도록 하였다. 구현된 대화형 인터페이스는 6학년 초등학생 64명에게 현장 실험을 하였다. 현장 실험 결과 비교집단보다 실험집단의 학습 성취도가 평균 10.797점이 향상됨을 보여주었다. 이러한 학습효과는 기존의 웹 코스웨어와 달리 "묻고-답하는" 과정과 인간 교사의 감정을 담은 애니메이션 된 캐릭터를 통하여 학습자들의 호기심을 자극하여 보다 쉽게 교수-학습 과정에 몰입하게 함으로서 학습 효과를 증진시킨 결과로 판단된다.

  • PDF

Cooperative Multi-agent Reinforcement Learning on Sparse Reward Battlefield Environment using QMIX and RND in Ray RLlib

  • Minkyoung Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.11-19
    • /
    • 2024
  • 멀티에이전트는 전장 교전 상황, 무인 운송 차량 등 다양한 실제 협동 환경에 사용될 수 있다. 전장 교전 상황에서는 도메인 정보의 제한으로 즉각적인 보상(Dense Reward) 설계의 어려움이 있어 명백한 희소 보상(Sparse Reward)으로 학습되는 상황을 고려해야 한다. 본 논문에서는 전장 교전 상황에서의 아군 에이전트 간 협업 가능성을 확인하며, 희소 보상 환경인 Multi-Robot Warehouse Environment(RWARE)를 활용하여 유사한 문제와 평가 기준을 정의하고, 강화학습 라이브러리인 Ray RLlib의 QMIX 알고리즘을 사용하여 학습 환경을 구성한다. 정의한 문제에 대해 QMIX의 Agent Network를 개선하고 Random Network Distillation(RND)을 적용한다. 이를 통해 에이전트의 부분 관측값에 대한 패턴과 시간 특징을 추출하고, 에이전트의 내적 보상(Intrinsic Reward)을 통해 희소 보상 경험 획득 개선이 가능함을 실험을 통해 확인한다.