• Title/Summary/Keyword: 학습모델

Search Result 5,999, Processing Time 0.03 seconds

Analysis of the effectiveness of the Recommendation Model for the Customized Learning Course (맞춤형 학습코스 추천 모델의 효과분석 방안)

  • Han, Ji-won;Lim, Heui-seok
    • Proceedings of The KACE
    • /
    • 2017.08a
    • /
    • pp.221-224
    • /
    • 2017
  • 본 논문은 사용자 수준에 적합한 맞춤형 학습코스를 추천하여 학습효과를 향상시킬 수 있는 추천모델을 개발하고, 효과분석을 위한 방안을 제시한다. 학습자 개개인의 학습수준이나 학습내용 등에 따라 적합한 학습주제를 선정하여 제공하는 것은 중요하나, 일반적인 추천은 전문가 그룹을 활용한 사람중심의 추천으로 시간이 오래 걸리는 등 자원의 비효율적 한계점[1]을 가지고 있다. 이를 극복하기 위해, TF-IDF를 이용해 단어별 가중치를 계산하여 고빈도 단어를 추출하여 벡터 공간에 배치시키고, Cosine Similarity 기법을 이용해 벡터간의 유사도를 측정하였다. 학습자 프로파일을 분석하고, 학습스킬간의 연관성을 고려하여 맞춤형 학습코스를 추천하기 위해, 워드 임베딩 기법을 적용하였고, 이를 위해 오픈소스 Gensim[2]을 이용하였다. 맞춤형 학습코스 추천 모델의 효과를 분석하기 위한 실험을 설계하고 평가 문항지를 개발하였다.

  • PDF

Development of a Flooding Detection Learning Model Using CNN Technology (CNN 기술을 적용한 침수탐지 학습모델 개발)

  • Dong Jun Kim;YU Jin Choi;Kyung Min Park;Sang Jun Park;Jae-Moon Lee;Kitae Hwang;Inhwan Jung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.23 no.6
    • /
    • pp.1-7
    • /
    • 2023
  • This paper developed a training model to classify normal roads and flooded roads using artificial intelligence technology. We expanded the diversity of learning data using various data augmentation techniques and implemented a model that shows good performance in various environments. Transfer learning was performed using the CNN-based Resnet152v2 model as a pre-learning model. During the model learning process, the performance of the final model was improved through various parameter tuning and optimization processes. Learning was implemented in Python using Google Colab NVIDIA Tesla T4 GPU, and the test results showed that flooding situations were detected with very high accuracy in the test dataset.

Character-based Subtitle Generation by Learning of Multimodal Concept Hierarchy from Cartoon Videos (멀티모달 개념계층모델을 이용한 만화비디오 컨텐츠 학습을 통한 등장인물 기반 비디오 자막 생성)

  • Kim, Kyung-Min;Ha, Jung-Woo;Lee, Beom-Jin;Zhang, Byoung-Tak
    • Journal of KIISE
    • /
    • v.42 no.4
    • /
    • pp.451-458
    • /
    • 2015
  • Previous multimodal learning methods focus on problem-solving aspects, such as image and video search and tagging, rather than on knowledge acquisition via content modeling. In this paper, we propose the Multimodal Concept Hierarchy (MuCH), which is a content modeling method that uses a cartoon video dataset and a character-based subtitle generation method from the learned model. The MuCH model has a multimodal hypernetwork layer, in which the patterns of the words and image patches are represented, and a concept layer, in which each concept variable is represented by a probability distribution of the words and the image patches. The model can learn the characteristics of the characters as concepts from the video subtitles and scene images by using a Bayesian learning method and can also generate character-based subtitles from the learned model if text queries are provided. As an experiment, the MuCH model learned concepts from 'Pororo' cartoon videos with a total of 268 minutes in length and generated character-based subtitles. Finally, we compare the results with those of other multimodal learning models. The Experimental results indicate that given the same text query, our model generates more accurate and more character-specific subtitles than other models.

Research on PEFT Feasibility for On-Device Military AI (온 디바이스 국방 AI를 위한 PEFT 효용성 연구)

  • Gi-Min Bae;Hak-Jin Lee;Sei-Ok Kim;Jang-Hyong Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.51-54
    • /
    • 2024
  • 본 논문에서는 온 디바이스 국방 AI를 위한 효율적인 학습 방법을 제안한다. 제안하는 방법은 모델 전체를 재학습하는 대신 필요한 부분만 세밀하게 조정하여 계산 비용과 시간을 대폭 줄이는 PEFT 기법의 LoRa를 적용하였다. LoRa는 기존의 신경망 가중치를 직접 수정하지 않고 추가적인 낮은 랭크의 매트릭스를 학습하는 방식으로 기존 모델의 구조를 크게 변경하지 않으면서도, 효율적으로 새로운 작업에 적응할 수 있다. 또한 학습 파라미터 및 연산 입출력에 데이터에 대하여 32비트의 부동소수점(FP32) 대신 부동소수점(FP16, FP8) 또는 정수형(INT8)을 활용하는 경량화 기법인 양자화도 적용하였다. 적용 결과 학습시 요구되는 GPU의 사용량이 32GB에서 5.7GB로 82.19% 감소함을 확인하였다. 동일한 조건에서 동일한 데이터로 모델의 성능을 평가한 결과 동일 학습 횟수에선 LoRa와 양자화가 적용된 모델의 오류가 기본 모델보다 53.34% 증가함을 확인하였다. 모델 성능의 감소를 줄이기 위해서는 학습 횟수를 더 증가시킨 결과 오류 증가율이 29.29%로 동일 학습 횟수보다 더 줄어듬을 확인하였다.

  • PDF

Automatic Generation of Training Corpus for a Sentiment Analysis Using a Generative Adversarial Network (생성적 적대 네트워크를 이용한 감성인식 학습데이터 자동 생성)

  • Park, Cheon-Young;Choi, Yong-Seok;Lee, Kong Joo
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.389-393
    • /
    • 2018
  • 딥러닝의 발달로 기계번역, 대화 시스템 등의 자연언어처리 분야가 크게 발전하였다. 딥러닝 모델의 성능을 향상시키기 위해서는 많은 데이터가 필요하다. 그러나 많은 데이터를 수집하기 위해서는 많은 시간과 노력이 소요된다. 본 연구에서는 이미지 생성 모델로 좋은 성능을 보이고 있는 생성적 적대 네트워크(Generative adverasarial network)를 문장 생성에 적용해본다. 본 연구에서는 긍/부정 조건에 따른 문장을 자동 생성하기 위해 SeqGAN 모델을 수정하여 사용한다. 그리고 분류기를 포함한 SeqGAN이 긍/부정 감성인식 학습데이터를 자동 생성할 수 있는지 실험한다. 실험을 수행한 결과, 분류기를 포함한 SeqGAN 모델이 생성한 문장과 학습데이터를 혼용하여 학습할 경우 실제 학습데이터만 학습 시킨 경우보다 좋은 정확도를 보였다.

  • PDF

The Instructional Model of Web Courseware Using Multi-Learner Simulation Game (다중 학습자 시뮬레이션 게임형 웹 코스웨어의 수업 모델)

  • 구덕회;김영식;백두권
    • Proceedings of the Korea Society for Simulation Conference
    • /
    • 2000.11a
    • /
    • pp.235-240
    • /
    • 2000
  • 현재 웹 코스웨어의 대부분은 하이퍼텍스트 문서들간의 비선형적인 연결에 의한 학습 방식을 채택하고 있으나, 이는 단순한 페이지 링크형 학습으로서 그리 커다란 교육 효과를 발휘하기에는 어렵다는 한계를 맞이하고 있다. 이러한 상황에서 다중 학습자가 동기적으로 참여하는 시뮬레이션 게임 방식은 웹 코스웨어의 현재 한계를 뛰어넘을 수 있는 하나의 교수·학습 모델이 될 수 있을 것으로 기대된다. 이에 본 논문에서는 다중 학습자가 동기적으로 참여하는 시뮬레이션 게임 방식의 웹 코스웨어에 대한 수업 모델을 제안하고 있다. 이 수업 모델은 Atkinson의 체제적 접근 방식의 게임 설계, Alessi와 Trollip의 시뮬레이션의 구조와 절차, Reigeluth와 Schwartz의 시뮬레이션에서의 학습자 역할에 대한 분석 연구를 기반으로 설계하였다.

  • PDF

Reinforcement Learning with Small World Network (복잡계 네트워크를 이용한 강화 학습 구현)

  • 이승준;장병탁
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.232-234
    • /
    • 2004
  • 강화 학습(Reinforcement Learning)을 실제 문제에 적용하는 데 있어 가장 큰 문제는 차원성의 저주(Curse of dimensionality)이다. 문제가 커짐에 따라 목적을 이루기 위해서 더 않은 단계의 판단이 필요하고 이에 따라 문제의 해결이 지수적으로 어려워지게 된다. 이를 해결하기 위칠 문제를 여러 단계로 나누어 단계별로 학습하는 계층적 강화 학습(Hierarchical Reinforcement Learning)이 제시된 바 있다. 하지만 대부분의 계층적 강화 학습 방법들은 사전에 문제의 구조를 아는 것을 전제로 하며 큰 사이즈의 문제를 간단히 표현할 방법을 제시하지 않는다. 따라서 이들 방법들도 실제적인 문제에 바로 적용하기에는 적합하지 않다. 이러한 문제점들을 해결하기 위해 복잡계 네트워크(Complex Network)가 갖는 작은 세상 성질(Small world Property)에 착안하여 자기조직화 하는 생장 네트워크(Self organizing growing network)를 기반으로 한 환경 표현 모델이 제안된 바 있다. 이러한 모델에서는 문제 크기가 커지더라도 네트워크의 사이즈가 크게 커지지 않기 때문에 문제의 난이도가 크기에 따라 크게 증가하지 않을 것을 기대할 수 있다. 본 논문에서는 이러한 환경 모델을 사용한 강화 학습 알고리즘을 구현하고 실험을 통하여 각 모델이 강화 학습의 문제 사이즈에 따른 성능에 끼치는 영향에 대해 알아보았다.

  • PDF

Virtual Data Generation Method based on Simulation to Improve Accuracy of Computer Vision (컴퓨터 비전 정확도 향상을 위한 시뮬레이션 기반 가상 데이터 생성기법)

  • Kang, Ji-Su;Choi, Chang-Beom;Jang, Han-Eol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.390-392
    • /
    • 2022
  • 기계학습 분야에서 모델을 학습시키려면 많은 양의 데이터가 필요하다. 최근에는 컴퓨터 비전 분야에서 데이터가 적은 환경에서 모델을 학습하는 다양한 방법들이 소개되고 있다. 하지만 대부분의 방법을 사용하기 위해서는 어느 정도 최소한의 학습 데이터가 필요하기 때문에 극심하게 데이터가 부족한 환경에서는 사용하기 어렵다. 본 논문에서는 컴퓨터 비전 분야에서 기계학습을 사용할 때 극심하게 데이터가 부족한 환경에서 시뮬레이션 도구를 활용한 인조 데이터 생성 방법을 제안한다. 실험 결과를 통해 시뮬레이션 도구를 활용하여 생성한 인조 데이터로 학습한 모델이 실제 데이터만을 학습한 모델을 대체할 수 있음을 확인하였고, F-1 점수와 정확도가 향상함을 실험적으로 확인하였다.

Policy Modeling for Efficient Reinforcement Learning in Adversarial Multi-Agent Environments (적대적 멀티 에이전트 환경에서 효율적인 강화 학습을 위한 정책 모델링)

  • Kwon, Ki-Duk;Kim, In-Cheol
    • Journal of KIISE:Software and Applications
    • /
    • v.35 no.3
    • /
    • pp.179-188
    • /
    • 2008
  • An important issue in multiagent reinforcement learning is how an agent should team its optimal policy through trial-and-error interactions in a dynamic environment where there exist other agents able to influence its own performance. Most previous works for multiagent reinforcement teaming tend to apply single-agent reinforcement learning techniques without any extensions or are based upon some unrealistic assumptions even though they build and use explicit models of other agents. In this paper, basic concepts that constitute the common foundation of multiagent reinforcement learning techniques are first formulated, and then, based on these concepts, previous works are compared in terms of characteristics and limitations. After that, a policy model of the opponent agent and a new multiagent reinforcement learning method using this model are introduced. Unlike previous works, the proposed multiagent reinforcement learning method utilize a policy model instead of the Q function model of the opponent agent. Moreover, this learning method can improve learning efficiency by using a simpler one than other richer but time-consuming policy models such as Finite State Machines(FSM) and Markov chains. In this paper. the Cat and Mouse game is introduced as an adversarial multiagent environment. And effectiveness of the proposed multiagent reinforcement learning method is analyzed through experiments using this game as testbed.

A Discriminative Training Algorithm for Speech Recognizer Based on Predictive Neural Network Models (예측신경회로망 모델 음성인식기의 변별력있는 학습 알고리즘)

  • 나경민
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1993.06a
    • /
    • pp.242-246
    • /
    • 1993
  • 예측신경회로망 모델은 다층 퍼셉트론을 연속되는 음성특징 벡터간의 비선형예측기로 사용하는 동적인 음성인식 모델이다. 이 모델은 음성의 동적인 특성을 인식에 이용하고 연속음성인식으로의 확장이 용이한 우수한 인식 모델이다. 그러나, 예측신경회로망 모델은 음운학적으로 유사한 음성구간에서의 변별력이 낮다는 문제점이 있다. 그것은 기존의 학습 알고리즘이 다른 어휘와의 거리는 고려하지 않고 대상어휘의 예측오차만 최소화시키기 때문이다. 따라서, 본 논문에서는 직접 인식오차를 최소화시키는 GPD알고리즘에 의해 유사어휘간의 거리를 고려하는 변별력있는 학습 알고리즘을 제안한다.

  • PDF