• 제목/요약/키워드: Language learning

검색결과 2,222건 처리시간 0.035초

학습 상담 내용의 자연어 처리를 위한 오픈 데이터 현황 분석 (Analyze the Open data for Natural Language Processing of Learning Counseling)

  • 김유두
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.500-501
    • /
    • 2019
  • 4차산업의 융합시대를 맞이하여 단순한 학습이 아닌 다양한 학문을 학습하고 융합하여 적용하기 위해서는 주입식 수업보다는 자기주도방식의 학습방법이 중요해지고 있다. 따라서 다양한 교육 기관에서는 자기주도적인 학습 방법의 개발에 많은 노력을 하고 있다. 자기주도적인 학습이 효과적으로 수행되기 위해서는 교수자는 학생의 학업에 직접 관여하기 보다는 학업의 전체적인 과정을 관리하는 것이 더 중요하다. 이에 학습 상담은 자기주도적학습을 효과적으로 수행하는데 중요한 방법이 된다. 이에 본 논문에서는 학습 상담 내용을 자연어 처리를 통해 다양한 응용이 가능하도록 이를 구현할 수 있는 자연어 처리를 위한 오픈 데이터 현황에 대한 분석을 수행 하였다.

  • PDF

A Study on the Development of Korean Curriculum for Multicultural Students Using AI Technology

  • GiNam, CHO;Yong, KIM
    • 4차산업연구
    • /
    • 제3권1호
    • /
    • pp.21-32
    • /
    • 2023
  • Purpose - This study focused on the development of a Korean language curriculum to solve the problem of Korean literacy among students from multicultural families. Research design, data, and methodology - A case study was conducted on Sim(2018)'s learner-centered learning model to develop an educational plan including AI technology, which will help students from multicultural families to effectively improve their communication and learning skills by improving their reading, writing, and speaking of Korean. Result - Total of six educational plans using AI technology (Microsoft PowerPoint's drawing function, AutoDraw, and Google's Four-cut cartoons) were developed. Conclusion - The curriculum using AI is expected to greatly contribute to the recovery of language learning ability and confidence in studies necessary to improve learners' language education.

Llama, OPT 모델을 활용한 Supervised Fine Tuning, Reinforcement Learning, Chain-of-Hindsight 성능 비교 (Comparing the performance of Supervised Fine-tuning, Reinforcement Learning, and Chain-of-Hindsight with Llama and OPT models)

  • 이현민;나승훈;임준호;김태형;류휘정;장두성
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.217-221
    • /
    • 2023
  • 최근 몇 년 동안, Large Language Model(LLM)의 발전은 인공 지능 연구 분야에서 주요 도약을 이끌어 왔다. 이러한 모델들은 복잡한 자연어처리 작업에서 뛰어난 성능을 보이고 있다. 특히 Human Alignment를 위해 Supervised Fine Tuning, Reinforcement Learning, Chain-of-Hindsight 등을 적용한 언어모델이 관심 받고 있다. 본 논문에서는 위에 언급한 3가지 지시학습 방법인 Supervised Fine Tuning, Reinforcement Learning, Chain-of-Hindsight 를 Llama, OPT 모델에 적용하여 성능을 측정 및 비교한다.

  • PDF

자연어 처리 기반 『상한론(傷寒論)』 변병진단체계(辨病診斷體系) 분류를 위한 기계학습 모델 선정 (Selecting Machine Learning Model Based on Natural Language Processing for Shanghanlun Diagnostic System Classification)

  • 김영남
    • 대한상한금궤의학회지
    • /
    • 제14권1호
    • /
    • pp.41-50
    • /
    • 2022
  • Objective : The purpose of this study is to explore the most suitable machine learning model algorithm for Shanghanlun diagnostic system classification using natural language processing (NLP). Methods : A total of 201 data items were collected from 『Shanghanlun』 and 『Clinical Shanghanlun』, 'Taeyangbyeong-gyeolhyung' and 'Eumyangyeokchahunobokbyeong' were excluded to prevent oversampling or undersampling. Data were pretreated using a twitter Korean tokenizer and trained by logistic regression, ridge regression, lasso regression, naive bayes classifier, decision tree, and random forest algorithms. The accuracy of the models were compared. Results : As a result of machine learning, ridge regression and naive Bayes classifier showed an accuracy of 0.843, logistic regression and random forest showed an accuracy of 0.804, and decision tree showed an accuracy of 0.745, while lasso regression showed an accuracy of 0.608. Conclusions : Ridge regression and naive Bayes classifier are suitable NLP machine learning models for the Shanghanlun diagnostic system classification.

  • PDF

Opportunities of Organization of Classes in Foreign Languages by Means of Microsoft Teams (in Practice of Teaching Ukrainian as Foreign Language

  • Olha Hrytsenko;Iryna Zozulia;Iryna Kushnir;Tetiana Aleksieienko;Alla Stadnii
    • International Journal of Computer Science & Network Security
    • /
    • 제24권3호
    • /
    • pp.160-172
    • /
    • 2024
  • The characteristic aspects of learning a foreign language require special resources and tools for online learning. Criteria for choosing educational platforms depend on key elements of an academic subject area. Microsoft Teams (hereafter, MT) educational platform is competitive one because it meets most of the needs that arise during the formation of a secondary linguistic persona. Due to the large number of corporate programs, there are a successful acquisition of language skills and the implementation of all types of oral activities of students. A significant MT advantage is the constant analysis and monitoring of the platform of participants' needs in the educational process by developers. The article highlights MT advantages and disadvantages. The attention is drawn to individual programs, which, in the authors' opinion, are the most successful to learn writing, reading, speaking, listening, as well as organize classes that meet needs of modern foreign students.

Burmese Sentiment Analysis Based on Transfer Learning

  • Mao, Cunli;Man, Zhibo;Yu, Zhengtao;Wu, Xia;Liang, Haoyuan
    • Journal of Information Processing Systems
    • /
    • 제18권4호
    • /
    • pp.535-548
    • /
    • 2022
  • Using a rich resource language to classify sentiments in a language with few resources is a popular subject of research in natural language processing. Burmese is a low-resource language. In light of the scarcity of labeled training data for sentiment classification in Burmese, in this study, we propose a method of transfer learning for sentiment analysis of a language that uses the feature transfer technique on sentiments in English. This method generates a cross-language word-embedding representation of Burmese vocabulary to map Burmese text to the semantic space of English text. A model to classify sentiments in English is then pre-trained using a convolutional neural network and an attention mechanism, where the network shares the model for sentiment analysis of English. The parameters of the network layer are used to learn the cross-language features of the sentiments, which are then transferred to the model to classify sentiments in Burmese. Finally, the model was tuned using the labeled Burmese data. The results of the experiments show that the proposed method can significantly improve the classification of sentiments in Burmese compared to a model trained using only a Burmese corpus.

ManiFL : 얕은 학습 기반의 더 나은 자연어처리 도구 (ManiFL : A Better Natural-Language-Processing Tool Based On Shallow-Learning)

  • 신준철;김완수;이주상;옥철영
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.311-315
    • /
    • 2021
  • 근래의 자연어처리 분야에서는 잘 만들어진 도구(Library)를 이용하여 생산성 높은 개발과 연구가 활발하게 이뤄지고 있다. 이 중에 대다수는 깊은 학습(Deep-Learning, 딥러닝) 기반인데, 이런 모델들은 학습 속도가 느리고, 비용이 비싸고, 사용(Run-Time) 속도도 느리다. 이뿐만 아니라 라벨(Label)의 가짓수가 굉장히 많거나, 라벨의 구성이 단어마다 달라질 수 있는 의미분별(동형이의어, 다의어 번호 태깅) 분야에서 딥러닝은 굉장히 비효율적인 문제가 있다. 이런 문제들은 오히려 기존의 얕은 학습(Shallow-Learning)기반 모델에서는 없던 것들이지만, 최근의 연구경향에서 딥러닝 비중이 급격히 증가하면서, 멀티스레딩 같은 고급 기능들을 지원하는 얕은 학습 기반 언어모델이 새로이 개발되지 않고 있었다. 본 논문에서는 학습과 태깅 모두에서 멀티스레딩을 지원하고, 딥러닝에서 연구된 드롭아웃 기법이 구현된 자연어처리 도구인 혼합 자질 가변 표지기 ManiFL(Manifold Feature Labelling : ManiFL)을 소개한다. 본 논문은 실험을 통해서 ManiFL로 다의어태깅이 가능함을 보여주고, 딥러닝과 CRFsuite에서 높은 성능을 보여주는 개체명 인식에서도 비교할만한 성능이 나옴을 보였다.

  • PDF

가상현실 에이전트 외국어 교사를 활용한 외국어 학습의 몰입 융합 효과 (Effects of Linguistic Immersion Synthesis on Foreign Language Learning Using Virtual Reality Agents)

  • 강정현;권슬희;정동훈
    • 정보화정책
    • /
    • 제31권1호
    • /
    • pp.32-52
    • /
    • 2024
  • 이 연구는 가상현실 에이전트 외국어 강사를 활용한 외국어 학습 효과를 검증하는 것을 목표로 한다. 외국어 학습맥락을 고려해 가상현실 에이전트를 원어민과 비원어민으로 구분해 이를 실험자 간 요인으로, 에이전트의 역할은 교사와 판매원으로 나누어 실험자 내 요인으로 설정한 후, 몰입형 가상환경 콘텐츠를 직접 개발하고, 2×2 혼합요인설계를 하여 실험을 진행했다. 자발적으로 참여한 72명의 대학생을 대상으로 실험을 한 결과, 학습만족감, 기억, 회상에서 에이전트의 원어민 여부와 역할간 상호작용 효과가 통계적으로 유의미하게 나타났으나, 학습자신감, 프레즌스는 상호작용 효과와 주효과 모두에서 유의미한 차이를 보이지 않았다. 가상환경에서의 맥락적 학습이 학습 효과와 만족감을 증진한다는 결과와 에이전트의 역할이 학습자의 기억에 영향력을 미친다는 결과는 가상현실 에이전트 외국어 강사를 활용한 외국어 학습 효과의 유효성을 증명한 것으로, 가상현실 에이전트를 활용한 다양한 처치 결과가 학습자의 인지 및 정서적 반응에 긍정적 효과를 줄 수 있다는 중요한 이론적, 실증적 함의를 제공한다.

Emotional Intelligence System for Ubiquitous Smart Foreign Language Education Based on Neural Mechanism

  • Dai, Weihui;Huang, Shuang;Zhou, Xuan;Yu, Xueer;Ivanovi, Mirjana;Xu, Dongrong
    • Journal of Information Technology Applications and Management
    • /
    • 제21권3호
    • /
    • pp.65-77
    • /
    • 2014
  • Ubiquitous learning has aroused great interest and is becoming a new way for foreign language education in today's society. However, how to increase the learners' initiative and their community cohesion is still an issue that deserves more profound research and studies. Emotional intelligence can help to detect the learner's emotional reactions online, and therefore stimulate his interest and the willingness to participate by adjusting teaching skills and creating fun experiences in learning. This is, actually the new concept of smart education. Based on the previous research, this paper concluded a neural mechanism model for analyzing the learners' emotional characteristics in ubiquitous environment, and discussed the intelligent monitoring and automatic recognition of emotions from the learners' speech signals as well as their behavior data by multi-agent system. Finally, a framework of emotional intelligence system was proposed concerning the smart foreign language education in ubiquitous learning.

Zero-anaphora resolution in Korean based on deep language representation model: BERT

  • Kim, Youngtae;Ra, Dongyul;Lim, Soojong
    • ETRI Journal
    • /
    • 제43권2호
    • /
    • pp.299-312
    • /
    • 2021
  • It is necessary to achieve high performance in the task of zero anaphora resolution (ZAR) for completely understanding the texts in Korean, Japanese, Chinese, and various other languages. Deep-learning-based models are being employed for building ZAR systems, owing to the success of deep learning in the recent years. However, the objective of building a high-quality ZAR system is far from being achieved even using these models. To enhance the current ZAR techniques, we fine-tuned a pretrained bidirectional encoder representations from transformers (BERT). Notably, BERT is a general language representation model that enables systems to utilize deep bidirectional contextual information in a natural language text. It extensively exploits the attention mechanism based upon the sequence-transduction model Transformer. In our model, classification is simultaneously performed for all the words in the input word sequence to decide whether each word can be an antecedent. We seek end-to-end learning by disallowing any use of hand-crafted or dependency-parsing features. Experimental results show that compared with other models, our approach can significantly improve the performance of ZAR.