• Title/Summary/Keyword: 다국어 학습

Search Result 42, Processing Time 0.049 seconds

Academic Vocabulary Selection and the Development of Learning Application for Students with Multi-cultural Backgrounds (다문화 배경 학생을 위한 학습 도구어 선정 및 학습 어플리케이션 개발)

  • Min, Kyeongah;Yoo, Donghee
    • The Journal of the Korea Contents Association
    • /
    • v.20 no.5
    • /
    • pp.23-36
    • /
    • 2020
  • This study indicates there is a need for delivering key academic vocabulary to students with multi-cultural backgrounds before they enter middle school and thus select academic vocabularies necessary for satisfactory middle school education and self-directed learning methods using a more focused selected academic vocabulary list. To this end, we first examine the vocabularies appearing in the main Korean language, math, social studies and science textbooks used in the first year of middle school and compile the most practical academic vocabulary list. Then we offer a selection method for the main academic vocabulary from these compiled vocabularies. We also propose a self-directed vocabulary learning model for using these selected academic vocabularies and an academic vocabulary learning application as a prototype. As a result, students with multi-cultural backgrounds will be able to adapt to middle school education more quickly when they learn the necessary academic vocabularies on their own using the academic vocabulary learning application.

Korean and Multilingual Language Models Study for Cross-Lingual Post-Training (XPT) (Cross-Lingual Post-Training (XPT)을 위한 한국어 및 다국어 언어모델 연구)

  • Son, Suhyune;Park, Chanjun;Lee, Jungseob;Shim, Midan;Lee, Chanhee;Park, Kinam;Lim, Heuiseok
    • Journal of the Korea Convergence Society
    • /
    • v.13 no.3
    • /
    • pp.77-89
    • /
    • 2022
  • It has been proven through many previous researches that the pretrained language model with a large corpus helps improve performance in various natural language processing tasks. However, there is a limit to building a large-capacity corpus for training in a language environment where resources are scarce. Using the Cross-lingual Post-Training (XPT) method, we analyze the method's efficiency in Korean, which is a low resource language. XPT selectively reuses the English pretrained language model parameters, which is a high resource and uses an adaptation layer to learn the relationship between the two languages. This confirmed that only a small amount of the target language dataset in the relationship extraction shows better performance than the target pretrained language model. In addition, we analyze the characteristics of each model on the Korean language model and the Korean multilingual model disclosed by domestic and foreign researchers and companies.

KoCED: English-Korean Critical Error Detection Dataset (KoCED: 윤리 및 사회적 문제를 초래하는 기계번역 오류 탐지를 위한 학습 데이터셋)

  • Sugyeong Eo;Suwon Choi;Seonmin Koo;Dahyun Jung;Chanjun Park;Jaehyung Seo;Hyeonseok Moon;Jeongbae Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.225-231
    • /
    • 2022
  • 최근 기계번역 분야는 괄목할만한 발전을 보였으나, 번역 결과의 오류가 불완전한 의미의 왜곡으로 이어지면서 사용자로 하여금 불편한 반응을 야기하거나 사회적 파장을 초래하는 경우가 존재한다. 특히나 오역에 의해 변질된 의미로 인한 경제적 손실 및 위법 가능성, 안전에 대한 잘못된 정보 제공의 위험, 종교나 인종 또는 성차별적 발언에 의한 파장은 실생활과 문제가 직결된다. 이러한 문제를 완화하기 위해, 기계번역 품질 예측 분야에서는 치명적 오류 감지(Critical Error Detection, CED)에 대한 연구가 이루어지고 있다. 그러나 한국어에 관련해서는 연구가 존재하지 않으며, 관련 데이터셋 또한 공개된 바가 없다. AI 기술 수준이 높아지면서 다양한 사회, 윤리적 요소들을 고려하는 것은 필수이며, 한국어에서도 왜곡된 번역의 무분별한 증식을 낮출 수 있도록 CED 기술이 반드시 도입되어야 한다. 이에 본 논문에서는 영어-한국어 기계번역 분야에서의 치명적 오류를 감지하는 KoCED(English-Korean Critical Error Detection) 데이터셋을 구축 및 공개하고자 한다. 또한 구축한 KoCED 데이터셋에 대한 면밀한 통계 분석 및 다국어 언어모델을 활용한 데이터셋의 타당성 실험을 수행함으로써 제안하는 데이터셋의 효용성을 면밀하게 검증한다.

  • PDF

Design and Implementation of Language Learning Device by Using RFID (RFID를 이용한 언어 학습기의 설계 및 구현)

  • Choi, Kwang-Won;Kim, Nam-Hyeoung;Park, Jin-Woong;You, Young-Jun;An, Jung-Ho;Kim, Jin-Hwan;Park, Chan Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.3-5
    • /
    • 2010
  • 최근 학습 패러다임은 문서 중심에서 지식 및 정보 기반으로 크게 변화하고 있다. 또한 유비쿼터스 사회로의 전환을 맞이하여 다양한 USN 기술 기반의 학습 연구가 활발히 진행 중이다. 그 중 RFID 기술 기반의 학습 연구에서는 대부분 유비쿼터스 학습 환경 구축에 관한 연구가 주를 이루고 있다. 따라서 실질적인 학습에 적용하는 연구의 결과는 미미하다. 본 논문에서는 RFID기술 기반의 다국어 학습기를 구현하였다. 태그를 인식하여 특정 사물을 사용자로 하여금 모국어뿐만 아니라 다국어로도 변역하여 여러 가지 언어들을 학습할 수 있게 지원하는 장치이다. 실험에서는 13.56Mhz의 RFID 및 PXA255A ARM보드 사용하여 학습기를 제작하여 효율성 테스트를 하였다.

A Survey or The Korean Learner's Problems in Mastering English Pronunciation (한국인의 영어 발음 학습상 문제점 개관)

  • Youe Hansa MahnGunn
    • MALSORI
    • /
    • no.42
    • /
    • pp.47-56
    • /
    • 2001
  • 이 글은 제2회 서울 국제 음성학 학술대회(SICOPS 2000) 기조강연 내용을 조금 손질한 것인데, 한국인 영어 학습자가 저지르기 쉬운 발음상 잘못을 모음, 자음별로 관찰하고 그 대책을 논의한다. 모음에서는 주로 i:l, u:$-\sigma$, (equation omitted) 흔동이 문제이며, 또한 90종이 넘는 여러 철자로 나타나는 쭉정모음(schwa) 식별과 정복한 발음도 큰 문제다. 자음에서는 음소 연결방식에서 생기는 자음접변 둥 한 국어 특유 현상을 영어에까지 연장하는 바람에 많은 오류가 생긴다는 것과 영어 sp-, st-, sk-에서 /p t k/는 연한소리(lenis)로 [(equation omitted)]인데, 된소리로 잘못알고 있는 수가 많다는 것도 지적된다. 무룻 영어학습자는 철자만 보고 발음을 속단하지 말고 단어마다 반드시 발음을 사전에서 확인할 것과 아울러 거기에 음성학적 훈련이 수반되어야 함을 역설하며, 정확한 발음을 아는 것은 실제 영어 청취i구사에 뿐 아니라 또한 언어연구 기초확립에 필수적이라는 말로 글을 맺는다.

  • PDF

A study of Analysis and Improvement measures of Educational contents for Multi-cultural Education (다문화 교육을 위한 교육용 콘텐츠 분석 및 개선방안)

  • Park, Sun-Ju;Kim, Tae-Hee
    • Journal of The Korean Association of Information Education
    • /
    • v.15 no.3
    • /
    • pp.355-363
    • /
    • 2011
  • Level-Based Education is necessary for the multi-cultural learners because they tend to have the academic underachievement and learning deficiency that cause the huge educational gap. However, it is very hard to make the best of competence for the multi-cultural learners in the classroom. So, it is needed to suggest how we can use the educational contents that are appropriate for the Level-Based Learning and Individual Learning to make good use of teaching the learners from multi-cultural families. However, developing the new educational contents takes much time and cost, we have to improve existing contents for the student from multi-cultural families to use it. Hence, the purpose of this thesis is to develop the educational appropriateness evaluation scale to verify the educational contents that are for the multi-cultural students based on the educational content's evaluation tool, so by developing the scale, I intend to evaluate the 4~6 grades' Korean contents of the E-learning service and provide the ways of improvement.

  • PDF

Past Tense Generation in Korean to French Machine Translation (한국어-프랑스어 자동번역을 위한 과거시제 선어말어미 '-었'의 처리방안)

  • Lim, Seunghee;Noh, Ran;Hong, Munpyo
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.173-174
    • /
    • 2014
  • 본 연구는 현재 개발 진행 중인 다국어 자동통번역시스템에서 발생하는 한국어 과거시제 선어말어미 '-었'의 생성문제를 다루었다. 한국어 과거시제 선어말 어미는 영어와 독일어의 경우에는 대부분 단순과거형으로 생성될 수 있으나, 프랑스어의 경우에는 복합과거의 형식과 반과거의 형식 중 하나를 선택해야 하는 문제가 발생한다. 본 연구에서는 이러한 문제의 해결을 위해 한-프랑스어 코퍼스 분석을 통해 복합과거와 반과거의 올바른 생성을 위한 네 가지의 자질을 선정하였고, 이에 SVM 알고리즘을 적용한 분류기를 구현하였다. 현재까지의 실험결과는 84.45%의 정확률이며 현재 성능개선을 위한 연구가 계속 진행 중이다.

  • PDF

Automatic Korean-English Back-Transliteration (한-영 자동 음차 복원)

  • Kang, Byung-Ju;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.63-69
    • /
    • 1999
  • 최근 다국어 정보검색, 기계번역 등과 관련하여 자동 음차 표기 및 복원에 대한 필요성이 증대되고 있다. 특히 영어와 한국어 같이 그 음운구조의 차이가 큰 언어 쌍인 경우에는 간단한 문제가 아니다. 더구나 외래어를 영어로 복원하는 것은 표기의 경우보다 훨씬 어렵다. 본 논문에서는 결정트리 학습을 통한 한/영 자동 음차 복원 방법을 제안하고 기존의 방법 및 로마자 표기법에 기반한 방법에 비교하여 매우 정확하게 복원이 가능함을 보인다.

  • PDF

Sentiment Analysis System by Using BERT Language Model (BERT 언어 모델을 이용한 감정 분석 시스템)

  • Kim, Taek-Hyun;Cho, Dan-Bi;Lee, Hyun-Young;Won, Hye-Jin;Kang, Seung-Shik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.975-977
    • /
    • 2020
  • 감정 분석은 문서의 주관적인 감정, 의견, 기분을 파악하기 위한 방법으로 소셜 미디어, 온라인 리뷰 등 다양한 분야에서 활용된다. 문서 내 텍스트가 나타내는 단어와 문맥을 기반으로 감정 수치를 계산하여 긍정 또는 부정 감정을 결정한다. 2015년에 구축된 네이버 영화평 데이터 20 만개에 12 만개를 추가 구축하여 감정 분석 연구를 진행하였으며 언어 모델로는 최근 자연어처리 분야에서 높은 성능을 보여주는 BERT 모델을 이용하였다. 감정 분석 기법으로는 LSTM(Long Short-Term Memory) 등 기존의 기계학습 기법과 구글의 다국어 BERT 모델, 그리고 KoBERT 모델을 이용하여 감정 분석의 성능을 비교하였으며, KoBERT 모델이 89.90%로 가장 높은 성능을 보여주었다.

Korean Paraphrase Sentence Recognition Model Robust Against Adversarial Examples (적대적 예제에 강건한 한국어 패러프레이즈 문장 인식 모델)

  • Kim, Minho;Hur, Jeong;Kim, Hyun;Lim, Joonho
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.453-454
    • /
    • 2020
  • 본 연구는 적대적 예제에 강건한 한국어 패러프레이즈 문장 인식 기술을 다룬다. 구글에서 적대적 예제를 포함하는 PAWS-X 다국어 말뭉치를 공개하였다. 이로써, 한국어에서도 적대적 예제를 다룰 수 있는 실마리가 제공되었다. PAWS-X는 개체 교환형을 대표로 하는 적대적 예제를 포함하고 있다. 이 말뭉치만으로도 개체 교환형 이외의 적대적 예제 타입을 위한 인식 모델을 구축할 수 있을지, 다앙한 타입의 실(real) 패러프레이즈 문장 인식에서도 적용할 수 있는지, 학습에 추가적인 타입의 패러프레이즈 데이터가 필요한지 등에 대해 다양한 실험을 통해 알아보고자 한다.

  • PDF