• Title/Summary/Keyword: Multilingual

Search Result 173, Processing Time 0.024 seconds

Europass and the CEFR: Implications for Language Teaching in Korea

  • Finch, Andrew Edward
    • English Language & Literature Teaching
    • /
    • v.15 no.2
    • /
    • pp.71-92
    • /
    • 2009
  • Europass was established in 2005 by the European Parliament and the Council of Europe as a single framework for language qualifications and competences, helping citizens to gain accreditation throughout the European Community. In addition, the 1996 Common European Framework of Reference for Languages: Learning, Teaching, Assessment (CEFR) provides a common basis for language syllabi, curriculum guidelines, examination, and textbooks in Europe. This framework describes the required knowledge and skills, the cultural context, and the levels of proficiency that learners should achieve. In combination, Europass and the CEFR provide employers and educational institutes with internationally recognized standards. This paper proposes that current trends such as globalization and international mobility require a similar approach to accreditation in Asia. As jobs and workers become independent of national boundaries and restrictions, it becomes necessary to educate students as multilingual world citizens, using standards that are accepted around the world. It is suggested, therefore, that assessment models such as Europass and the CEFR, along with successful language teaching models in Europe and Canada, present opportunities of adaptation for the Korean education system. Finally, rigorous teacher training to internationally recognized levels is recommended, if Korea is to produce a workforce of highly-skilled, plurilingual world citizens.

  • PDF

Design of a Multilingual Translation System Based on Interlingual Approach (중간언어에 기반한 기계 번역시스템의 설계)

  • Kim, Sang-Kuk;Park, Chang-Ho
    • Annual Conference on Human and Language Technology
    • /
    • 1993.10a
    • /
    • pp.521-526
    • /
    • 1993
  • 다언어간 번역을 지향하는 기계번역시스템의 개발을 위해서는, 의미 이해기반의 해석기술과 언어에 독립적인 생성기술의 설계가 기본이므로 원시언어와 목표언어가 어느 한쪽의 언어지식에 의존하지 않고 언어형식화가 가능한 중간언어 구조를 설정하는 것이 중요하다. 따라서, 한국어를 중심으로 하는 다언어 번역의 설계에서는 비교적 문구조의 정형화가 이루어진 영어와는 달리 어순 배열의 자유도가 높고 조사의 격표시로 문장구조가 결정되는 한국어의 특성을 고려한 해석 및 생성 메카니즘이 필요하다. 본 논문에서는 문장에 내포된 심층의미의 중간 표현으로써, 단어의 의미를 개념화시킨 개념소(Conceptual Primitive)간의 의미적 결합관계를 나타내는 개념 그래프(Conceptual Graph)를 채택하고 설계한 다언어 번역지향의 중간언어기반 번역시스템에 대하여 기술한다.

  • PDF

Neural Model for Named Entity Recognition Considering Aligned Representation

  • Sun, Hongyang;Kim, Taewhan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.613-616
    • /
    • 2018
  • Sequence tagging is an important task in Natural Language Processing (NLP), in which the Named Entity Recognition (NER) is the key issue. So far the most widely adopted model for NER in NLP is that of combining the neural network of bidirectional long short-term memory (BiLSTM) and the statistical sequence prediction method of Conditional Random Field (CRF). In this work, we improve the prediction accuracy of the BiLSTM by supporting an aligned word representation mechanism. We have performed experiments on multilingual (English, Spanish and Dutch) datasets and confirmed that our proposed model outperformed the existing state-of-the-art models.

Explaining the Translation Error Factors of Machine Translation Services Using Self-Attention Visualization (Self-Attention 시각화를 사용한 기계번역 서비스의 번역 오류 요인 설명)

  • Zhang, Chenglong;Ahn, Hyunchul
    • Journal of Information Technology Services
    • /
    • v.21 no.2
    • /
    • pp.85-95
    • /
    • 2022
  • This study analyzed the translation error factors of machine translation services such as Naver Papago and Google Translate through Self-Attention path visualization. Self-Attention is a key method of the Transformer and BERT NLP models and recently widely used in machine translation. We propose a method to explain translation error factors of machine translation algorithms by comparison the Self-Attention paths between ST(source text) and ST'(transformed ST) of which meaning is not changed, but the translation output is more accurate. Through this method, it is possible to gain explainability to analyze a machine translation algorithm's inside process, which is invisible like a black box. In our experiment, it was possible to explore the factors that caused translation errors by analyzing the difference in key word's attention path. The study used the XLM-RoBERTa multilingual NLP model provided by exBERT for Self-Attention visualization, and it was applied to two examples of Korean-Chinese and Korean-English translations.

Design and Implementation of a Multilingual-Supported Article Translation System using Semantic Web (시맨틱 웹을 이용한 다국어-지원 신문기사 번역시스템의 설계 및 구현)

  • Kang, Jeong-Seok;Lee, Ki-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.786-788
    • /
    • 2010
  • 최근 시맨틱 웹의 등장과 발전은 웹 2.0의 발전과 더불어 새로운 웹의 문화를 바꾸어 놓았다. 시맨틱 웹의 적용분야는 다양하지만 그중에서 의미 정보 검색과 다국어 정보 검색 기술을 통한 다국어 지원 번역이 연구 분야로의 필요성이 있다. 기존 기계번역이 번역률에 있어서 가장 큰 한계점은 단어 의미 중의성과 문법적은 오류이다. 따라서 본 논문에서는 시맨틱 웹과 단어 의미 중의성을 해소 시킬 새로운 알고리즘을 제안함으로써 단점을 제거하여 번역률을 향상시켜 모바일에 적용하였다. 모바일에 입력된 신문기사 이미지를 OCR을 통해 텍스트로 변환하고 사전 및 분야 온톨로지와 문장 규칙 추론을 동해 처리 속도 및 정확도 높은 번역시스템을 설계 및 구현하였다.

GMLP for Korean natural language processing and its quantitative comparison with BERT (GMLP를 이용한 한국어 자연어처리 및 BERT와 정량적 비교)

  • Lee, Sung-Min;Na, Seung-Hoon
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.540-543
    • /
    • 2021
  • 본 논문에서는 Multi-Head Attention 대신 Spatial Gating Unit을 사용하는 GMLP[1]에 작은 Attention 신경망을 추가한 모델을 구성하여 뉴스와 위키피디아 데이터로 사전학습을 실시하고 한국어 다운스트림 테스크(감성분석, 개체명 인식)에 적용해 본다. 그 결과, 감성분석에서 Multilingual BERT보다 0.27%높은 Accuracy인 87.70%를 보였으며, 개체명 인식에서는 1.6%높은 85.82%의 F1 Score를 나타내었다. 따라서 GMLP가 기존 Transformer Encoder의 Multi-head Attention[2]없이 SGU와 작은 Attention만으로도 BERT[3]와 견줄만한 성능을 보일 수 있음을 확인할 수 있었다. 또한 BERT와 추론 속도를 비교 실험했을 때 배치사이즈가 20보다 작을 때 BERT보다 1에서 6배 정도 빠르다는 것을 확인할 수 있었다.

  • PDF

ColBERT with Adversarial Language Adaptation for Multilingual Information Retrieval (다국어 정보 검색을 위한 적대적 언어 적응을 활용한 ColBERT)

  • Jonghwi Kim;Yunsu Kim;Gary Geunbae Lee
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.239-244
    • /
    • 2023
  • 신경망 기반의 다국어 및 교차 언어 정보 검색 모델은 타겟 언어로 된 학습 데이터가 필요하지만, 이는 고자원 언어에 치중되어있다. 본 논문에서는 이를 해결하기 위해 영어 학습 데이터와 한국어-영어 병렬 말뭉치만을 이용한 효과적인 다국어 정보 검색 모델 학습 방법을 제안한다. 언어 예측 태스크와 경사 반전 계층을 활용하여 인코더가 언어에 구애 받지 않는 벡터 표현을 생성하도록 학습 방법을 고안하였고, 이를 한국어가 포함된 다국어 정보 검색 벤치마크에 대해 실험하였다. 본 실험 결과 제안 방법이 다국어 사전학습 모델과 영어 데이터만을 이용한 베이스라인보다 높은 성능을 보임을 실험적으로 확인하였다. 또한 교차 언어 정보 검색 실험을 통해 현재 검색 모델이 언어 편향성을 가지고 있으며, 성능에 직접적인 영향을 미치는 것을 보였다.

  • PDF

Knowledge Transfer in Multilingual LLMs Based on Code-Switching Corpora (코드 스위칭 코퍼스 기반 다국어 LLM의 지식 전이 연구)

  • Seonghyun Kim;Kanghee Lee;Minsu Jeong;Jungwoo Lee
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.301-305
    • /
    • 2023
  • 최근 등장한 Large Language Models (LLM)은 자연어 처리 분야에서 눈에 띄는 성과를 보여주었지만, 주로 영어 중심의 연구로 진행되어 그 한계를 가지고 있다. 본 연구는 사전 학습된 LLM의 언어별 지식 전이 가능성을 한국어를 중심으로 탐구하였다. 이를 위해 한국어와 영어로 구성된 코드 스위칭 코퍼스를 구축하였으며, 기본 모델인 LLAMA-2와 코드 스위칭 코퍼스를 추가 학습한 모델 간의 성능 비교를 수행하였다. 결과적으로, 제안하는 방법론으로 학습한 모델은 두 언어 간의 희미론적 정보가 효과적으로 전이됐으며, 두 언어 간의 지식 정보 연계가 가능했다. 이 연구는 다양한 언어와 문화를 반영하는 다국어 LLM 연구와, 소수 언어를 포함한 AI 기술의 확산 및 민주화에 기여할 수 있을 것으로 기대된다.

  • PDF

Analyzing Korean hate-speech detection using KcBERT (KcBERT를 활용한 한국어 악플 탐지 분석 및 개선방안 연구)

  • Seyoung Jeong;Byeongjin Kim;Daeshik Kim;Wooyoung Kim;Taeyong Kim;Hyunsoo Yoon;Wooju Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.577-580
    • /
    • 2023
  • 악성댓글은 인터넷상에서 정서적, 심리적 피해를 주는 문제로 인식되어 왔다. 본 연구는 한국어 악성댓글 탐지 분석을 위해 KcBERT 및 다양한 모델을 활용하여 성능을 비교하였다. 또한, 공개된 한국어 악성댓글 데이터가 부족한 것을 해소하기 위해 기계 번역을 이용하고, 다국어 언어 모델(Multilingual Model) mBERT를 활용하였다. 다양한 실험을 통해 KcBERT를 미세 조정한 모델의 정확도 및 F1-score가 타 모델에 비해 의미 있는 결과임을 확인할 수 있었다.

  • PDF

Behavioral Tendency Analysis towards E-Participation for Voting in Political Elections using Social Web

  • Hussain Saleem;Jamshed Butt;Altaf H. Nizamani;Amin Lalani;Fawwad Alam;Samina Saleem
    • International Journal of Computer Science & Network Security
    • /
    • v.24 no.2
    • /
    • pp.189-195
    • /
    • 2024
  • The issue "Exploring Social Media and Other Crucial Success Elements of Attitude towards Politics and Intention for Voting in Pakistan" is a huge study embracing more issues. The politics of Pakistan is basically the politics of semantic groups. Pakistan is a multilingual state more than six languages. There are 245 religious parties in Pakistan, as elaborated by the Daily Times research. The use of social media sites in Pakistan peaked to its maximum after announcement of election schedule by the Election Commission of Pakistan in March 22, 2013. Most of the political parties used it for the recent elections in Pakistan to promote their agenda and attract country's 80 million registered electors. This study was aiming to investigate the role of social media and other critical variables in the attitude towards politics and intention for voting.