• 제목/요약/키워드: language training

검색결과 689건 처리시간 0.027초

무선 원격 시스템의 모바일 장치를 이용한 영어 학습 방법 연구 (Applications of English Education with Remote Wireless Mobile Devices)

  • 이일석
    • 디지털콘텐츠학회 논문지
    • /
    • 제14권2호
    • /
    • pp.255-262
    • /
    • 2013
  • 유용한 영어 교육을 위한 어플은 강의실 컴퓨터를 위해 모바일 장치를 무선 원격 시스템으로 즉각적인 변환을 가능하게 한다. 일단 강의실 주 컴퓨터에 무료 소프트웨어를 설치하면 학생들이 power point를 이용하여 컴퓨터 통제를 위한 모바일 장치에 Air mouse를 갖도록 한다. 이를 이용하여 학생들은 board위에 글이나 그림을 그릴수 있으며 그들의 앉은 자리에서 학습 자료를 구동할 수 있게 된다. 영어공부는 학문연구가 아니라 언어 훈련이라는 점에서 지금까지의 영어 학습이 단순한 학습대상으로 먼저 인식하여 의사소통의 도구가 아닌 학교 성적이나 토익, 토플 시험을 위한 학습 대상이 되었다는 점에서 그동안 영어의 학습의 문제점으로 지적되어 왔다. 본 연구는 수동적인 학습 환경에서 흥미와 동기부여를 가지고 자발적인 학습을 위해 Podcast, Apps 등 여러 매체를 이용하여 일정 학습 한도를 정하여 꾸준히 학습 할 수 있는 쉽고 재미있는 영어 학습 중 모바일, VOD영어 학습 컨텐츠, 리얼 영화 스크립트를 이용한 미드 영어 등 여러 어플을 이용한 영어 학습방법을 제시하고자 한다.

웹기반의 치매 예방용 융합교육 프로그램 개발 (Convergent Web-based Education Program to Prevent Dementia)

  • 박경순;박재성;반금옥;김경옥
    • 한국콘텐츠학회논문지
    • /
    • 제13권11호
    • /
    • pp.322-331
    • /
    • 2013
  • 최신 정보기술(IT)을 이용하여 웹(web) 기반으로 동작하는 치매 예방용 융합교육 콘텐츠를 개발하는 것을 목적으로 하였다. 사전 준비단계로 치매관련 국내 외 문헌분석 및 산업체 요구분석을 통해 개발 범위를 규정하였고, 이를 근거로 프로그램을 작성하였다. 개선단계에서는 다양한 분야의 전문가들과 함께 수정 작업을 거쳐 프로그램의 완성도를 최대화 하였다. 본 프로그램 개발내용을 요약하면, 첫째, 통합교육 및 융합교육의 교육학적 이론과 관련 전문가로부터 타당성 검증을 통해 645지능계발 모형을 개발한 후 "사물을 가리어 판단할 만한 지각"을 뜻하는 순 우리말인 "가리사니" 모형이라 명명하였다. 둘째, 웹기반 좌뇌 훈련 융합교육으로 수리영역에 "길 찾기" 및 "선 잇기"와 언어영역에 "문자 찾기(I, II)" 프로그램을 개발하였다. 셋째, 웹기반 우뇌 훈련 융합교육으로 주의영역에 "나의 자동차 찾기" 및 "시각 훈련"과 인지영역에 "사물추리" 및 "그림비교" 프로그램을 개발하였다. 넷째, 웹기반 좌 우뇌 훈련 융합교육으로 공간지각영역에 "펜토미노" 및 "BQ마제"(Brain Quotient와 maze 합성어)와 기억영역에 "시각 훈련" 프로그램을 개발하였다. 다섯째, 연구결과를 종합하여 총 52주 차시의 영역별 융합교육 운영 프로그램을 제시하였다.

한국어 언어모델 파인튜닝을 통한 협찬 블로그 텍스트 생성 (Generating Sponsored Blog Texts through Fine-Tuning of Korean LLMs)

  • 김보경;변재연;차경애
    • 한국산업정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.1-12
    • /
    • 2024
  • 본 논문에서는 대규모 한국어 언어모델인 KoAlpaca를 파인튜닝하고 이를 이용한 블로그 텍스트 생성 시스템을 구현하였다. 소셜 미디어 플랫폼의 블로그는 기업 마케팅 수단으로 널리 활용된다. 수집된 협찬 블로그 텍스트의 감정 분석과 정제를 통한 긍정 리뷰의 학습 데이터를 구축하고 KoAlpaca 학습의 경량화를 위한 QLoRA를 적용하였다. QLoRA는 학습에 필요한 메모리 사용량을 크게 줄이는 파인튜닝 접근법으로 파라미터 크기 12.8B 경우의 실험 환경에서 LoRA 대비 최대 약 58.8%의 메모리 사용량 감소를 확인하였다. 파인튜닝 모델의 생성 성능 평가를 위해서 학습 데이터에 포함되지 않은 100개의 입력으로 생성한 텍스트는 사전학습 모델에 비해서 평균적으로 두배 이상의 단어 수를 생성하였으며 긍정 감정의 텍스트 역시 두 배 이상으로 나타났다. 정성적 생성 성능 평가를 위한 설문조사에서 파인튜닝 모델의 생성 결과가 제시된 주제에 더 잘 부합한다는 응답이 평균 77.5%로 나타났다. 이를 통해서 본 논문의 협찬물에 대한 긍정 리뷰 생성 언어모델은 콘텐츠 제작을 위한 시간 관리의 효율성을 높이고 일관된 마케팅 효과를 보장하는 콘텐츠 제작이 가능함을 보였다. 향후 사전학습 모델의 생성 요소에 의해서 긍정 리뷰의 범주에서 벗어나는 생성 결과를 감소시키기 위해서 학습 데이터의 증강을 활용한 파인튜닝을 진행할 예정이다.

KB-BERT: 금융 특화 한국어 사전학습 언어모델과 그 응용 (KB-BERT: Training and Application of Korean Pre-trained Language Model in Financial Domain)

  • 김동규;이동욱;박장원;오성우;권성준;이인용;최동원
    • 지능정보연구
    • /
    • 제28권2호
    • /
    • pp.191-206
    • /
    • 2022
  • 대량의 말뭉치를 비지도 방식으로 학습하여 자연어 지식을 획득할 수 있는 사전학습 언어모델(Pre-trained Language Model)은 최근 자연어 처리 모델 개발에 있어 매우 일반적인 요소이다. 하지만, 여타 기계학습 방식의 성격과 동일하게 사전학습 언어모델 또한 학습 단계에 사용된 자연어 말뭉치의 특성으로부터 영향을 받으며, 이후 사전학습 언어모델이 실제 활용되는 응용단계 태스크(Downstream task)가 적용되는 도메인에 따라 최종 모델 성능에서 큰 차이를 보인다. 이와 같은 이유로, 법률, 의료 등 다양한 분야에서 사전학습 언어모델을 최적화된 방식으로 활용하기 위해 각 도메인에 특화된 사전학습 언어모델을 학습시킬 수 있는 방법론에 관한 연구가 매우 중요한 방향으로 대두되고 있다. 본 연구에서는 금융(Finance) 도메인에서 다양한 자연어 처리 기반 서비스 개발에 활용될 수 있는 금융 특화 사전학습 언어모델의 학습 과정 및 그 응용 방식에 대해 논한다. 금융 도메인 지식을 보유한 언어모델의 사전학습을 위해 경제 뉴스, 금융 상품 설명서 등으로 구성된 금융 특화 말뭉치가 사용되었으며, 학습된 언어 모델의 금융 지식을 정량적으로 평가하기 위해 토픽 분류, 감성 분류, 질의 응답의 세 종류 자연어 처리 데이터셋에서의 모델 성능을 측정하였다. 금융 도메인 말뭉치를 기반으로 사전 학습된 KB-BERT는 KoELECTRA, KLUE-RoBERTa 등 State-of-the-art 한국어 사전학습 언어 모델과 비교하여 일반적인 언어 지식을 요구하는 범용 벤치마크 데이터셋에서 견줄 만한 성능을 보였으며, 문제 해결에 있어 금융 관련 지식을 요구하는 금융 특화 데이터셋에서는 비교대상 모델을 뛰어넘는 성능을 보였다.

한국어 의존 관계 분석과 자질 집합 분할을 이용한 기계학습의 성능 개선 (Analysis of Korean Language Parsing System and Speed Improvement of Machine Learning using Feature Module)

  • 김성진;옥철영
    • 전자공학회논문지
    • /
    • 제51권8호
    • /
    • pp.66-74
    • /
    • 2014
  • 최근에 한국어 의존 관계에 대한 파싱 시스템과 관련된 연구가 소프트웨어 공학자들이나 언어학자들에 의해 다양하게 연구되고 있으며, 시스템 구현은 주로 기계 학습이나 기호 주의를 사용하고 있다. 기계 학습을 사용한 방법은 한국어 문장 데이터가 매우 크기 때문에 시스템 특성상 매우 긴 학습시간을 가지며, 데이터 자체가 가지는 오류로 인하여 한정된 인식율을 가진다. 본 연구에서는 기계학습을 이용한 시스템에 대하여 학습 시간을 줄일 수 있도록 특징들을 자질 집합 모듈로 분할하여 처리하는 방법을 제안하고, 문장수와 반복횟수에 따른 인식율을 분석하였다. 설계된 시스템은 분리된 모듈과 이진 검색을 위한 정렬 기법이 사용되었다. 데이터는 세종 말뭉치로부터 추출한 후 정제된 36,090문장을 사용하였다. 학습 시간은 약 3시간으로 줄었으며, 인식율은 10,000 문장을 50회 학습하였을 때 84.54%로 가장 높았다. 모든 학습 문장(32,481)을 10회 학습하였을 때 인식율은 82.99%이다. 결과적으로 정제된 데이터를 이용하여 시스템이 안정화될 때까지 반복하는 것이 더 효율적이었다.

영아를 위한 대화식 그림책읽기 교사교육 프로그램의 효과 (A Dialogic Picturebook Reading Program : Effects on Teacher-Toddler Interactions and on Toddler Language)

  • 이미화;김명순
    • 아동학회지
    • /
    • 제25권2호
    • /
    • pp.41-57
    • /
    • 2004
  • Subjects were 88 two-year-old-toddlers(25-36 months of age) and 32 teachers in 13 childcare centers; they were randomly assigned to experimental or control groups. The researcher observed teacher-toddler interaction in the picturebook reading situation. Analysis of patterns of teachers' verbal behavior and coding of toddlers' verbal and nonverbal behaviors were based on Senechal, et al.(1995) and Whitehurst, et al.(1988), respectively. In comparison with the control group, toddlers of the experimental group showed significant differences in verbal behavior; they acquired nouns occurring in the picturebooks and more expressive and comprehensive language. After training intervention, teachers of the experimental group showed changes in quality and quantity of verbal behavior.

  • PDF

한국어 3중 대립 음소에 대한 일본인의 지각적 범주화 (Japanese Adults' Perceptual Categorization of Korean Three-way Distinction)

  • 김지현;김정오
    • 한국인지과학회:학술대회논문집
    • /
    • 한국인지과학회 2005년도 춘계학술대회
    • /
    • pp.163-167
    • /
    • 2005
  • Current theories of cross-language speech perception claim that patterns of perceptual assimilation of non-native segments to native categories predict relative difficulties in learning to perceive (and produce) non-native phones. Perceptual assimilation patterns by Japanese listeners of the three-way voicing distinction in Korean syllable-initial obstruent consonants were assessed directly. According to Speech Learning Model (SLM) and Perceptual Assimilation Model (PAM), the resulting perceptual assimilation pattern predicts relative difficulty in discrimination between lenis and aspirated consonants, and relative ease in the discrimination of fortis. This study compared the effects of two different training conditions on Japanese adults’perceptual categorization of Korean three-way distinction. In one condition, participants were trained to discriminate lenis and aspirated consonants which were predicted to be problematic, whereas in another condition participants were trained with all three classes of 'learnability' did not seem to depend lawfully on the perceived cross-language similarity of Korean and Japanese consonants.

  • PDF

학습데이터를 이용하여 생성한 규칙과 사전을 이용한 명사 추출기 (A Noun Extractor based on Dictionaries and Heuristic Rules Obtained from Training Data)

  • 장동현;맹성현
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1999년도 제11회 한글 및 한국어 정보처리 학술대회 및 제1회 형태소 분석기 및 품사태거 평가 워크숍
    • /
    • pp.151-156
    • /
    • 1999
  • 텍스트로부터 명사를 추출하기 위해서 다양한 기법이 이용될 수 있는데, 본 논문에서는 학습 데이터를 이용하여 생성한 규칙과 사전을 이용하는 단순한 모델을 통해 명사를 효과적으로 추출할 수 있는 기법에 대하여 기술한다. 사용한 모델은 기본적으로 명사, 어미, 술어 사전을 사용하고 있으며 명사 추정은 학습 데이터를 통해 생성한 규칙을 통해 이루어진다. 제안한 방법은 복잡한 언어학적 분석 없이 명사 추정이 가능하며, 복합명사 사전을 이용하지 않고 복합 명사를 추정할 수 있는 장점을 지니고 있다. 또한, 명사추정의 주 요소인 규칙이나 사전 등록어의 추가, 갱신 등이 용이하며, 필요한 경우에는 특정 분야의 텍스트 분석을 위한 새로운 사전의 추가가 가능하다. 제안한 방법을 이용해 "제1회 형태소 분석기 및 품사 태거 평가대회(MATEC '99')"의 명사 추출기 분야에 참가하였으며, 본 논문에서는 성능평가 결과를 제시하고 평가결과에 대한 분석을 기술하고 있다. 또한, 현재의 평가기준 중에서 적합하지 않은 부분을 규정하고 이를 기준으로 삼아 자체적으로 재평가한 평가결과를 제시하였다.

  • PDF

PESAA - 컴퓨터 보조 영어 말하기 훈련 시스템 (PESAA - Computer Assisted English Speaking Training system)

  • 방지수;이종훈;강세천;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2012년도 제24회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.73-76
    • /
    • 2012
  • 영어 교육의 필요성이 증가하고 그에 대한 수요가 늘어남에 따라 컴퓨터를 이용한 외국어 교육 시스템이 개인적인 영어 교육방법으로 소개되고 있다. 새로운 외국어를 접할 때 습득하기 어려운 부분 중 하나가 발음이고, 발음이 외국어 말하기 실력에 중요한 요소이기 때문에 특별한 훈련이 필요하다. 본 논문에서는 이러한 문제점에 대하여 충분히 인지하고 외국어 발음 향상에 도움을 주기 위하여 컴퓨터 보조 발음 훈련시스템을 개발하였다. 본 시스템은 발음 훈련과 억앙 훈련, 즉 문장 강세 훈련과 끊어 읽기 훈련을 포함하며, 사용자의 발화에 대해 적절한 평가와 피드백을 제공한다. 본 논문에서는 발음 훈련 시스템의 구성요소와 동작에 대하여 중점적으로 기술하였다.

  • PDF

학습 데이터 확장을 통한 딥러닝 기반 인과관계 추출 모델 (Deep Learning Based Causal Relation Extraction with Expansion of Training Data)

  • 이승욱;유홍연;고영중
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.61-66
    • /
    • 2018
  • 인과관계 추출이란 어떠한 문장에서 인과관계가 존재하는지, 인과관계가 존재한다면 원인과 결과의 위치까지 분석하는 것을 말한다. 하지만 인과관계 관련 연구는 그 수가 적기 때문에 말뭉치의 수 또한 적으며, 기존의 말뭉치가 존재하더라도 인과관계의 특성상 새로운 도메인에 적용할 때마다 데이터를 다시 구축해야 하는 문제가 있다. 따라서 본 논문에서는 도메인 특화에 따른 데이터 구축비용 문제를 최소화하면서 새로운 도메인에서 인과관계 모델을 잘 구축할 수 있는 통계 기반 모델을 이용한 인과관계 데이터 확장 방법과 도메인에 특화되지 않은 일반적인 언어자질과 인과관계에 특화된 자질을 심층 학습 기반 모델에 적용함으로써 성능 향상을 보인다.

  • PDF