• 제목/요약/키워드: 학습모델

검색결과 5,999건 처리시간 0.033초

한국어 ELECTRA 모델을 이용한 자연어처리 다운스트림 태스크 (Korean ELECTRA for Natural Language Processing Downstream Tasks)

  • 황태선;김정욱;이새벽
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.257-260
    • /
    • 2020
  • 사전 학습을 기반으로 하는 BERT계열의 모델들이 다양한 언어 및 자연어 처리 태스크들에서 뛰어난 성능을 보이고 있지만, masked language model의 경우 입력 문장의 15%만 마스킹을 함으로써 학습 효율이 떨어지고 미세 조정 시 마스킹 토큰이 등장하지 않는 불일치 문제도 존재한다. 이러한 문제를 효과적으로 해결한 ELECTRA는 영어 벤치마크에서 기존의 언어모델들 보다 뛰어난 성능을 보여주었지만 한국어에 대한 관련 연구는 부족한 실정이다. 본 연구에서는 ELECTRA를 한국어 코퍼스에 대해 학습시키고, 다양한 한국어 자연어 이해 태스크들에 대해 실험을 진행한다. 실험을 통해 ELECTRA의 모델 크기별 성능 평가를 진행하였고, 여러 한국어 태스크들에 대해서 평가함으로써 ELECTRA 모델이 기존의 언어 모델들보다 좋은 성능을 보인다는 것을 입증하였다.

  • PDF

디지털 트랜스포메이션 기반 학습모델 연구 (A Study on the Learning Model Based on Digital Transformation)

  • 이진구;이재영;정일찬;김미화
    • 한국콘텐츠학회논문지
    • /
    • 제22권10호
    • /
    • pp.765-777
    • /
    • 2022
  • 본 연구의 목적은 급격히 변화하는 환경 속에서 대학이 경쟁력을 가지기 위해 학습 디지털 트랜스포메이션과 관련된 이론 및 사례를 기반으로 대학에서 활용 가능한 디지털 트랜스포메이션 기반 학습모델을 제시하는 것이다. 이를 위해 기초적인 문헌연구와 사례연구, 전문가 초점집단면접(Focus Group Interview)이 진행되었으며 위 연구방법들을 통해 도출된 학습모델 관련 시사점은 다음과 같다. 국내외에서 관련 분야에 두각을 나타내는 대학들은 빅 데이터를 기반으로 학습분석을 대시보드 구현, 예측 모델 개발, 적응형 학습 지원 등에 활발하게 사용하고 있으며, 첨단 에듀테크를 수업에 적극적으로 도입하여 성과를 내고 있다. 또한 국내 대학이 당면한 현실적인 문제와 애로사항 및 현재 K대학이 당면한 디지털 트랜스포메이션 구현 관련 문제점과 기대 사항들도 확인되었다. 이 시사점들을 바탕으로 본 연구는 K대학의 디지털 트랜스포메이션 기반 학습모델을 개발하였다. 이 모델은 진단, 추천, 학습, 성공의 4개 차원으로 구성되어 있으며 학생이 이 모델을 통해 개인의 성공에 필요한 다양한 학습 과정을 진단 및 추천받아 학습을 진행하고, 학습 성과를 체계적으로 관리해 성공할 수 있도록 한다. 마지막으로 연구결과에 대한 학문적 그리고 실무적 시사점이 논의되었다.

영상기반 인체행위분류를 위한 전이학습 중추네트워크모델 분석 (Transfer Learning Backbone Network Model Analysis for Human Activity Classification Using Imagery)

  • 김종환;류준열
    • 한국시뮬레이션학회논문지
    • /
    • 제31권1호
    • /
    • pp.11-18
    • /
    • 2022
  • 최근 공공장소 및 시설에서 범죄예방 및 시설 안전을 목적으로 영상정보 기반의 인체의 행위를 분류하는 연구가 활발히 진행되고 있다. 이러한 인체 행위분류의 성능을 향상하기 위해서 대부분의 연구는 전이학습 기반의 딥러닝을 적용하고 있다. 그러나 딥러닝의 기반이 되는 중추 네트워크 모델(Backbone Network Model)의 수가 증가하고 아키텍처가 다양해짐에도 불구하고, 소수의 모델만 사용하는 분위기 때문에 운용목적에 적합한 중추 네트워크 모델을 찾는 연구는 미흡한 실정이다. 본 연구는 영상정보를 기초로 인체 행위를 분류하는 인공지능 모델을 개발하기 위해 최근에 개발된 5가지의 딥러닝 중추 네트워크 모델을 대상으로 전이학습을 적용하고 각 모델의 정확도 및 학습효율 측면에서 비교 및 분석하여 가장 효율이 높은 모델을 제안하였다. 이를 위해, 기본적인 인체 행위가 아닌 운동 종목 기반의 활동적이고 신체접촉이 높은 12가지의 인체 활동을 선정하고 관련된 7,200개의 이미지를 수집하였으며, 5가지의 중추 네트워크 모델에 총 20회의 전이학습을 균등하게 적용하고 학습과정과 결과성능을 통해 인체 행위를 분류하는데 적합한 중추 네트워크 모델을 정량적으로 비교 및 분석하였다. 그 결과 XceptionNet 모델이 학습 및 검증 정확도에서 0.99 및 0.91로, Top 2 및 평균 정밀도에서 0.96 및 0.91로 나타났으며 학습 소요시간은 1,566초, 모델용량의 크기는 260.4MB로 정확도와 학습효율 측면에서 다른 모델보다 높은 성능이 나타남을 확인할 수 있었다. 이러한 결과는 전이학습을 적용하여 인체 행위분류를 진행하는 다양한 연구 분야에 활용되기를 기대한다.

협력학습 지원을 위한 에이전트 간의 의사소통 데이터 모델에 관한 연구 (The Study about Agent to Agent Communication Data Model for e-Learning)

  • 한태인
    • 전자공학회논문지CI
    • /
    • 제48권3호
    • /
    • pp.36-45
    • /
    • 2011
  • 소셜러닝의 대표적 학습인 협력학습에서의 에이전트란 학습자에게 현황이든, 환경이든, 과제이든 설명해 줄 수 있거나, 보편적이고 일반적인 방법으로 독립적인 기능을 수행할 수 있는 것이다, 이를 위해서는 에이전트 사이에서의 의사소통에 관한 정보기술 표준화 방법이 요구된다. 본 연구는 협력학습에서 사용되는 각종 에이전트들의 의사소통에 관한 데이터 모델에 관한 기술을 제시한다. 따라서 이러닝 협력학습 환경을 지원하는 많은 에이전트들의 유형을 파악하고, 이 에이전트들 간의 상호 의사소통에 관한 규칙을 갖는 데이터 모델을 설계하여 그 요소들을 정의하고자 한다. 이렇게 제시된 표준화된 데이터 모델을 기반으로 하는 다중 에이전트 시스템은 여러 응용 에이전트가 독립된 프로세스로 활동할 수 있도록 정의된 통신 데이터모델에 의해 메시지 상호 교환이 가능해진다. 본 연구는 소셜러닝에서 주를 이루는 학습방법인 협력학습 중에서 다양한 에이전트를 활용하는 경우 이를 지원하는 에이전트간의 통신에 관한 의사소통 모델 응용을 통해 원활한 협력학습이 구현되도록 기여할 것으로 기대한다.

웹 환경에서 LCPG 학습모델을 기반한 Cyber Class 개발 (Development of Cyber Class based on LCPG Learning Model on the Web)

  • 송은하;정권호;정영식
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2000년도 춘계학술발표논문집
    • /
    • pp.219-222
    • /
    • 2000
  • 일반적으로 WBI가 제공하는 시간과 장소를 초월하는 가상의 공간속에서 웹 환경에서 하이퍼미디어 기술을 도입하여 학습자가 학습에 대한 선택의 자유를 가지고 자기 나름대로 학습의 상황을 수시로 점검하고, 평가할 수 방법을 가지고 학습자가 학습에 대해 책임을 가지고 학습자 자신의 인지 구조를 최대한 반영하는 개별화 교수-학습 환경을 제공하고자한다. 개발된 Cyber Class는 LCPG 모델을 기반으로 하는 학습진행 및 학습평가 알고리즘을 제공하고 학습자 개개인의 특성에 맞는 재학습 메커니즘을 제공한다.

  • PDF

한국어 언어 모델의 정치 편향성 검증 및 정량적 지표 제안 (Measurement of Political Polarization in Korean Language Model by Quantitative Indicator)

  • 김정욱;김경민;;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.16-21
    • /
    • 2022
  • 사전학습 말뭉치는 위키백과 문서 뿐만 아니라 인터넷 커뮤니티의 텍스트 데이터를 포함한다. 이는 언어적 관념 및 사회적 편향된 정보를 포함하므로 사전학습된 언어 모델과 파인튜닝한 언어 모델은 편향성을 내포한다. 이에 따라 언어 모델의 중립성을 평가할 수 있는 지표의 필요성이 대두되었으나, 아직까지 언어 인공지능 모델의 정치적 중립성에 대해 정량적으로 평가할 수 있는 척도는 존재하지 않는다. 본 연구에서는 언어 모델의 정치적 편향도를 정량적으로 평가할 수 있는 지표를 제시하고 한국어 언어 모델에 대해 평가를 수행한다. 실험 결과, 위키피디아로 학습된 언어 모델이 가장 정치 중립적인 경향성을 나타내었고, 뉴스 댓글과 소셜 리뷰 데이터로 학습된 언어 모델의 경우 정치 보수적, 그리고 뉴스 기사를 기반으로 학습된 언어 모델에서 정치 진보적인 경향성을 나타냈다. 또한, 본 논문에서 제안하는 평가 방법의 안정성 검증은 각 언어 모델의 정치적 편향 평가 결과가 일관됨을 입증한다.

  • PDF

발전플랜트 성능데이터 학습에 의한 발전기 출력 추정 모델 (A Predictive Model of the Generator Output Based on the Learning of Performance Data in Power Plant)

  • 양학진;김성근
    • 한국산학기술학회논문지
    • /
    • 제16권12호
    • /
    • pp.8753-8759
    • /
    • 2015
  • 터빈 발전 사이클에서의 안정적인 발전 출력 유지관리를 위해서는 검증된 성능 측정 데이터 그룹과 이를 바탕으로 한 발전 출력 성능 계산 절차의 수립이 필요하다. ASME PTC(Performance Test Code)의 성능 계산 절차를 기반으로 본 연구에서는 터빈 출력에 의한 발전기 출력 성능 산정을 위해서 터빈 팽창선 모델과 발전기 출력 측정 데이터의 입력 검증 모델을 구성하였다. 또한 불확실한 측정 데이터에 대한 검증 모델도 구성하였다. 지난 연구에서는 신경회로망과 커널 회귀의 학습 방법을 사용하였으나 본 연구에서는 미측정 데이터에 대한 보완을 하기 위하여 서포트 벡터 머신 모델을 사용하여 발전기 출력 계산 데이터의 학습 모델을 구성하였으며, 학습 모델 구성을 위해서 관련 변수의 선정을 위한 절차와 학습 데이터 구간을 설정하는 알고리듬을 개발하였다. 학습의 결과 오차는 약 1% 범위 안에 있게 되어 추정 및 학습 모델로서 유용함을 입증하였다. 이 학습 모델을 사용하여 측정 데이터 중 상실된 부분에 대한 추정 모델을 구성함으로써, 터빈 사이클 보정 성능 계산의 신뢰성을 향상시킬 수 있음을 검증하였다.

In-Context 검색 증강형 한국어 언어 모델 (In-Context Retrieval-Augmented Korean Language Model)

  • 이성민;이정;서대룡;전동현;강인호;나승훈
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.443-447
    • /
    • 2023
  • 검색 증강형 언어 모델은 입력과 연관된 문서들을 검색하고 텍스트 생성 과정에 통합하여 언어 모델의 생성 능력을 강화한다. 본 논문에서는 사전 학습된 대규모 언어 모델의 추가적인 학습 없이 In-Context 검색 증강으로 한국어 언어 모델의 생성 능력을 강화하고 기존 언어 모델 대비 성능이 증가함을 보인다. 특히 다양한 크기의 사전 학습된 언어 모델을 활용하여 검색 증강 결과를 보여 모든 규모의 사전 학습 모델에서 Perplexity가 크게 개선된 결과를 확인하였다. 또한 오픈 도메인 질의응답(Open-Domain Question Answering) 과업에서도 EM-19, F1-27.8 향상된 결과를 보여 In-Context 검색 증강형 언어 모델의 성능을 입증한다.

  • PDF

역량기반 학습성과 평가 시스템 구현을 위한 데이터 모델링 및 알고리즘 설계 (Data modeling and algorithms design for implementing Competency-based Learning Outcomes Assessment System)

  • 정현숙;김정민
    • 융합정보논문지
    • /
    • 제11권11호
    • /
    • pp.335-344
    • /
    • 2021
  • 본 논문의 목적은 교과기반 학습성취평가 시스템 구현을 위한 교과 데이터 모델 및 학습 성취도 산출 알고리즘 개발이다. 현재 대학 교육의 방향인 역량기반 교육을 위해서는 교과기반 학습성취 평가가 필수적이지만 기존 연구들은 교육학적 관점으로서 컴퓨터 시스템 관점의 해결책이 매우 부족하다. 본 논문에서는 코스맵 데이터 구조 분석을 통해 계층 구조의 학습성과 모델, 학습모듈 및 학습활동 모델, 학습성과와 학습활동 연계 매트릭스 모델 및 자동화된 성취도 산출 및 성취수준 평가를 위한 성취도 계산 알고리즘을 제안한다. 이를 통해 교과기반 학습성취 평가 시스템을 개발할 수 있으며 시스템 활용을 통해 학습자의 역량 성취를 효과적으로 평가할 수 있다. 제안된 모델과 알고리즘의 평가를 위해 실제 운영중인 자바프로그래밍 교과목에 적용하였으며 이를 통해 교과기반 학습성과 성취평가 시스템 구현의 핵심요소로 활용할 수 있음을 확인하였다. 향후 연구는 학습성과 성취도 산출을 기반으로 적응형 학습 피드백과 개인화된 학습 추천 알고리즘 개발 및 시스템 구현이다.

오픈 소스 기반의 거대 언어 모델 연구 동향: 서베이 (A Survey on Open Source based Large Language Models)

  • 주하영;오현택;양진홍
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권4호
    • /
    • pp.193-202
    • /
    • 2023
  • 최근 대규모 데이터 세트로 학습된 거대 언어 모델들의 뛰어난 성능이 공개되면서 큰 화제가 되고 있다. 하지만 거대 언어 모델을 학습하고 활용하기 위해서는 초대용량의 컴퓨팅 및 메모리 자원이 필요하므로, 대부분의 연구는 빅테크 기업들을 중심으로 폐쇄적인 환경에서 진행되고 있었다. 하지만, Meta의 거대 언어 모델 LLaMA가 공개되면서 거대 언어 모델 연구들은 기존의 폐쇄적인 환경에서 벗어나 오픈 소스화되었고, 관련 생태계가 급격히 확장되어 가고 있다. 이러한 배경하에 사전 학습된 거대 언어 모델을 추가 학습시켜 특정 작업에 특화되거나 가벼우면서도 성능이 뛰어난 모델들이 활발히 공유되고 있다. 한편, 사전 학습된 거대 언어 모델의 학습데이터는 영어가 큰 비중을 차지하기 때문에 한국어의 성능이 비교적 떨어지며, 이러한 한계를 극복하기 위해 한국어 데이터로 추가 학습을 시키는 한국어 특화 언어 모델 연구들이 이루어지고 있다. 본 논문에서는 오픈 소스 기반의 거대 언어 모델의 생태계 동향을 파악하고 영어 및 한국어 특화 거대 언어 모델에 관한 연구를 소개하며, 거대 언어 모델의 활용 방안과 한계점을 파악한다.