• 제목/요약/키워드: 컴퓨터 어휘 학습

검색결과 45건 처리시간 0.034초

한국어 부분언어에 대한 문법 정의 및 GLR 파싱 (A grammar definition and the GLR parsing for Korean sub-language)

  • 김지현;정병채;이재성
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2013년도 제25회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.142-145
    • /
    • 2013
  • 최근 한국어를 배우는 외국인의 증가로 '외국어로서의 한국어 학습(KFL)'에 대한 관심이 늘고 있다. 본 논문에서는 외국인을 위한 한국어 교재에서 사용된 회화 문장으로부터 문장 패턴을 분석하고 이를 기반으로 한국어 부분 언어 문법을 정의한다. 대개 부분 언어 문법은 간단하고 배우기 쉬우므로 외국어로서의 한국어 학습자들이 쉽게 한국어로 의사소통을 할 수 있을 것이다. 특히, 본 논문에서는 이 부분 문법이 컴퓨터로 해석될 수 있도록 문법을 정의하였고, 이를 자동 어휘분석기 생성기(flex)와 자동 파서 생성기(bison)을 이용해 기본적인 검증을 하였다.

  • PDF

교육용 앱 평가도구 개발 연구 (Development of Evaluation Tool for Educational Applications)

  • 이정숙;김성완
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2013년도 제47차 동계학술대회논문집 21권1호
    • /
    • pp.149-152
    • /
    • 2013
  • 이 연구는 스마트교육환경에서의 교육용 앱을 평가하기 위한 신뢰롭고 타당한 도구를 개발하는데 있다. 기존 선행연구에 기초해서 교육용 앱의 평가를 위한 평가모형을 도출했으며, 이 모형은 4개의 평가영역(교수 학습측면, 화면디자인측면, 기술측면, 경제 윤리측면)과 13개 평가요소들로 구성되었다. 이 잠재모형의 통계적 타당성 검증을 위한 자료수집을 하고자, 경기도 소재 중학교 1곳과 고등학교 2곳의 학생 156명을 대상으로 교육용 앱을 평가하는데 있어서 각 평가문항이 갖는 중요도를 평가하였다. 수집된 자료를 탐색적 요인분석한 결과, 교육용 앱을 평가하는 영역으로 교수 학습(흥미성 자기주도성 실용성, 인지발달성), 화면디자인(디자인의 적합성, 어휘의 정확성), 기술(호환성, 안정성), 경제 윤리(경제성, 윤리성) 등 4개 영역이 제안되었다. 또한 문항내적일관성을 확인하고자 신뢰도 분석한 결과, 각 평가영역 별 Cronbach ${\alpha}$는 .88, .85, .82, .80으로 모두 적합한 수준을 보였다. 따라서, 이 연구를 통해 도출된 교육용 앱 평가도구는 통계적으로나 타당성과 신뢰성 측면에서 의미 있는 것으로 판단할 수 있다.

  • PDF

부분 단어 토큰화 기법을 이용한 뉴스 기사 정치적 편향성 자동 분류 및 어휘 분석 (Automatic Classification and Vocabulary Analysis of Political Bias in News Articles by Using Subword Tokenization)

  • 조단비;이현영;정원섭;강승식
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권1호
    • /
    • pp.1-8
    • /
    • 2021
  • 뉴스 기사의 정치 분야는 보수, 진보와 같이 양극화된 편향적 특성이 존재하며 이를 정치적 편향성이라고 한다. 뉴스 기사로부터 편향성 문제를 분류하기 위해 키워드 기반의 학습 데이터를 구축하였다. 대부분의 임베딩 연구에서는 미등록어로 인한 문제를 완화시키기 위해 형태소 단위로 문장을 구성한다. 본 논문에서는 문장을 언어 모델에 의해 세부적으로 분할하는 부분 단어로 문장을 구성할 경우 미등록어 수가 감소할 것이라 예상하였다. 부분 단어 토큰화 기법을 이용한 문서 임베딩 모델을 제안하며 이를 SVM과 전방향 뉴럴 네트워크 구조에 적용하여 정치적 편향성 분류 실험을 진행하였다. 형태소 토큰화 기법을 이용한 문서 임베딩 모델과 비교 실험한 결과, 부분 단어 토큰화 기법을 이용한 문서 임베딩 모델이 78.22%로 가장 높은 정확도를 보였으며 부분 단어 토큰화를 통해 미등록어 수가 감소되는 것을 확인하였다. 분류 실험에서 가장 성능이 좋은 임베딩 모델을 이용하여 정치적 인물을 기반한 어휘를 추출하였으며 각 성향의 정치적 인물 벡터와의 평균 유사도를 통해 어휘의 편향성을 검증하였다.

미등록어 거절 알고리즘에서 가우시안 모델 최적화를 이용한 신뢰도 정규화 향상 (In Out-of Vocabulary Rejection Algorithm by Measure of Normalized improvement using Optimization of Gaussian Model Confidence)

  • 안찬식;오상엽
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권12호
    • /
    • pp.125-132
    • /
    • 2010
  • 어휘 인식에서는 인식 학습 시 나타나지 않는 미 출현 트라이 폰이 존재하며, 이들 시스템에서는 모델 파라미터들의 초기 추정치를 생성하지 못하고 음소 데이터에 대한 모델을 구성할 수 없는 단점으로 인하여 가우시안 모델의 정확성을 확보하지 못하게 된다. 이를 개선하기 위하여 확률 분포를 이용한 모델 파라미터의 가우시안 모델 최적화 방법을 제안한다. 확률 분포의 가우시안 모델을 최적화하여 가우시안 모델의 정확성을 제공하고, 음소 단위로 데이터의 탐색을 지원하여 신뢰도가 향상되었다. 제안된 방법의 성능 평가를 위하여 실제 다양한 미등록어가 관측될 수 있는 대상으로 실험을 수행하였으며 본 연구에서 제안한 정규화 신뢰도를 이용한 미등록어 거절 알고리즘이 기존의 방법들에 비하여 평균 1.7%의 성능향상을 나타내었다.

BERT와 지식 그래프를 이용한 한국어 문맥 정보 추출 시스템 (Korean Contextual Information Extraction System using BERT and Knowledge Graph)

  • 유소엽;정옥란
    • 인터넷정보학회논문지
    • /
    • 제21권3호
    • /
    • pp.123-131
    • /
    • 2020
  • 인공지능 기술의 비약적 발전과 함께 사람의 언어를 다루는 자연어 처리 분야 역시 활발하게 연구가 진행되고 있다. 특히 최근에는 구글에서 공개한 언어 모델인 BERT는 대량의 코퍼스를 활용해 미리 학습시킨 모델을 제공함으로써 자연어 처리의 여러 분야에서 좋은 성능을 보이고 있다. BERT에서 다국어 모델을 지원하고 있지만 한국어에 바로 적용했을 때는 한계점이 존재하기 때문에 대량의 한국어 코퍼스를 이용해 학습시킨 모델을 사용해야 한다. 또한 텍스트는 어휘, 문법적인 의미만 담고 있는 것이 아니라 전후 관계, 상황과 같은 문맥적인 의미도 담고 있다. 기존의 자연어 처리 분야에서는 어휘나 문법적인 의미를 중심으로 연구가 주로 이루어졌다. 텍스트에 내재되어 있는 문맥 정보의 정확한 파악은 맥락을 이해하는 데에 있어 중요한 역할을 한다. 단어들의 관계를 이용해 연결한 지식그래프는 컴퓨터에게 쉽게 문맥을 학습시킬 수 있는 장점이 있다. 본 논문에서는 한국어 코퍼스를 이용해 사전 학습된 BERT 모델과 지식 그래프를 이용해 한국어 문맥 정보를 추출하는 시스템을 제안하고자 한다. 텍스트에서 중요한 요소가 되는 인물, 관계, 감정, 공간, 시간 정보를 추출할 수 있는 모델을 구축하고 제안한 시스템을 실험을 통해 검증한다.

단어 의미와 자질 거울 모델을 이용한 단어 임베딩 (A Word Embedding used Word Sense and Feature Mirror Model)

  • 이주상;신준철;옥철영
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권4호
    • /
    • pp.226-231
    • /
    • 2017
  • 단어 표현은 기계학습을 사용하는 자연어 처리 분야에서 중요하다. 단어 표현은 단어를 텍스트가 아닌 컴퓨터가 분별할 수 있는 심볼로 표현하는 방법이다. 기존 단어 임베딩은 대량의 말뭉치를 이용하여 문장에서 학습할 단어의 주변 단어를 이용하여 학습한다. 하지만 말뭉치 기반의 단어 임베딩은 단어의 등장 빈도수나 학습할 단어의 수를 늘리기 위해서는 많은 양의 말뭉치를 필요로 한다. 본 논문에서는 말뭉치 기반이 아닌 단어의 뜻풀이와 단어의 의미 관계(상위어, 반의어)를 이용하며 기존 Word2Vec의 Skip-Gram을 변형한 자질거울모델을 사용하여 단어를 벡터로 표현하는 방법을 제시한다. 기존 Word2Vec에 비해 적은 데이터로 많은 단어들을 벡터로 표현 가능하였으며 의미적으로 유사한 단어들이 비슷한 벡터를 형성하는 것을 확인할 수 있다. 그리고 반의어 관계에 있는 두 단어의 벡터가 구분되는 것을 확인할 수 있다.

초등학생 대상 한국어 기반 Python 교육용 프로그램 개발 방안 (Development Plan of Python Education Program for Korean Speaking Elementary Students)

  • 박기령;박소희;김준서;구덕회
    • 한국정보교육학회:학술대회논문집
    • /
    • 한국정보교육학회 2021년도 학술논문집
    • /
    • pp.141-148
    • /
    • 2021
  • 초등학생을 대상으로 하는 소프트웨어 교육에는 주로 교육용 프로그래밍 언어가 사용된다. 고학년 수준에서는 블록형 교육용 프로그래밍 언어를 기반으로 텍스트 기반 프로그래밍 언어로 전환하고, 경험하는 것이 중요하다. 그러나 대부분의 TPL은 어려운 영어 어휘와 문법으로 이루어져 있어 초등 수준에서 학습하기에 어려움이 있다. 대표적인 텍스트 기반 프로그래밍 언어로는 Python이 있다. 본 연구는 한국어가 익숙한 학생들이 Python을 용이하게 학습할 수 있는 교육 프로그램의 개발에 관한 것이다. 데이터 분석에 필요한 개념을 중심으로 Python 예약어를 추출하였다. 데이터 분석에 사용되는 영어 예약어들을 초등 수준에서 이해할 수 있는 한국어로 대체하였다. 대체한 예약어와 Python 예약어를 일대일 매핑하여 한국어를 사용하여 Python 데이터 분석 과정을 체험해 볼 수 있는 프로그램을 구상하였다. 본 연구가 TPL을 학습하기 위한 기초 자료로 유용하게 활용되길 기대한다.

  • PDF

통합 사용자 인터페이스에 관한 연구 : 인공 신경망 모델을 이용한 한국어 단모음 인식 및 음성 인지 실험 (A Study on the Intelligent Man-Machine Interface System: The Experiments of the Recognition of Korean Monotongs and Cognitive Phenomena of Korean Speech Recognition Using Artificial Neural Net Models)

  • 이봉규;김인범;김기석;황희융
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1989년도 한글날기념 학술대회 발표논문집
    • /
    • pp.101-106
    • /
    • 1989
  • 음성 및 문자를 통한 컴퓨터와의 정보 교환을 위한 통합 사용자 인터페이스 (Intelligent Man- Machine interface) 시스템의 일환으로 한국어 단모음의 인식을 위한 시스템을 인공 신경망 모델을 사용하여 구현하였으며 인식시스템의 상위 접속부에 필요한 단어 인식 모듈에 있어서의 인지 실험도 행하였다. 모음인식의 입력으로는 제1, 제2, 제3 포르만트가 사용되었으며 실험대상은 한국어의 [아, 어, 오, 우, 으, 이, 애, 에]의 8 개의 단모음으로 하였다. 사용한 인공 신경망 모델은 Multilayer Perceptron 이며, 학습 규칙은 Generalized Delta Rule 이다. 1 인의 남성 화자에 대하여 약 94%의 인식율을 나타내었다. 그리고 음성 인식시의 인지 현상 실험을 위하여 약 20개의 단어를 인공신경망의 어휘레벨에 저장하여 음성의 왜곡, 인지시의 lexical 영향, categorical percetion등을 실험하였다. 이때의 인공 신경망 모델은 Interactive Activation and Competition Model을 사용하였으며, 음성 입력으로는 가상의 음성 피쳐 데이타를 사용하였다.

  • PDF

통계 언어모델 기반 객관식 빈칸 채우기 문제 생성 (Automatic Generation of Multiple-Choice Questions Based on Statistical Language Model)

  • 박영기
    • 정보교육학회논문지
    • /
    • 제20권2호
    • /
    • pp.197-206
    • /
    • 2016
  • 빈칸 채우기 문제는 학생들이 학습 내용을 제대로 이해했는지 확인하기 위해 널리 사용되어 왔다. 이런 유형의 문제를 컴퓨터 알고리즘에 의해 자동으로 생성하는 많은 방법들이 제안되어 왔지만, 대부분 어떤 부분을 빈칸으로 만들면 좋을지에 대해 집중했기 때문에 적절한 보기를 자동으로 생성하는 연구는 미흡했다. 본 논문에서는 빈칸이 주어졌다고 가정하고, 이에 어울리는 보기를 자동 생성하는 알고리즘을 제안한다. 본 알고리즘은 통계 언어 모델에 기반하여 보기를 생성하기 때문에, 사람이 생성하는 경우보다 출제자에 편향되지 않은 보기를 제공할 수 있다. 또, 확률값에 기반하여 난이도를 자동으로 조절하는 것이 가능하기 때문에, 직접 사람이 문제를 만드는 것에 비해 상당한 비용 절감 효과가 있다. TEPS 문법, 어휘 시험에 대해 적용하여 실험한 결과, 사람과 유사한 결과를 생성함을 확인하였다. 향후 스마트 교육 분야에서 높은 활용도를 보일 것으로 기대한다.

미등록 어휘에 대한 선택적 복사를 적용한 문서 자동요약 (Automatic Text Summarization based on Selective Copy mechanism against for Addressing OOV)

  • 이태석;선충녕;정영임;강승식
    • 스마트미디어저널
    • /
    • 제8권2호
    • /
    • pp.58-65
    • /
    • 2019
  • 문서 자동 요약은 주어진 문서로부터 주요 내용을 추출하거나 생성하는 방식으로 축약하는 작업을 말한다. 최근 연구에서는 대량의 문서를 딥러닝 기법을 적용하여 요약문 자체를 생성하는 방식으로 발전하고 있다. 생성 요약은 미리 생성된 위드 임베딩 정보를 사용하는데, 전문 용어와 같이 저빈도 핵심 어휘는 입베딩 된 사전에 없는 문제가 발생한다. 인코딩-디코딩 신경망 모델의 문서 자동 요약에서 미등록 어휘의 출현은 요약 성능 저하의 요인이다. 이를 해결하기 위해 본 논문에서는 요약 대상 문서에서 새로 출현한 단어를 복사하여 요약문을 생성하는 방법을 사용한다. 기존의 연구와는 달리 정확한 포인팅 정보와 선택적 복사 지시 정보를 명시적으로 제공하는 방법으로 제안하였다. 학습 데이터는 논문의 초록과 제목을 대상 문서와 정답 요약으로 사용하였다. 제안한 인코딩-디코딩 기반 모델을 통해서 자동 생성 요약을 수행한 결과 단어 제현 기반의 ROUGE-1이 47.01로 나타났으며, 또한 어순 기반의 ROUGE-L이 29.55로 향상되었다.