• Title/Summary/Keyword: natural language classification

검색결과 196건 처리시간 0.021초

Automatic Adverb Error Correction in Korean Learners' EFL Writing

  • Kim, Jee-Eun
    • International Journal of Contents
    • /
    • 제5권3호
    • /
    • pp.65-70
    • /
    • 2009
  • This paper describes ongoing work on the correction of adverb errors committed by Korean learners studying English as a foreign language (EFL), using an automated English writing assessment system. Adverb errors are commonly found in learners 'writings, but handling those errors rarely draws an attention in natural language processing due to complicated characteristics of adverb. To correctly detect the errors, adverbs are classified according to their grammatical functions, meanings and positions within a sentence. Adverb errors are collected from learners' sentences, and classified into five categories adopting a traditional error analysis. The error classification in conjunction with the adverb categorization is implemented into a set of mal-rules which automatically identifies the errors. When an error is detected, the system corrects the error and suggests error specific feedback. The feedback includes the types of errors, a corrected string of the error and a brief description of the error. This attempt suggests how to improve adverb error correction method as well as to provide richer diagnostic feedback to the learners.

Text Classification on Social Network Platforms Based on Deep Learning Models

  • YA, Chen;Tan, Juan;Hoekyung, Jung
    • Journal of information and communication convergence engineering
    • /
    • 제21권1호
    • /
    • pp.9-16
    • /
    • 2023
  • The natural language on social network platforms has a certain front-to-back dependency in structure, and the direct conversion of Chinese text into a vector makes the dimensionality very high, thereby resulting in the low accuracy of existing text classification methods. To this end, this study establishes a deep learning model that combines a big data ultra-deep convolutional neural network (UDCNN) and long short-term memory network (LSTM). The deep structure of UDCNN is used to extract the features of text vector classification. The LSTM stores historical information to extract the context dependency of long texts, and word embedding is introduced to convert the text into low-dimensional vectors. Experiments are conducted on the social network platforms Sogou corpus and the University HowNet Chinese corpus. The research results show that compared with CNN + rand, LSTM, and other models, the neural network deep learning hybrid model can effectively improve the accuracy of text classification.

금융권에 적용 가능한 금융특화언어모델 구축방안에 관한 연구 (A Study on the Construction of Financial-Specific Language Model Applicable to the Financial Institutions)

  • 배재권
    • 한국산업정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.79-87
    • /
    • 2024
  • 최근 텍스트분류, 감성분석, 질의응답 등의 자연어 처리를 위해서 사전학습언어모델(Pre-trained Language Model, PLM)의 중요성은 날로 강조되고 있다. 한국어 PLM은 범용적인 도메인의 자연어 처리에서 높은 성능을 보이나 금융, 제조, 법률, 의료 등의 특화된 도메인에서는 성능이 미약하다. 본 연구는 금융도메인 뿐만 아니라 범용도메인에서도 우수한 성능을 보이는 금융특화 언어모델의 구축을 위해 언어모델의 학습과정과 미세조정 방법을 제안하는 것이 주요 목표이다. 금융도메인 특화언어모델을 구축하는 과정은 (1) 금융데이터 수집 및 전처리, (2) PLM 또는 파운데이션 모델 등 모델 아키텍처 선정, (3) 도메인 데이터 학습과 인스트럭션 튜닝, (4) 모델 검증 및 평가, (5) 모델 배포 및 활용 등으로 구성된다. 이를 통해 금융도메인의 특성을 살린 사전학습 데이터 구축방안과 효율적인 LLM 훈련방법인 적응학습과 인스트럭션 튜닝기법을 제안하였다.

RNN과 트랜스포머 기반 모델들의 한국어 리뷰 감성분류 비교 (Comparison of Sentiment Classification Performance of for RNN and Transformer-Based Models on Korean Reviews)

  • 이재홍
    • 한국전자통신학회논문지
    • /
    • 제18권4호
    • /
    • pp.693-700
    • /
    • 2023
  • 텍스트 문서에서 주관적인 의견과 감정을 긍정 혹은 부정으로 분류하고 식별하는 자연어 처리의 한 분야인 감성 분석은 고객 선호도 분석을 통해 다양한 홍보 및 서비스에 활용할 수 있다. 이를 위해 최근 머신러닝과 딥러닝의 다양한 기법을 활용한 연구가 진행되어 왔다. 본 연구에서는 기존의 RNN 기반 모델들과 최근 트랜스포머 기반 언어 모델들을 활용하여 영화, 상품 및 게임 리뷰를 대상으로 감성 분석의 정확도를 비교 분석하여 최적의 언어 모델을 제안하고자 한다. 실험 결과 한국어 말뭉치로 사전 학습된 모델들 중 LMKor-BERT와 GPT-3가 상대적으로 좋은 정확도를 보여주었다.

변형된 비속어 탐지를 위한 토큰 기반의 분류 및 데이터셋 (Token-Based Classification and Dataset Construction for Detecting Modified Profanity)

  • 고성민;신유현
    • 정보처리학회 논문지
    • /
    • 제13권4호
    • /
    • pp.181-188
    • /
    • 2024
  • 기존의 비속어 탐지 방법들은 의도적으로 변형된 비속어를 식별하는 데 한계가 있다. 이 논문에서는 자연어 처리의 한 분야인 개체명 인식에 기반한 새로운 방법을 소개한다. 우리는 시퀀스 레이블링을 이용한 비속어 탐지 기법을 개발하고, 이를 위해 한국어 악성 댓글 중 일부 비속어를 레이블링하여 직접 데이터셋을 구축하여 실험을 수행하였다. 또한 모델의 성능을 향상시키기 위하여 거대 언어 모델중 하나인 ChatGPT를 활용해 한국어 혐오발언 데이터셋의 일부를 레이블링을 하는 방식으로 데이터셋을 증강하여 학습을 진행하였고, 이 과정에서 거대 언어 모델이 생성한 데이터셋을 인간이 필터링 하는 것만으로도 성능을 향상시킬 수 있음을 확인하였다. 이를 통해 데이터셋 증강 과정에는 여전히 인간의 관리감독이 필요함을 제시하였다.

자연어 알고리즘을 활용한 한국표준건강분류(KCF) 코드 검색 (Korean Standard Classification of Functioning, Disability and Health (KCF) Code Linking on Natural Language with Extract Algorithm )

  • 최년식;송주민
    • 대한물리의학회지
    • /
    • 제18권1호
    • /
    • pp.77-86
    • /
    • 2023
  • PURPOSE: This study developed an experimental algorithm, which is similar or identical to semantic linking for KCF codes, even if it converted existing semantic code linking methods to morphological code extraction methods. The purpose of this study was to verify the applicability of the system. METHODS: An experimental algorithm was developed as a morphological extraction method using code-specific words in the KCF code descriptions. The algorithm was designed in five stages that extracted KCF code using natural language paragraphs. For verification, 80 clinical natural language experimental cases were defined. Data acquisition for the study was conducted with the deliberation and approval of the bioethics committee of the relevant institution. Each case was linked by experts and was extracted through the System. The linking accuracy index model was used to compare the KCF code linking by experts with those extracted from the system. RESULTS: The accuracy was checked using the linking accuracy index model for each case. The analysis was divided into five sections using the accuracy range. The section with less than 25% was compared; the first experimental accuracy was 61.24%. In the second, the accuracy was 42.50%. The accuracy was improved to 30.59% in the section by only a weight adjustment. The accuracy can be improved by adjusting several independent variables applied to the system. CONCLUSION: This paper suggested and verified a way to easily extract and utilize KCF codes even if they are not experts. KCF requires the system for utilization, and additional study will be needed.

전통적인 챗봇과 ChatGPT 연계 서비스 방안 연구 (A Study on the Service Integration of Traditional Chatbot and ChatGPT)

  • 정천수
    • Journal of Information Technology Applications and Management
    • /
    • 제30권4호
    • /
    • pp.11-28
    • /
    • 2023
  • This paper proposes a method of integrating ChatGPT with traditional chatbot systems to enhance conversational artificial intelligence(AI) and create more efficient conversational systems. Traditional chatbot systems are primarily based on classification models and are limited to intent classification and simple response generation. In contrast, ChatGPT is a state-of-the-art AI technology for natural language generation, which can generate more natural and fluent conversations. In this paper, we analyze the business service areas that can be integrated with ChatGPT and traditional chatbots, and present methods for conducting conversational scenarios through case studies of service types. Additionally, we suggest ways to integrate ChatGPT with traditional chatbot systems for intent recognition, conversation flow control, and response generation. We provide a practical implementation example of how to integrate ChatGPT with traditional chatbots, making it easier to understand and build integration methods and actively utilize ChatGPT with existing chatbots.

자유대화의 음향적 특징 및 언어적 특징 기반의 성인과 노인 분류 성능 비교 (Comparison of Classification Performance Between Adult and Elderly Using Acoustic and Linguistic Features from Spontaneous Speech)

  • 한승훈;강병옥;동성희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권8호
    • /
    • pp.365-370
    • /
    • 2023
  • 사람은 노화과정에 따라 발화의 호흡, 조음, 높낮이, 주파수, 언어 표현 능력 등이 변화한다. 본 논문에서는 이러한 변화로부터 발생하는 음향적, 언어적 특징을 기반으로 발화 데이터를 성인과 노인 두 그룹으로 분류하는 성능을 비교하고자 한다. 음향적 특징으로는 발화 음성의 주파수 (frequency), 진폭(amplitude), 스펙트럼(spectrum)과 관련된 특징을 사용하였으며, 언어적 특징으로는 자연어처리 분야에서 우수한 성능을 보이고 있는 한국어 대용량 코퍼스 사전학습 모델인 KoBERT를 통해 발화 전사문의 맥락 정보를 담은 은닉상태 벡터 표현을 추출하여 사용하였다. 본 논문에서는 음향적 특징과 언어적 특징을 기반으로 학습된 각 모델의 분류 성능을 확인하였다. 또한, 다운샘플링을 통해 클래스 불균형 문제를 해소한 뒤 성인과 노인 두 클래스에 대한 각 모델의 F1 점수를 확인하였다. 실험 결과로, 음향적 특징을 사용하였을 때보다 언어적 특징을 사용하였을 때 성인과 노인 분류에서 더 높은 성능을 보이는 것으로 나타났으며, 클래스 비율이 동일하더라도 노인에 대한 분류 성능보다 성인에 대한 분류 성능이 높음을 확인하였다.

공예품 이커머스 데이터베이스 구축을 위한 공예품 조형 디자인 분류체계 개발 (Form Based Classification System for Building Database of Handmade Product E-Commerce)

  • 조익현;이사야;김채희;이중섭;이은종
    • 스마트미디어저널
    • /
    • 제10권4호
    • /
    • pp.54-62
    • /
    • 2021
  • 온라인 이커머스의 거래량이 증가함에 따라 품목이 다양해지고 그 분류가 복잡해지고 있다. 이에 전문적으로 한 분야에 대해서만 거래하는 이커머스 플랫폼이 등장하고 있고, 그 분야가 다양해지고 있다. 여러 전문 이커머스 플랫폼 종류중 하나인 공예품 온라인 이커머스 플랫폼을 살펴본 결과 세 가지 문제를 확인할 수 있었다. 첫 번째로, 플랫폼 내에서 공예품의 품목이 다양해지고 분류가 복잡해지고 있으나 기존 공예품 이커머스의 분류체계는 다양하고 복잡해진 공예품을 분류하기에는 구조가 단편적이어 서로 다른 사용자가 고려하는 다양한 기준을 충족하는 검색결과를 정확히 제시하기 어렵다. 두 번째로, 공예품의 경우 외형이 구매동기의 주요인임에도 불구하고 외형을 기준으로 분류하는 경우가 드물어 사용자가 작품 하나하나를 직접 눈으로 판단하며 필터링 해야 한다. 마지막으로, 공예분야의 전문가가 아닌 사용자가 공예품을 검색할 때 입력하는 언어가 분류체계에서 공예품을 분류하는 언어에 반영되지 않아 검색시 사용되어야하는 언어의 정밀도가 높다. 이에 본 연구에서는 다양한 사용자들의 검색 기준에 맞출 수 있도록 공예 분야의 복잡한 속성을 추가하여 고려하고자 한다. 추가하는 속성에는 공예품 검색에 있어서 주요인인 외형을 반드시 포함한다. 또한 인공지능의 자연어처리 기술로 비전문가의 검색 언어를 작품 검색에 반영할 수 있는 분류체계를 개발하고자 한다.

Structural SVM 기반의 한국어 의미역 결정 (Korean Semantic Role Labeling Using Structured SVM)

  • 이창기;임수종;김현기
    • 정보과학회 논문지
    • /
    • 제42권2호
    • /
    • pp.220-226
    • /
    • 2015
  • 의미역 결정은 자연어 문장의 서술어와 그 서술어에 속하는 논항들 사이의 의미관계를 결정하는 문제이다. 일반적으로 의미역 결정을 위해서는 서술어 인식(Predicate Identification, PI), 서술어 분류(Predicate Classification, PC), 논항 인식(Argument Identification, AI) 논항 분류(Argument Classification, AC) 단계가 수행된다. 본 논문에서는 한국어 의미역 결정 문제를 위해 Korean Propbank를 의미역 결정 학습 말뭉치로 사용하고, 의미역 결정 문제를 Sequence Labeling 문제로 바꾸어 이 문제에서 좋은 성능을 보이는 Structural SVM을 이용하였다. 실험결과 서술어 인식/분류(Predicate Identification and Classification, PIC)에서는 97.13%(F1)의 성능을 보였고, 논항 인식/분류(Argument Identification and Classification, AIC)에서는 76.96%(F1)의 성능을 보였다.