• Title/Summary/Keyword: 사전 기반 모델

Search Result 841, Processing Time 0.028 seconds

Study on the Process Management for Casting Defects Detection in High Pressure Die Casting based on Machine Learning Algorithm (고압 다이캐스팅 공정에서 제품 결함을 사전 예측하기 위한 기계 학습 기반의 공정관리 방안 연구)

  • Lee, Seungro;Lee, Seungcheol;Han, Dosuck;Kim, Naksoo
    • Journal of Korea Foundry Society
    • /
    • v.41 no.6
    • /
    • pp.521-527
    • /
    • 2021
  • This study presents a process management method for the detection of casting defects during in high-pressure die casting based on machine learning. The model predicts the defects of the next cycle by extracting the features appearing over the previous cycles. For design of the gearbox, the proposed model detects shrinkage defects with data from three cycles in advance with 98.9% accuracy and 96.8% recall rates.

Analysis of Emotions in Lyrics by Combining Deep Learning BERT and Emotional Lexicon (딥러닝 모델(BERT)과 감정 어휘 사전을 결합한 음원 가사 감정 분석)

  • Yoon, Kyung Seob;Oh, Jong Min
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.471-474
    • /
    • 2022
  • 음원 스트리밍 서비스 시장은 지속해서 성장해왔다. 그중 최근에 가장 성장세가 돋보이는 서비스는 Spotify와 Youtube music이다. 두 서비스의 추천시스템은 사용자가 좋아할 만한 음악을 계속해서 추천해 줌으로써 많은 사랑을 받고 있다. 추천시스템 성능은 추천에 활용할 수 있는 변수(Feature) 수에 비례한다고 볼 수 있다. 최대한 많은 정보를 알아야 사용자가 원하는 추천이 가능하기 때문이다. 본 논문에서는 기존에 존재하는 감정분류 방법론인 사전기반과 딥러닝 BERT를 사용한 머신기반 방법론을 적절하게 결합하여 장점을 유지하면서 단점을 보완한 하이브리드 감정 분석 모델을 제안함으로써 가사에서 느껴지는 감정 비율을 분석한다. 감정 비율을 음원 가중치 변수로 사용하면 감정 정보를 포함한 고도화된 추천을 기대할 수 있다.

  • PDF

Korean Syntactic Parsing with XLNet (XLNet을 이용한 한국어 구문분석)

  • Kim, Min-Seok;Shin, Chang-Uk;Oh, Jinyoung;Cha, Jeong-Won
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.540-542
    • /
    • 2019
  • 문맥기반 사전학습 단어 임베딩이 다양한 분야 적용되어 훌륭한 성능을 보여주고 있다. 본 논문에서는 사전학습한 XLNet 모델을 구문분석에 적용하였다. XLNet은 문장에서 생성 가능한 모든 후보에 대해 트랜스 포머를 기반으로 하는 사전학습을 진행한다. 따라서 문장 전체 정보를 필요로 하는 구문분석에 특히 유용하다. 본 논문에서는 한국어 특성을 반영하기 위하여 형태소 분석을 시행한 107.2GB 크기의 대용량 데이터를 사용해 학습을 진행하였다. 본 논문에서 제안한 모델을 세종 구문 코퍼스에 적용한 결과, UAS 91.93% LAS 89.30%의 성능을 보였다.

  • PDF

Development of Drug Input Analysis and Prediction Model Using AI-based Composite Sensors Pre-Verification System (AI 기반 복합센서 사전검증시스템을 활용한 약품투입량 분석 및 예측모델 개발)

  • Seong, Min-Seok;Kim, Kuk-Il;An, Sang-Byung;Hong, Sung-Taek
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.10a
    • /
    • pp.559-561
    • /
    • 2022
  • In order to secure the stability of tap water production and supply, we have built a system that can be pre-verified before applying AI-based composite sensors to the water purification plant, which is a demonstration site. We have collected and analyzed data related to the drug input of the GO-RYEONG water purification plant for about two years from December 2019 to December 2021. The outliers of each tag were removed through data preprocessing such as outliers and derived variable, and the cycle was set as average data for 60 minutes of each one-minute period, and the model was learned using the PLS model.

  • PDF

ICLAL: In-Context Learning-Based Audio-Language Multi-Modal Deep Learning Models (ICLAL: 인 컨텍스트 러닝 기반 오디오-언어 멀티 모달 딥러닝 모델)

  • Jun Yeong Park;Jinyoung Yeo;Go-Eun Lee;Chang Hwan Choi;Sang-Il Choi
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.514-517
    • /
    • 2023
  • 본 연구는 인 컨택스트 러닝 (In-Context Learning)을 오디오-언어 작업에 적용하기 위한 멀티모달 (Multi-Modal) 딥러닝 모델을 다룬다. 해당 모델을 통해 학습 단계에서 오디오와 텍스트의 소통 가능한 형태의 표현 (Representation)을 학습하고 여러가지 오디오-텍스트 작업을 수행할 수 있는 멀티모달 딥러닝 모델을 개발하는 것이 본 연구의 목적이다. 모델은 오디오 인코더와 언어 인코더가 연결된 구조를 가지고 있으며, 언어 모델은 6.7B, 30B 의 파라미터 수를 가진 자동회귀 (Autoregressive) 대형 언어 모델 (Large Language Model)을 사용한다 오디오 인코더는 자기지도학습 (Self-Supervised Learning)을 기반으로 사전학습 된 오디오 특징 추출 모델이다. 언어모델이 상대적으로 대용량이기 언어모델의 파라미터를 고정하고 오디오 인코더의 파라미터만 업데이트하는 프로즌 (Frozen) 방법으로 학습한다. 학습을 위한 과제는 음성인식 (Automatic Speech Recognition)과 요약 (Abstractive Summarization) 이다. 학습을 마친 후 질의응답 (Question Answering) 작업으로 테스트를 진행했다. 그 결과, 정답 문장을 생성하기 위해서는 추가적인 학습이 필요한 것으로 보였으나, 음성인식으로 사전학습 한 모델의 경우 정답과 유사한 키워드를 사용하는 문법적으로 올바른 문장을 생성함을 확인했다.

A research on Bayesian inference model of human emotion (베이지안 이론을 이용한 감성 추론 모델에 관한 연구)

  • Kim, Ji-Hye;Hwang, Min-Cheol;Kim, Jong-Hwa;U, Jin-Cheol;Kim, Chi-Jung;Kim, Yong-U
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2009.11a
    • /
    • pp.95-98
    • /
    • 2009
  • 본 연구는 주관 감성에 따른 생리 데이터의 패턴을 분류하고, 임의의 생리 데이터의 패턴을 확인하여 각성-이완, 쾌-불쾌의 감성을 추론하기 위해 베이지안 이론(Bayesian learning)을 기반으로 한 추론 모델을 제안하는 것이 목적이다. 본 연구에서 제안하는 모델은 학습데이터를 분류하여 사전확률을 도출하는 학습 단계와 사후확률로 임의의 생리 데이터의 패턴을 분류하여 감성을 추론하는 추론 단계로 이루어진다. 자율 신경계 생리변수(PPG, GSR, SKT) 각각의 패턴 분류를 위해 1~7로 정규화를 시킨 후 선형 관계를 구하여 분류된 패턴의 사전확률을 구하였다. 다음으로 임의의 사전 확률 분포에 대한 사후 확률 분포의 계산을 위해 베이지안 이론을 적용하였다. 본 연구를 통해 주관적 평가를 실시하지 않고 다중 생리변수 인식을 통해 감성을 추론 할 수 있는 모델을 제안하였다.

  • PDF

Restoring an Elided title for Encyclopedia QA System (백과사전 질의응답을 위한 생략된 표제어 복원에 관한 연구)

  • Lim Soojong;Lee Changi;Jang Myoung-Gil
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.541-543
    • /
    • 2005
  • 백과사전에서 정답을 찾기 위해 문장의 구조를 분석하는데 한국어 백과사전은 표제어에 대한 정보를 문장에서 생략한다. 그러나 표제어는 문장에서 주어나 목적어 역할을 하기 때문에 생략된 정보를 복원하지 못 하면 질의에 대한 정답을 제시할 수 없다. 생략된 표제어에 대한 정보를 복원하기 위해서 본 연구에서는 표제어의 의미범주 정보, 격틀, Maximum Entropy 모델을 이용하여 표제어 주어, 표제어 목적어 복원, 미복원 3가지로 인식한다. 표제어 의미범주는 의미 범주에 대해 일정 수준의 복원 성향을 보일 경우 Maximum Entropy 정보를 창조하였고 격틀을 이용하여 복원 여부를 결정한다. 만약 표제어의 의미범주 정보, 격틀을 이용하여도 복원 여부를 결정하지 못할 경우에는 Maximum Entropy 모델에 기반한 통계 기법을 적용하여 복원 여부를 결정한다. 그리고 각각 방법의 단점을 보완하기 위해서 규칙에 해당하는 표제어 의미범주 정보와 격틀 정보에는 통계 모델인 ME 모델을 보완하여 사용한다.

  • PDF

Self-Supervised Document Representation Method

  • Yun, Yeoil;Kim, Namgyu
    • Journal of the Korea Society of Computer and Information
    • /
    • v.25 no.5
    • /
    • pp.187-197
    • /
    • 2020
  • Recently, various methods of text embedding using deep learning algorithms have been proposed. Especially, the way of using pre-trained language model which uses tremendous amount of text data in training is mainly applied for embedding new text data. However, traditional pre-trained language model has some limitations that it is hard to understand unique context of new text data when the text has too many tokens. In this paper, we propose self-supervised learning-based fine tuning method for pre-trained language model to infer vectors of long-text. Also, we applied our method to news articles and classified them into categories and compared classification accuracy with traditional models. As a result, it was confirmed that the vector generated by the proposed model more accurately expresses the inherent characteristics of the document than the vectors generated by the traditional models.

Template-based Knowledgebase Design and Construction using Conditional Random Fields in Encyclopedia Domain (CRF를 이용한 백과사전 도메인의 템플릿 기반 지식베이스 설계 및 구축)

  • Wang Ji-Hyun;Lee Chang-ki;Kim Hyeon-Jin;Jang Myung-Gil
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.484-486
    • /
    • 2005
  • 본 논문은 백과사전 도메인의 지식베이스 설계 및 통계기반 정보추출 방법을 이용한 속성정보 인식에 대하여 기술한다. 층 13개 카테고리로 구성된 백과사전에 대해 99개의 템플릿과 285개의 속성을 정의하였으며, 각 표제어의 추출 대상인 속성정보는 표제어를 설명하는 본문에서 통계기반 기계학습모델인 CRF(Conditional Random Fields)를 적용하여 추출하였다. 백과사전 카테고리 별로 균일하게 선정된 4천 5백 문서를 학습에 사용하였고 테스트 문서셋 500문서에 대해 속성인식률을 측정하였다. 성능 평가한 결과, $F1\;55.76\%\;(P\;74.89\%,\;R\;44.42\%)$의 성능을 나타내었다.

  • PDF

A Data Dictionary for Procurement of Die and Mold Parts Based on PLIB Standard (PLIB에 기반한 전자상거래용 금형부품 데이터 사전의 구축)

  • 조준면;문두환;김흥기;한순흥;류병우
    • The Journal of Society for e-Business Studies
    • /
    • v.8 no.3
    • /
    • pp.37-52
    • /
    • 2003
  • ISO 13584 Parts Library (PLIB) standard is making its way into e-business as a norm for classifying products and their characteristics. PLIB is a multi-parts standard, and the Part 42: Methodology for structuring Parts families Provides the information model and design Principles for the data dictionary of parts library or e-catalog. If e-catalog systems are built using a data dictionary that is constructed based on PLIB dictionary data model, many different e-catalog systems can be easily integrated and interoperated. This paper studies the roles and requirements of the data dictionary in e-catalog, and applies the data model and design principles of PLIB Part 42 to construct a data dictionary from the viewpoint of ontology Based on the analysis results, we propose a data dictionary of die and mold parts, and implementat the B2B e-catalog system.

  • PDF