• Title/Summary/Keyword: 딥러닝 언어 모델

Search Result 248, Processing Time 0.029 seconds

An Android App Development - 'NoonchiCoaching_DeepLearning' has function of recommendation based on Deep Learning (딥러닝 예측 알고리즘 기반의 맞춤형 추천 모바일 앱 '눈치코칭_여행딥러닝' 개발)

  • Lee, Jong-Min;Kwon, Young-Jun;Kim, Yeoul;Kim, KyeongSeok;Jang, Jae Jun;Kang, Hyun-Kyu
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.498-503
    • /
    • 2018
  • 본 논문은 한국관광공사에서 제공하는 Tour API 3.0 Open API에서 제공하는 데이터를 바탕으로 한다. Google에서 제공해 주는 TensorFlow를 통해서 인공 신경망 딥러닝 알고리즘과 가중치 알고리즘을 통해서 사용자 기호에 맞춰 정보를 추천해 주는 어플리케이션 '눈치코칭_여행딥러닝'의 설계 및 구현에 대하여 서술한다. 현재 순위알고리즘은 평균적으로 40%, 딥러닝 모델은 60%정확도를 보여, 딥러닝이 보다 좋은 성능을 보였다.

  • PDF

Restaurant Name Classification from Local Search Log using Deep Learning Model (딥러닝 모델을 활용한 로컬 검색로그에서 음식점 상호 판별)

  • Kim, Seongsoon;Park, Jihye;Eun, Zongzin;Kang, Inho
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.199-203
    • /
    • 2018
  • 음식과 맛집에 대한 사용자의 정보검색 니즈가 나날이 증가하면서 서비스 제공자가 정보 제공의 대상이 되는 맛집 상호명을 파악하는 것은 중요한 이슈다. 그러나 업종의 특성상 점포가 새로 생겨나는 주기는 매우 짧은 반면, 신규 점포의 서비스 등록 시점에는 시간적 차이가 존재하는 문제가 있다. 본 논문에서는 신규 상호명을 능동적으로 파악하기 위해 위치기반 서비스 로그에서 맛집 상호명을 추출하는 문자 기반의 딥러닝 모델 및 방법론을 제시한다. 자체 구축한 학습 데이터셋으로 실험한 결과, 제안하는 모델이 기존 기계학습 모델보다 높은 정확도로 상호명을 분류할 수 있음을 확인하였다. 또한, 사전 학습된 모델을 검색로그에 적용하여 신규 상호명 후보를 추출함으로써 향후 상호명 DB를 능동적으로 업데이트 할 수 있는 가능성을 타진하였다.

  • PDF

Comparative Study of Sentiment Analysis Model based on Korean Linguistic Characteristics (한국어 언어학적 특성 기반 감성분석 모델 비교 분석)

  • Kim, Gyeong-Min;Park, Chanjun;Jo, Jaechoon;Lim, Heui-Seok
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.149-152
    • /
    • 2019
  • 감성분석이란 입력된 텍스트의 감성을 분류하는 자연어처리의 한 분야로, 최근 CNN, RNN, Transformer등의 딥러닝 기법을 적용한 다양한 연구가 있다. 한국어 감성분석을 진행하기 위해서는 형태소, 음절 등의 추가 자질을 활용하는 것이 효과적이며 성능 향상을 기대할 수 있는 방법이다. 모델 생성에 있어서 아키텍쳐 구성도 중요하지만 문맥에 따른 언어를 컴퓨터가 표현할 수 있는 지식 표현 체계 구성도 상당히 중요하다. 이러한 맥락에서 BERT모델은 문맥을 완전한 양방향으로 이해할 수있는 Language Representation 기반 모델이다. 본 논문에서는 최근 CNN, RNN이 융합된 모델과 Transformer 기반의 한국어 KoBERT 모델에 대해 감성분석 task에서 다양한 성능비교를 진행했다. 성능분석 결과 어절단위 한국어 KoBERT모델에서 90.50%의 성능을 보여주었다.

  • PDF

A Survey on Deep Learning-based Pre-Trained Language Models (딥러닝 기반 사전학습 언어모델에 대한 이해와 현황)

  • Sangun Park
    • The Journal of Bigdata
    • /
    • v.7 no.2
    • /
    • pp.11-29
    • /
    • 2022
  • Pre-trained language models are the most important and widely used tools in natural language processing tasks. Since those have been pre-trained for a large amount of corpus, high performance can be expected even with fine-tuning learning using a small number of data. Since the elements necessary for implementation, such as a pre-trained tokenizer and a deep learning model including pre-trained weights, are distributed together, the cost and period of natural language processing has been greatly reduced. Transformer variants are the most representative pre-trained language models that provide these advantages. Those are being actively used in other fields such as computer vision and audio applications. In order to make it easier for researchers to understand the pre-trained language model and apply it to natural language processing tasks, this paper describes the definition of the language model and the pre-learning language model, and discusses the development process of the pre-trained language model and especially representative Transformer variants.

Bayesian Model Uncertainty for Open-domain Question Answering (베이지안 모델 불확실성에 기반한 오픈도메인 질의응답)

  • Lee, Young-Hoon;Na, Seung-Hoon;Choi, Yun-Su;Chang, Du-Seong
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.93-96
    • /
    • 2019
  • 최근 딥러닝 모델을 다양한 도메인에 적용하여 뛰어난 성능을 보여주고 있다. 하지만 딥러닝 모델은 정답으로 제시된 결과가 정상적으로 예측된 결과인지, 단순히 오버피팅에 의해 예측된 결과인지를 구분하기 어렵다. 이러한 불확실성(Uncertainty)을 측정 할 수 없다는 문제점을 해결하기 위해서 본 논문에서는 베이지안 딥러닝 방법 중 하나인 변분추론(Variational Inference)과 몬테카를로 Dropout을 오픈도메인(Open-Domain) 태스크에 적용하고, 예측 결과에 대한 불확실성을 측정하여 예측결과에 영향을 주는 모델의 성능을 측정해 효과성을 보인다.

  • PDF

Phoneme-level Embedding based Korean Language Model (음소 단위 임베딩 기반 한국어 모델)

  • Choi, Woosung;Hyun, Kyungseok;Chung, Jaehwa;Jung, Soon Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.1026-1029
    • /
    • 2019
  • 최근 제안되고 있는 Bert 등의 딥러닝 언어 모델 기반 pre-training 기법은 다양한 NLP 분야에서 활용되고 있다. 텍스트로 작성된 데이터 셋을 딥러닝 언어 모델이 학습하기 위해서는 토크나이징(tokenizing) 기술이 필요하다. 그러나 기존 토크나이징 방식은 한국어 및 한글이 가지는 고유한 특성(교착어적 특성과 모아쓰기 반영)을 반영하기 어렵다는 한계를 가지고 있다. 본 논문에서는 한국어와 한글이 가지는 고유한 특성을 고려하기 위하여 음소 단위의 임베딩 기법을 제안하며, 이를 기반으로 언어 모델을 설계 및 구현한다. 또한 음소 단위 임베딩 기반 한국어 모델이 실제 데이터 집합(구약성서)에서 나타나는 언어적 패턴을 학습할 수 있다는 것을 실험을 통하여 밝힌다.

Hybrid Approach Combining Deep Learning and Rule-Based Model for Automatic IPC Classification of Patent Documents (딥러닝-규칙기반 병행 모델을 이용한 특허문서의 자동 IPC 분류 방법)

  • Kim, Yongil;Oh, Yuri;Sim, Woochul;Ko, Bongsoo;Lee, Bonggun
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.347-350
    • /
    • 2019
  • 인공지능 관련 기술의 발달로 다양한 분야에서 인공지능 활용에 대한 관심이 고조되고 있으며 전문영역에서도 기계학습 기법을 활용한 연구들이 활발하게 이루어지고 있다. 특허청에서는 분야별 전문지식을 가진 분류담당자가 출원되는 모든 특허에 국제특허분류코드(이하 IPC) 부여 작업을 수행하고 있다. IPC 분류와 같은 전문적인 업무영역에서 딥러닝을 활용한 자동 IPC 분류 서비스를 제공하기 위해서는 기계학습을 이용하는 분류 모델에 분야별 전문지식을 직관적으로 반영하는 것이 필요하다. 이를 위해 본 연구에서는 딥러닝 기반의 IPC 분류 모델과 전문지식이 반영된 분류별 어휘사전을 활용한 규칙기반 분류 모델을 병행하여 특허문서의 IPC분류를 자동으로 추천하는 방법을 제안한다.

  • PDF

Korean Semantic Role Labeling with Highway BiLSTM-CRFs (Highway BiLSTM-CRFs 모델을 이용한 한국어 의미역 결정)

  • Bae, Jangseong;Lee, Changki;Kim, Hyunki
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.159-162
    • /
    • 2017
  • Long Short-Term Memory Recurrent Neural Network(LSTM RNN)는 순차 데이터 모델링에 적합한 딥러닝 모델이다. Bidirectional LSTM RNN(BiLSTM RNN)은 RNN의 그래디언트 소멸 문제(vanishing gradient problem)를 해결한 LSTM RNN을 입력 데이터의 양 방향에 적용시킨 것으로 입력 열의 모든 정보를 볼 수 있는 장점이 있어 자연어처리를 비롯한 다양한 분야에서 많이 사용되고 있다. Highway Network는 비선형 변환을 거치지 않은 입력 정보를 히든레이어에서 직접 사용할 수 있게 LSTM 유닛에 게이트를 추가한 딥러닝 모델이다. 본 논문에서는 Highway Network를 한국어 의미역 결정에 적용하여 기존 연구 보다 더 높은 성능을 얻을 수 있음을 보인다.

  • PDF

Combining Deep Learning Models for Crisis-Related Tweet Classification (재난관련 트윗 분류를 위한 딥 러닝 결합 모델)

  • Choi, Won-Gyu;Lee, Kyung-Soon
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.649-651
    • /
    • 2018
  • 본 논문에서는 CNN에서 클래스 활성화 맵과 원샷 러닝을 결합하여 트위터 분류를 위한 딥 러닝 모델을 제안한다. 클래스 활성화 맵은 트윗 분류에 대한 분류 주제와 연관된 핵심 어휘를 추출하고 강조 표시하도록 사용되었다. 특히 작은 학습 데이터 셋을 사용하여 다중 클래스 분류의 성능을 향상시키기 위해 원샷 러닝 방법을 적용한다. 제안하는 방법을 검증하기위해 TREC 2018 태스크의 사건 스트림(TREC-IS) 학습데이터를 사용하여 비교실험을 했다. 실험 결과에서 CNN 기본 모델의 정확도는 58.1%이고 제안 방법의 정확도는 69.6%로 성능이 향상됨을 보였다.

  • PDF

Dependency parsing applying reinforced dominance-dependency constraint rule: Combination of deep learning and linguistic knowledge (강화된 지배소-의존소 제약규칙을 적용한 의존구문분석 모델 : 심층학습과 언어지식의 결합)

  • JoongMin Shin;Sanghyun Cho;Seunglyul Park;Seongki Choi;Minho Kim;Miyeon Kim;Hyuk-Chul Kwon
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.289-294
    • /
    • 2022
  • 의존구문분석은 문장을 의존관계(의존소-지배소)로 분석하는 구문분석 방법론이다. 현재 사전학습모델을 사용한 전이 학습의 딥러닝이 좋은 성능을 보이며 많이 연구되지만, 데이터셋에 의존적이며 그로 인한 자료부족 문제와 과적합의 문제가 발생한다는 단점이 있다. 본 논문에서는 언어학적 지식에 기반한 강화된 지배소-의존소 제약규칙 에지 알고리즘을 심층학습과 결합한 모델을 제안한다. TTAS 표준 가이드라인 기반 모두의 말뭉치로 평가한 결과, 최대 UAS 96.28, LAS 93.19의 성능을 보였으며, 선행연구 대비 UAS 2.21%, LAS 1.84%의 향상된 결과를 보였다. 또한 적은 데이터셋으로 학습했음에도 8배 많은 데이터셋 학습모델 대비 UAS 0.95%의 향상과 11배 빠른 학습 시간을 보였다. 이를 통해 심층학습과 언어지식의 결합이 딥러닝의 문제점을 해결할 수 있음을 확인하였다.

  • PDF