• Title/Summary/Keyword: 모델 발화

Search Result 205, Processing Time 0.032 seconds

Developing an Adaptive Dialogue System Using External Information (외부 상황 정보를 활용하는 적응적 대화 모델의 구현)

  • Jang, Jin Yea;Jung, Minyoung;Park, Hanmu;Shin, Saim
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.456-459
    • /
    • 2019
  • 대화 행위는 단순한 발화 문장들의 교환을 넘어 발화자들의 다양한 주변 정보를 고려한 종합적인 판단의 결과로 볼 수 있다. 본 논문은 여섯 가지 유형의 외부 상황 정보를 기반으로 적응적 발언을 생성하는 딥러닝 기반 대화 모델을 소개한다. 직접 구축한 상황 정보들이 태깅된 대화 데이터를 바탕으로, 외부 상황 정보를 사용자 발화와 더불어 활용하는 다양한 구조의 신경망 구조를 가지는 모델과 더불어 외부 상황 정보를 사용하지 않는 모델과의 성능에 대해 비교한다. 실험 결과들은 대화 모델의 발화 생성에 있어서 상황 정보 활용의 중요성을 보여준다.

  • PDF

Comparing the effects of letter-based and syllable-based speaking rates on the pronunciation assessment of Korean speakers of English (철자 기반과 음절 기반 속도가 한국인 영어 학습자의 발음 평가에 미치는 영향 비교)

  • Hyunsong Chung
    • Phonetics and Speech Sciences
    • /
    • v.15 no.4
    • /
    • pp.1-10
    • /
    • 2023
  • This study investigated the relative effectiveness of letter-based versus syllable-based measures of speech rate and articulation rate in predicting the articulation score, prosody fluency, and rating sum using "English speech data of Koreans for education" from AI Hub. We extracted and analyzed 900 utterances from the training data, including three balanced age groups (13, 19, and 26 years old). The study built three models that best predicted the pronunciation assessment scores using linear mixed-effects regression and compared the predicted scores with the actual scores from the validation data (n=180). The correlation coefficients between them were also calculated. The findings revealed that syllable-based measures of speech and articulation rates were more effective than letter-based measures in all three pronunciation assessment categories. The correlation coefficients between the predicted and actual scores ranged from .65 to .68, indicating the models' good predictive power. However, it remains inconclusive whether speech rate or articulation rate is more effective.

Novel Intent Discovery Utilizing Large Language Models and Active Learning Strategies (대규모 언어 모델을 활용한 새로운 의도 발견 방법과 액티브 러닝 전략)

  • Changwoo Chun;Daniel Rim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.425-431
    • /
    • 2023
  • 음성 어시스턴트 시스템에서 발화의 의도를 분류하고 새로운 의도를 탐지하는 것은 매우 중요한 작업이다. 끊임없이 인입되는 새로운 발화로 인해 기존에 학습된 모델의 의도 분류 성능은 시간이 지남에 따라 점차 낮아진다. 기존 연구들에서 새로운 의도 발견을 위해 제안되었던 클러스터링 방법은 최적의 클러스터 수 결정과 명명에 어려움이 있다. 이러한 제한 사항을 보완하기 위해, 본 연구에서는 대규모 언어 모델 기반의 효과적인 의도 발견 방법을 제안한다. 이 방법은 기존 의도 분류기로 판단하기 어려운 발화에 새로운 의도 레이블을 할당하는 방법이다. 새롭게 인입되는 OOD(Out-of-Domain) 발화 내에서 오분류를 찾아 기존에 정의된 의도를 탐지하고, 새로운 의도를 발견하는 효율적인 프롬프팅 방법도 분석한다. 이를 액티브 러닝 전략과 결합할 경우, 분류 가능한 의도의 개수를 지속 증가시면서도 모델의 성능 하락을 방지할 수 있고, 동시에 새로운 의도 발견을 자동화 할 수 있다.

  • PDF

A New Dataset for Ethical Dialogue Generation in Multi-Turn Conversations (멀티턴 대화에서 윤리적인 발화 생성을 위한 새로운 데이터 세트)

  • Jang, Bin;Kim, Seo Hyun;Park, Kyubyong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.446-448
    • /
    • 2022
  • 별개의 분류 모델을 이용하여 비윤리 발화를 억제하려 했던 과거의 시도들과는 달리, 본 연구에서는 데이터 추가를 통한 발화 생성 단계에서의 윤리성 체화에 대해 실험하였다. 본 연구에서는 분류 모델로는 감지하기 어려운 멀티턴 비윤리 공격으로 이루어진 새로운 대화 데이터 세트를 소개하고, 해당 데이터 세트를 통해 개선된 챗봇 대화 모델의 방어 성능을 공개한다.

A Method for Extracting Persona Triples in Dialogue (발화 내 페르소나 트리플 추출 방법 연구)

  • Yoonna Jang;Kisu Yang;Yuna Hur;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.726-729
    • /
    • 2023
  • 본 논문에서는 대화 중 발화에서 페르소나 트리플을 추출하는 방법을 연구한다. 발화 문장과 그에 해당하는 트리플 쌍을 활용하여 발화 문장 혹은 페르소나 문장이 주어졌을 때 그로부터 페르소나 트리플을 추출하도록 모델을 멀티 태스크 러닝 방식으로 학습시킨다. 모델은 인코더-디코더 구조를 갖는 사전학습 언어모델 BART [1]와 T5 [2]를 활용하며 relation 추출과 tail 추출의 두 가지 태스크를 각각 인코더, 디코더 위에 head를 추가하여 학습한다. Relation 추출은 분류로, tail 추출은 생성 문제로 접근하도록 하여 최종적으로 head, relation, tail의 구조를 갖는 페르소나 트리플을 추출하도록 한다. 실험에서는 BART와 T5를 활용하여 각 태스크에 대해 다른 학습 가중치를 두어 훈련시켰고, 두 모델 모두 relation과 tail을 추출하는 태스크 정확도에 있어서 90% 이상의 높은 점수를 보임을 확인했다.

  • PDF

GIS 공간분석기술을 이용한 산불취약지역 분석

  • 한종규;연영광;지광훈
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2002.03b
    • /
    • pp.49-59
    • /
    • 2002
  • 이 연구에서는 강원도 삼척시를 대상으로 산불취약지역 분석모델을 개발하고, 개발된 분석모델을 기반으로 산불취약지역을 표출하였으며, 이를 위한 전산프로그램을 개발하였다. 산불취약지역 공간분석자료로는 NGIS 사업을 통해 구축된 1/25천 축척의 수치지형도, 수치임상도 그리고 과거 산불발화위치자료를 사용하였다. 산불발화위치에 대한 공간적 분포특성(지형, 임상, 접근성)을 기반으로 모델을 설정하였으며, 공간분석은 간단하면서도 일반인들이 이해하기 쉬운 Conditional probability, Likelihood ratio 방법을 사용하였다. 그리고 각각의 모델에 대한 검증(cross validation)을 실시하였다. 모델 검증방법으로는 과거 산불발화위치자료를 발생시기에 따라 두 개의 그룹으로 나누어 하나는 예측을 위한 자료로 사용하고, 다른 하나는 검증을 위한 자료로 사용하였다. 모델별 예측성능은 prediction rate curve를 비교·분석하여 판단하였다. 삼척시를 대상으로 한 예측성능에서 Likelihood ratio 모델이 Conditional probability 모델보다 더 낳은 결과를 보였다. 산불취약지역 분석기술로 작성된 상세 산불취약지역지도와 현재 산림청에서 예보하고 있는 전국단위의 산불발생위험지수와 함께 상호보완적으로 사용한다면 산불취약지역에 대한 산불감시인력 및 감시시설의 효율적인 배치를 통하여 일선 시군 또는 읍면 산불예방업무의 효율성이 한층 더 증대될 것으로 기대된다.

  • PDF

Automated Scoring of Scientific Argumentation Using Expert Morpheme Classification Approaches (전문가의 형태소 분류를 활용한 과학 논증 자동 채점)

  • Lee, Manhyoung;Ryu, Suna
    • Journal of The Korean Association For Science Education
    • /
    • v.40 no.3
    • /
    • pp.321-336
    • /
    • 2020
  • We explore automated scoring models of scientific argumentation. We consider how a new analytical approach using a machine learning technique may enhance the understanding of spoken argumentation in the classroom. We sampled 2,605 utterances that occurred during a high school student's science class on molecular structure and classified the utterances into five argumentative elements. Next, we performed Text Preprocessing for the classified utterances. As machine learning techniques, we applied support vector machines, decision tree, random forest, and artificial neural network. For enhancing the identification of rebuttal elements, we used a heuristic feature-engineering method that applies experts' classification of morphemes of scientific argumentation.

KoDialoGPT2 : Modeling Chit-Chat Dialog in Korean (KoDialoGPT2 : 한국어 일상 대화 생성 모델)

  • Oh, Dongsuk;Park, Sungjin;Lee, Hanna;Jang, Yoonna;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.457-460
    • /
    • 2021
  • 대화 시스템은 인공지능과 사람이 자연어로 의사 소통을 하는 시스템으로 크게 목적 지향 대화와 일상대화 시스템으로 연구되고 있다. 목적 지향 대화 시스템의 경우 날씨 확인, 호텔 및 항공권 예약, 일정 관리 등의 사용자가 생활에 필요한 도메인들로 이루어져 있으며 각 도메인 별로 목적에 따른 시나리오들이 존재한다. 이러한 대화는 사용자에게 명확한 발화을 제공할 수 있으나 자연스러움은 떨어진다. 일상 대화의 경우 다양한 도메인이 존재하며, 시나리오가 존재하지 않기 때문에 사용자에게 자연스러운 발화를 제공할 수 있다. 또한 일상 대화의 경우 검색 기반이나 생성 기반으로 시스템이 개발되고 있다. 검색 기반의 경우 발화 쌍에 대한 데이터베이스가 필요하지만, 생성 기반의 경우 이러한 데이터베이스가 없이 모델의 Language Modeling (LM)으로 부터 생성된 발화에 의존한다. 따라서 모델의 성능에 따라 발화의 품질이 달라진다. 최근에는 사전학습 모델이 자연어처리 작업에서 높은 성능을 보이고 있으며, 일상 대화 도메인에서도 역시 높은 성능을 보이고 있다. 일상 대화에서 가장 높은 성능을 보이고 있는 사전학습 모델은 Auto Regressive 기반 생성모델이고, 한국어에서는 대표적으로 KoGPT2가 존재한다. 그러나, KoGPT2의 경우 문어체 데이터만 학습되어 있기 때문에 대화체에서는 낮은 성능을 보이고 있다. 본 논문에서는 대화체에서 높은 성능을 보이는 한국어 기반 KoDialoGPT2를 개발하였고, 기존의 KoGPT2보다 높은 성능을 보였다.

  • PDF

Attention-based Next Utterance Classification in Dialogue System (Attention 기반의 대화 발화 예측 모델)

  • Whang, Taesun;Lee, Dongyub;Lim, Hueiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.40-43
    • /
    • 2018
  • 대화 발화 예측(Next Utterance Classification)은 Multi-turn 대화에서 마지막에 올 발화를 정답 후보들 중에서 예측을 하는 연구이다. 기존에 제안된 LSTM 기반의 Dual Encoder를 이용한 모델에서는 대화와 정답 발화에 대한 관계를 고려하지 않는 문제와 대화의 길이가 너무 길어 중간 정보의 손실되는 문제가 존재한다. 본 연구에서는 이러한 두 문제를 해결하기 위하여 ESIM구조를 통한 단어 단위의 attention, 대화의 turn별 문장 단위의 attention을 제안한다. 실험 결과 총 5000개의 검증 대화 데이터에 대하여 1 in 100 Recall@1의 성능이 37.64%로 기존 모델 대비 약 2배 높은 성능 향상을 나타내었다.

  • PDF

A Dialogue System using CNN Sequence-to-Sequence (CNN Sequence-to-Sequence를 이용한 대화 시스템 생성)

  • Seong, Su-Jin;Sin, Chang-Uk;Park, Seong-Jae;Cha, Jeong-Won
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.151-154
    • /
    • 2018
  • 본 논문에서는 CNN Seq2Seq 구조를 이용해 한국어 대화 시스템을 개발하였다. 기존 Seq2Seq는 RNN 혹은 그 변형 네트워크에 데이터를 입력하고, 입력이 완료된 후의 은닉 층의 embedding에 기반해 출력열을 생성한다. 우리는 CNN Seq2Seq로 입력된 발화에 대해 출력 발화를 생성하는 대화 모델을 학습하였고, 그 성능을 측정하였다. CNN에 대해서는 약 12만 발화 쌍을 이용하여 학습하고 1만 발화 쌍으로 실험하였다. 평가 결과 제안 모델이 기존의 RNN 기반 모델에 비해 우수한 결과를 보였다.

  • PDF