• Title/Summary/Keyword: 답변 생성

Search Result 70, Processing Time 0.024 seconds

Personalized Chit-chat Based on Language Models (언어 모델 기반 페르소나 대화 모델)

  • Jang, Yoonna;Oh, Dongsuk;Lim, Jungwoo;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.491-494
    • /
    • 2020
  • 최근 언어 모델(Language model)의 기술이 발전함에 따라, 자연어처리 분야의 많은 연구들이 좋은 성능을 내고 있다. 정해진 주제 없이 인간과 잡담을 나눌 수 있는 오픈 도메인 대화 시스템(Open-domain dialogue system) 분야에서 역시 이전보다 더 자연스러운 발화를 생성할 수 있게 되었다. 언어 모델의 발전은 응답 선택(Response selection) 분야에서도 모델이 맥락에 알맞은 답변을 선택하도록 하는 데 기여를 했다. 하지만, 대화 모델이 답변을 생성할 때 일관성 없는 답변을 만들거나, 구체적이지 않고 일반적인 답변만을 하는 문제가 대두되었다. 이를 해결하기 위하여 화자의 개인화된 정보에 기반한 대화인 페르소나(Persona) 대화 데이터 및 태스크가 연구되고 있다. 페르소나 대화 태스크에서는 화자마다 주어진 페르소나가 있고, 대화를 할 때 주어진 페르소나와 일관성이 있는 답변을 선택하거나 생성해야 한다. 이에 우리는 대용량의 코퍼스(Corpus)에 사전 학습(Pre-trained) 된 언어 모델을 활용하여 더 적절한 답변을 선택하는 페르소나 대화 시스템에 대하여 논의한다. 언어 모델 중 자기 회귀(Auto-regressive) 방식으로 모델링을 하는 GPT-2, DialoGPT와 오토인코더(Auto-encoder)를 이용한 BERT, 두 모델이 결합되어 있는 구조인 BART가 실험에 활용되었다. 이와 같이 본 논문에서는 여러 종류의 언어 모델을 페르소나 대화 태스크에 대해 비교 실험을 진행했고, 그 결과 Hits@1 점수에서 BERT가 가장 우수한 성능을 보이는 것을 확인할 수 있었다.

  • PDF

Hallucination Detection for Generative Large Language Models Exploiting Consistency and Fact Checking Technique (생성형 거대 언어 모델에서 일관성 확인 및 사실 검증을 활 용한 Hallucination 검출 기법)

  • Myeong Jin;Gun-Woo Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.461-464
    • /
    • 2023
  • 최근 GPT-3 와 LLaMa 같은 생성형 거대 언어모델을 활용한 서비스가 공개되었고, 실제로 많은 사람들이 사용하고 있다. 해당 모델들은 사용자들의 다양한 질문에 대해 유창한 답변을 한다는 이유로 주목받고 있다. 하지만 LLMs 의 답변에는 종종 Inconsistent content 와 non-factual statement 가 존재하며, 이는 사용자들로 하여금 잘못된 정보의 전파 등의 문제를 야기할 수 있다. 이에 논문에서는 동일한 질문에 대한 LLM 의 답변 샘플과 외부 지식을 활용한 Hallucination Detection 방법을 제안한다. 제안한 방법은 동일한 질문에 대한 LLM 의 답변들을 이용해 일관성 점수(Consistency score)를 계산한다. 거기에 외부 지식을 이용한 사실검증을 통해 사실성 점수(Factuality score)를 계산한다. 계산된 일관성 점수와 사실성 점수를 활용하여 문장 수준의 Hallucination Detection 을 가능하게 했다. 실험에는 GPT-3 를 이용하여 WikiBio dataset 에 있는 인물에 대한 passage 를 생성한 데이터셋을 사용하였으며, 우리는 해당 방법을 통해 문장 수준에서의 Hallucination Detection 성능이 baseline 보다 AUC-PR scores 에서 향상됨을 보였다.

End-to-End Generative Question-Answering Chat System Using Copying and Retrieving Mechanisms (복사 방법 및 검색 방법을 이용한 종단형 생성 기반 질의응답 채팅 시스템)

  • Kim, Sihyung;Kim, HarkSoo;Kwon, Oh-Woog;Kim, Young-Gil
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.25-28
    • /
    • 2017
  • 채팅 시스템은 기계와 사람이 서로 의사소통 하는 시스템이다. 의사소통 과정에서 질문을 하고 질문에 대한 답변을 하는 질의응답 형태의 의사소통이 상당히 많다. 그러나 기존 생성 기반 채팅 시스템에서 자주 사용되는 Sequence-to-sequence모델은 질문에 대한 답변보다는 좀 더 일반적인 문장을 생성하는 경우가 대부분이다. 이러한 문제를 해결하기 위해 본 논문에서는 복사 방법과 검색 방법을 이용한 생성 기반 질의응답 채팅 시스템을 제안한다. 템플릿 기반으로 구축한 데이터를 통한 실험에서 제안 시스템은 복사 방법만 이용한 질의응답 시스템 보다 45.6% 높은 정확도를 보였다.

  • PDF

End-to-End Generative Question-Answering Chat System Using Copying and Retrieving Mechanisms (복사 방법 및 검색 방법을 이용한 종단형 생성 기반 질의응답 채팅 시스템)

  • Kim, Sihyung;Kim, HarkSoo;Kwon, Oh-Woog;Kim, Young-Gil
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.25-28
    • /
    • 2017
  • 채팅 시스템은 기계와 사람이 서로 의사소통 하는 시스템이다. 의사소통 과정에서 질문을 하고 질문에 대한 답변을 하는 질의응답 형태의 의사소통이 상당히 많다. 그러나 기존 생성 기반 채팅 시스템에서 자주 사용되는 Sequence-to-sequence모델은 질문에 대한 답변보다는 좀 더 일반적인 문장을 생성하는 경우가 대부분이다. 이러한 문제를 해결하기 위해 본 논문에서는 복사 방법과 검색 방법을 이용한 생성 기반 질의응답 채팅 시스템을 제안한다. 템플릿 기반으로 구축한 데이터를 통한 실험에서 제안 시스템은 복사 방법만 이용한 질의응답 시스템 보다 45.6% 높은 정확도를 보였다.

  • PDF

A Quality Value Algorithm based on Text/Non-text Features in Q&A Documents (텍스트/비텍스트 특성기반 질의답변문서의 품질지수 알고리즘)

  • Kim, Deok-Ju;Park, Keon-Woo;Lee, Sang-Hun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.105-108
    • /
    • 2010
  • 쌍방향으로 질문과 답변을 하는 커뮤니티 기반의 지식검색서비스에서는 질의를 통해 원하는 답변을 얻을 수 있지만, 수많은 사용자들이 참여함에 따라 방대한 문서 속에서 검증된 문서를 찾아내는 것은 점점 더 어려워지고 있다. 지식검색서비스에서 기존 연구는 사용자들이 생성한 데이터 즉 추천수, 조회수 등의 비텍스트 정보를 이용하거나 답변의 길이, 자료첨부, 연결어 등의 텍스트 정보 이용하여 전문가를 식별하거나 문서의 품질을 평가하고, 이를 검색에 반영하여 검색성능을 향상시키는 데 활용했다. 그러나 비텍스트 정보는 질의/응답의 초기에 사용자들에 의해 충분한 정보를 확보할 수 없는 단점이 제기 되며, 텍스트 정보는 전체의 문서를 답변의 길이, 자료 첨부등과 같은 일부요인으로 판단해야하기 때문에 품질평가의 한계가 있다고 볼 수 있겠다. 본 논문에서는 이러한 비텍스트 정보와 텍스트 정보의 문제점을 개선하기 위한 품질평가 알고리즘을 제안한다. 제안된 알고리즘을 통한 품질지수는 텍스트/비텍스트 정보와 소셜 네트워크 사용자 중앙성을 고려하여 질문에 적합하고 신뢰성 있는 답변을 랭킹화 함으로써 지식검색문서를 분별하는 지표가 되며, 이는 지식검색서비스의 성능향상에 기여를 할 수 있을 것으로 기대된다.

  • PDF

Reference-based Utterance Generation Model using Multi-turn Dialogue (멀티턴 대화를 활용한 레퍼런스 기반의 발화 생성 모델)

  • Sangmin Park;Yuri Son;Bitna Keum;Hongjin Kim;Harksoo Kim;Jaieun Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.88-91
    • /
    • 2022
  • 디지털 휴먼, 민원 상담, ARS 등 칫챗의 활용과 수요가 증가함에 따라 칫챗의 성능 향상을 위한 다양한 연구가 진행되고 있다. 특히, 오토 인코더(Auto-encoder) 기반의 생성 모델(Generative Model)은 높은 성능을 보이며 지속적인 연구가 이루어지고 있으나, 이전 대화들에 대한 충분한 문맥 정보의 반영이 어렵고 문법적으로 부적절한 답변을 생성하는 문제가 있다. 이를 개선하기 위해 검색 기반의 생성 모델과 관련된 연구가 진행되고 있으나, 현재 시점의 문장이 유사해도 이전 문장들에 따라 의도와 답변이 달라지는 멀티턴 대화 특징을 반영하여 대화를 검색하는 연구가 부족하다. 본 논문에서는 이와 같은 멀티턴 대화의 특징이 고려된 검색 방법을 제안하고 검색된 레퍼런스(준정답 문장)를 멀티턴 대화와 함께 생성 모델의 입력으로 활용하여 학습시키는 방안을 제안한다. 제안 방안으로 학습된 발화 생성 모델은 기존 모델과 비교 평가를 수행하며 Rouge-1 스코어에서 13.11점, Rouge-2 스코어에서 10.09점 Rouge-L 스코어에서 13.2점 향상된 성능을 보였고 이를 통해 제안 방안의 우수성을 입증하였다.

  • PDF

Enhancing Open-Ended Knowledge Tracing with Prefix-Tuning (Prefix-Tuning 기반 Open-Ended Knowledge Tracing 모델 연구)

  • Suhyune Son;Myunghoon Kang;Aram So;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.672-676
    • /
    • 2023
  • 지식 추적 (knowledge tacing)은 주어진 학습자의 과거 문제 해결 기록을 기반으로 학습자의 지식 습득 정도를 파악하여 목표 문제에 대한 정답 여부를 예측하는 것을 목표로 한다. 이전 연구에서는 이진 분류 기반의 모델을 사용하여 정답 유무만 예측하였기 때문에 학습자의 답변에 존재하는 정보를 활용하지 못한다. 최근 연구에서는 이를 생성 태스크로 변환하여 컴퓨터과학 분야에서 프로그래밍 질문에 대한 지식 추정을 수행하는 open-ended knowledge tracing (OKT)이 제안되었다. 하지만 최적의 OKT 모델에 대한 연구는 진행되지 않았으며 따라서 본 논문에서는 시간에 따라 변화하는 학습자의 지식 상태에 따라 답변 생성을 조정하는 새로운 OKT 방법론을 제안한다. 실험을 본 논문에서 제안하는 방법론의 우수성과 효율성을 증명한다.

  • PDF

A Conversational Agent based on Learning Classifier System for Generating Various Types of Sentences (다양한 문장 생성을 위한 Learning Classifier System기반 대화형에 에이전트)

  • 윤은경;조성배
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.163-165
    • /
    • 2002
  • 인터넷 이용자 수가 증가함에 따라 각 사이트에서는 수많은 정보들 중에서 사용자가 원하는 정보를 효과적으로 제공해야 할 필요성이 증가하고 있다. 이에 따라 사용자와 자연어로 정보를 주고받으며 사이트의 가상 대리자 역할을 수행할 수 있는 대화형 에이전트에 관한 연구가 활발히 진행되고 있다. 하지만 대부분의 에이전트들이 단순한 패턴 매칭 기법을 사용하기 때문에 만족스러운 답변을 제공해주지 못하고 있다. 본 논문에서는 사이트에 대한 사용자의 친밀도를 높일 수 있도록 하기 위해, 자연어로 제공되는 사용자 질의에 대해 그 의도를 파악한 후 이에 대한 다양한 답변을 수행하는 대화형 에이전트를 제안한다. 이 때 대화의 지능성과 다양성을 보장하기 위하여 GA를 이용한 learning classifier system을 도입하여 주어진 데이터베이스로부터 새로운 문장을 만들어 다양한 답변을 할 수 있도록 한다. 연구실을 소개하는 간단한 문제에 적용하여, 그 가능성 및 개선점을 파악한다.

  • PDF

DBERT: Embedding Model Based on Contrastive Learning Considering the Characteristics of Multi-turn Context (DBERT: 멀티턴 문맥의 특징을 고려한 대조 학습 기반의 임베딩 모델링)

  • Sangmin Park;Jaeyun Lee;Jaieun Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.272-274
    • /
    • 2022
  • 최근에는 사람과 기계가 자유롭게 대화를 주고받을 수 있는 자유 주제 대화 시스템(Open-domain Dialogue System)이 다양한 서비스에 활용되고 있다. 자유 주제 대화 시스템이 더욱 다양한 답변을 제공할 수 있도록 사전학습 기반의 생성 언어모델이 활용되고 있지만, 답변 제공의 안정성이 떨어져 검색을 활용한 방법 또한 함께 활용되고 있다. 검색 기반 방법은 사용자의 대화가 들어오면 사전에 구축된 데이터베이스에서 유사한 대화를 검색하고 준비되어있는 답변을 제공하는 기술이다. 하지만 멀티턴으로 이루어진 대화는 일반적인 문서의 문장과 다르게 각 문장에 대한 발화의 주체가 변경되기 때문에 연속된 발화 문장이 문맥적으로 밀접하게 연결되지 않는 경우가 있다. 본 논문에서는 이와 같은 대화의 특징을 고려하여 멀티턴 대화를 효율적으로 임베딩 할 수 있는 DBERT(DialogueBERT) 모델을 제안한다. 기존 공개된 사전학습 언어모델 기반의 문장 임베딩 모델과 비교 평가 실험을 통해 제안하는 방법의 우수성을 입증한다.

  • PDF

Question, Document, Response Validator for Question Answering System (질의 응답 시스템을 위한 질의, 문서, 답변 검증기)

  • Tae Hong Min;Jae Hong Lee;Soo Kyo In;Kiyoon Moon;Hwiyeol Jo;Kyungduk Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.604-607
    • /
    • 2022
  • 본 논문은 사용자의 질의에 대한 답변을 제공하는 질의 응답 시스템에서, 제공하는 답변이 사용자의 질의에 대하여 문서에 근거하여 올바르게 대답하였는지 검증하는 QDR validator에 대해 기술한 논문이다. 본 논문의 과제는 문서에 대한 주장을 판별하는 자연어 추론(Natural Language inference, NLI)와 유사한 과제이지만, 문서(D)와 주장(R)을 포함하여 질의(Q)까지 총 3가지 종류의 입력을 받아 NLI 과제보다 난도가 높다. QDR validation 과제를 수행하기 위하여, 약 16,000 건 데이터를 생성하였으며, 다양한 입력 형식 실험 및 NLI 과제 데이터 추가 학습, 임계 값 조절 실험을 통해 최종 83.05% 우수한 성능을 기록하였다

  • PDF