• 제목/요약/키워드: 오픈 도메인

검색결과 68건 처리시간 0.027초

한국어 오픈 도메인 대화 모델의 CTRL을 활용한 혐오 표현 생성 완화 (Mitigating Hate Speech in Korean Open-domain Chatbot using CTRL)

  • 좌승연;차영록;한문수;신동훈
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.365-370
    • /
    • 2021
  • 대형 코퍼스로 학습한 언어 모델은 코퍼스 안의 사회적 편견이나 혐오 표현까지 학습한다. 본 연구에서는 한국어 오픈 도메인 대화 모델에서 혐오 표현 생성을 완화하는 방법을 제시한다. Seq2seq 구조인 BART [1]를 기반으로 하여 컨트롤 코드을 추가해 혐오 표현 생성 조절을 수행하였다. 컨트롤 코드를 사용하지 않은 기준 모델(Baseline)과 비교한 결과, 컨트롤 코드를 추가해 학습한 모델에서 혐오 표현 생성이 완화되었고 대화 품질에도 변화가 없음을 확인하였다.

  • PDF

질문-단락 간 N-gram 주의 집중을 이용한 단락 재순위화 모델 (Passage Re-ranking Model using N-gram attention between Question and Passage)

  • 장영진;김학수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.554-558
    • /
    • 2020
  • 최근 사전학습 모델의 발달로 기계독해 시스템 성능이 크게 향상되었다. 하지만 기계독해 시스템은 주어진 단락에서 질문에 대한 정답을 찾기 때문에 단락을 직접 검색해야하는 실제 환경에서의 성능 하락은 불가피하다. 즉, 기계독해 시스템이 오픈 도메인 환경에서 높은 성능을 보이기 위해서는 높은 성능의 검색 모델이 필수적이다. 따라서 본 논문에서는 검색 모델의 성능을 보완해 줄 수 있는 오픈 도메인 기계독해를 위한 단락 재순위화 모델을 제안한다. 제안 모델은 합성곱 신경망을 이용하여 질문과 단락을 구절 단위로 표현했으며, N-gram 구절 사이의 상호 주의 집중을 통해 질문과 단락 사이의 관계를 효과적으로 표현했다. KorQuAD를 기반으로한 실험에서 제안모델은 MRR@10 기준 93.0%, Top@1 Precision 기준 89.4%의 높은 성능을 보였다.

  • PDF

InferSent를 활용한 오픈 도메인 기계독해 (Open Domain Machine Reading Comprehension using InferSent)

  • 김정훈;김준영;박준;박성욱;정세훈;심춘보
    • 스마트미디어저널
    • /
    • 제11권10호
    • /
    • pp.89-96
    • /
    • 2022
  • 오픈 도메인 기계독해는 질문과 연관된 단락이 존재하지 않아 단락을 검색하는 검색 기능을 추가한 모델이다. 문서 검색은 단어 빈도 기반인 TF-IDF로 많은 연구가 진행됐으나 문서의 양이 많아지면 낮은 성능을 보이는 문제가 있다. 아울러 단락 선별은 단어 기반 임베딩으로 많은 연구가 진행됐으나 문장의 특징을 가지는 단락의 문맥을 정확히 추출하지 못하는 문제가 있다. 그리고 문서 독해는 BERT로 많은 연구가 진행됐으나 방대한 파라미터로 느린 학습 문제를 보였다. 본 논문에서는 언급한 3가지 문제를 해결하기 위해 문서의 길이까지 고려한 BM25를 이용하며 문장 문맥을 얻기 위해 InferSent를 사용하고, 파라미터 수를 줄이기 위해 ALBERT를 이용한 오픈 도메인 기계독해를 제안한다. SQuAD1.1 데이터셋으로 실험을 진행했다. 문서 검색은 BM25의 성능이 TF-IDF보다 3.2% 높았다. 단락 선별은 InferSent가 Transformer보다 0.9% 높았다. 마지막으로 문서 독해에서 단락의 수가 증가하면 ALBERT가 EM에서 0.4%, F1에서 0.2% 더 높았다.

오픈 도메인 대화를 위한 노이징된 가이드 기반 생성 모델 (Noised Guide-based Generative Model for Open-domain Conversation)

  • 금빛나;김홍진;박상민;김재은;황금하;권오욱;김학수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.82-87
    • /
    • 2022
  • 대화 모델은 대표적으로 검색 모델 또는 생성 모델을 기반으로 구현된다. 최근에는 두 모델의 장점은 융합하고 단점은 보완하기 위해 검색 기법과 생성 기법을 결합하는 연구가 활발히 이루어지고 있다. 그러나 생성 모델이 검색된 응답을 전혀 반영하지 않고 응답을 생성하여 검색 모델을 간과하는 문제 또는 검색된 응답을 그대로 복사해 생성하여 검색 모델에 과의존하는 문제가 발생한다. 본 논문에서는 이러한 문제들을 완화하며 검색 모델과 생성 모델을 모두 조화롭게 활용할 수 있는 대화 모델을 제안한다. 생성 모델이 검색 모델을 간과하는 문제를 완화하기 위해 학습 시 골드 응답을 검색된 응답과 함께 사용한다. 또한, 검색 모델에 과의존하는 문제를 완화하기 위해 검색된 응답들의 내용어 일부를 마스킹하고 순서를 무작위로 섞어 노이징한다. 검색된 응답은 대화 컨텍스트와의 관련성이 높은 것만을 선별하여 생성에 활용한다. 정량 평가 및 정성 평가를 통해 제안한 방법의 성능 향상 효과를 확인하였다.

  • PDF

의도 정보를 활용한 다중 레이블 오픈 의도 분류 (Multi-label Open Intent Classification using Known Intent Information)

  • 박나현;조성민;송현제
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.479-484
    • /
    • 2023
  • 다중 레이블 오픈 의도 분류란 다중 의도 분류와 오픈 의도 분류가 합쳐져 오픈 도메인을 가정하고 진행하는 다중 의도 분류 문제이다. 발화 속에는 여러 의도들이 존재한다. 이때 사전에 정의된 의도 여부만을 판별하는 것이 아니라 사전에 정의되어 있는 의도에 대해서만이라도 어떤 의도인지 분류할 수 있어야 한다. 본 논문에서는 발화 속 의도 정보를 활용하여 다중 레이블 오픈 의도를 분류하는 모델을 제안한다. 먼저, 문장의 의도 개수를 예측한다. 그리고 다중 레이블 의도 분류기를 통해 다중 레이블 의도 분류를 진행하여 의도 정보를 획득한다. 획득한 의도 정보 속 다중 의도 개수와 전체 의도 개수를 비교하여 전체 의도 개수가 더 많다면 오픈 의도가 존재한다고 판단한다. 실험 결과 제안한 방법은 MixATIS의 75% 의도에서 정확도 94.49, F1 97.44, MixSNIPS에서는 정확도 86.92, F1 92.96의 성능을 보여준다.

  • PDF

버그리포트의 메타필드 초기 재할당의 실증적 분석 (An Empirical Study of Meta Field Reassignment on New Bug Report)

  • 민세원;김미수;이은석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.480-483
    • /
    • 2017
  • 소프트웨어 개발 및 유지보수 단계에서 발생한 문제들은 버그 추적 시스템을 통해 버그리포트로 등록되고 관리된다. 등록된 버그리포트를 기반으로 배정자는 해당 문제를 해결할 수 있는 개발자들을 배정하고, 배정된 개발자는 이를 해결한다. 그러나 버그리포트에서 제공되는 정보가 정확하지 않을 경우 문제 해결에 많은 시간이 소모된다. 본 논문에서는 Eclipse 오픈소스 프로젝트들에 대해 12가지의 도메인으로 분류하여 총 395,967개의 버그리포트에 대해 초기 정보의 불완전성을 분석한다. 이를 위해 초기 버그리포트에서 제공되는 정보 중 메타필드 내 정보에 초점을 맞춘다. 분석결과 필드들이 도메인 별로 최소 6%, 평균 20%, 최대 33%가 최소 한 번 이상 변경되는 것을 확인하였으며, 프로젝트 도메인 별로 상이하게 변경되는 것을 확인할 수 있었다.

모델, 데이터, 대화 관점에서의 BlendorBot 2.0 오류 분석 연구 (Empirical study on BlenderBot 2.0's errors analysis in terms of model, data and dialogue)

  • 이정섭;손수현;심미단;김유진;박찬준;소아람;박정배;임희석
    • 한국융합학회논문지
    • /
    • 제12권12호
    • /
    • pp.93-106
    • /
    • 2021
  • 블렌더봇 2.0 대화모델은 인터넷 검색 모듈과 멀티 세션의 도입을 통해 실시간 정보를 반영하고, 사용자에 대한 정보를 장기적으로 기억할 수 있도록 함으로써 오픈 도메인 챗봇을 대표하는 대화모델로 평가받고 있다. 그럼에도 불구하고 해당 모델은 아직 개선점이 많이 존재한다. 이에 본 논문은 블렌더봇 2.0의 여러 가지 한계점 및 오류들을 모델, 데이터, 대화의 세 가지 관점으로 분석하였다. 모델 관점에서 검색엔진의 구조적 문제점, 서비스 시 모델 응답 지연시간에 대한 오류를 주로 분석하였다. 데이터 관점에서 크라우드 소싱 과정에서 워커에게 제공된 가이드라인이 명확하지 않았으며, 수집된 데이터의 증오 언설을 정제하고 인터넷 기반의 정보가 정확한지 검증하는 과정이 부족한 오류를 지적하였다. 마지막으로, 대화 관점에서 모델과 대화하는 과정에서 발견한 아홉 가지 유형의 문제점을 면밀히 분석하였고 이에 대한 원인을 분석하였다. 더 나아가 각 관점에 대하여 실질적인 개선방안을 제안하였으며 오픈 도메인 챗봇이 나아가야 할 방향성에 대한 분석을 진행하였다.

HTML 태그 순서를 이용한 불법 사이트 탐지 자동화 기술 (An Automated Technique for Illegal Site Detection using the Sequence of HTML Tags)

  • 이기룡;이희조
    • 정보과학회 논문지
    • /
    • 제43권10호
    • /
    • pp.1173-1178
    • /
    • 2016
  • 2001년 비트토렌트 프로토콜이 설계된 후로 음악, 영화, 소프트웨어 등 모든 것을 다운로드할 수 있게 되었다. 이를 통해 저작권이 있는 파일이 무분별하게 공유가 되었고 저작권자들은 많은 피해를 입었다. 이 문제를 해결하기 위해 국가에서는 관련법을 제정하였고 ISP는 불법 사이트를 차단하였다. 이러한 노력들에도 불구하고 pirate bay와 같은 불법 사이트들은 도메인을 바꾸는 등 쉽게 사이트를 재오픈하고 있다. 이에 우리는 재오픈된 불법 사이트를 쉽게 탐지하는 기술을 제안한다. 이 자동화 기술은 구글 검색엔진을 이용하여 도메인을 수집하고, 최장공통부분수열(LCS) 알고리즘을 이용하여 기존 웹페이지 태그와 검색된 웹페이지 태그를 비교, 유사도를 측정한다. 실험을 위해 총 2,383개의 검색 결과를 구글 검색으로 얻었다. LCS 유사도 알고리즘을 적용하여 검사한 결과 44개의 해적 사이트를 탐지하였다. 또한 해외 불법 사이트에 적용한 결과 805개 검색 도메인에서 23개의 불법 사이트를 탐지하였다. 이를 통해 제안된 탐지 자동화 기술을 사용한다면 불법 사이트가 재 오픈을 하더라도 쉽게 탐지할 것으로 보인다.

언어 모델 기반 페르소나 대화 모델 (Personalized Chit-chat Based on Language Models)

  • 장윤나;오동석;임정우;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.491-494
    • /
    • 2020
  • 최근 언어 모델(Language model)의 기술이 발전함에 따라, 자연어처리 분야의 많은 연구들이 좋은 성능을 내고 있다. 정해진 주제 없이 인간과 잡담을 나눌 수 있는 오픈 도메인 대화 시스템(Open-domain dialogue system) 분야에서 역시 이전보다 더 자연스러운 발화를 생성할 수 있게 되었다. 언어 모델의 발전은 응답 선택(Response selection) 분야에서도 모델이 맥락에 알맞은 답변을 선택하도록 하는 데 기여를 했다. 하지만, 대화 모델이 답변을 생성할 때 일관성 없는 답변을 만들거나, 구체적이지 않고 일반적인 답변만을 하는 문제가 대두되었다. 이를 해결하기 위하여 화자의 개인화된 정보에 기반한 대화인 페르소나(Persona) 대화 데이터 및 태스크가 연구되고 있다. 페르소나 대화 태스크에서는 화자마다 주어진 페르소나가 있고, 대화를 할 때 주어진 페르소나와 일관성이 있는 답변을 선택하거나 생성해야 한다. 이에 우리는 대용량의 코퍼스(Corpus)에 사전 학습(Pre-trained) 된 언어 모델을 활용하여 더 적절한 답변을 선택하는 페르소나 대화 시스템에 대하여 논의한다. 언어 모델 중 자기 회귀(Auto-regressive) 방식으로 모델링을 하는 GPT-2, DialoGPT와 오토인코더(Auto-encoder)를 이용한 BERT, 두 모델이 결합되어 있는 구조인 BART가 실험에 활용되었다. 이와 같이 본 논문에서는 여러 종류의 언어 모델을 페르소나 대화 태스크에 대해 비교 실험을 진행했고, 그 결과 Hits@1 점수에서 BERT가 가장 우수한 성능을 보이는 것을 확인할 수 있었다.

  • PDF

A Self-Guided Approach을 활용한 한국어 텍스트 생성 쓰기 보조 기법의 향상 방법 (A Self-Guided Approach to Enhance Korean Text Generation in Writing Assistants)

  • 장동현;김진수;이민호
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.541-544
    • /
    • 2023
  • LLM(Largescale Language Model)의 성능 향상을 위한 비용 효율적인 방법으로 ChatGPT, GPT-4와 같은 초거대 모델의 output에 대해 SLM(Small Language Model)을 finetune하는 방법이 주목받고 있다. 그러나, 이러한 접근법은 주로 범용적인 지시사항 모델을 위한 학습 방법으로 사용되며, 제한된 특정 도메인에서는 추가적인 성능 개선의 여지가 있다. 본 연구는 특정 도메인(Writing Assistant)에서의 성능 향상을 위한 새로운 방법인 Self-Guided Approach를 제안한다. Self-Guided Approach는 (1) LLM을 활용해 시드 데이터에 대해 도메인 특화된 metric(유용성, 관련성, 정확성, 세부사항의 수준별) 점수를 매기고, (2) 점수가 매겨진 데이터와 점수가 매겨지지 않은 데이터를 모두 활용하여 supervised 방식으로 SLM을 미세 조정한다. Vicuna에서 제안된 평가 방법인, GPT-4를 활용한 자동평가 프레임워크를 사용하여 Self-Guided Approach로 학습된 SLM의 성능을 평가하였다. 평가 결과 Self-Guided Approach가 Self-instruct, alpaca와 같이, 생성된 instruction 데이터에 튜닝하는 기존의 훈련 방법에 비해 성능이 향상됨을 확인했다. 다양한 스케일의 한국어 오픈 소스 LLM(Polyglot1.3B, PolyGlot3.8B, PolyGlot5.8B)에 대해서 Self-Guided Approach를 활용한 성능 개선을 확인했다. 평가는 GPT-4를 활용한 자동 평가를 진행했으며, Korean Novel Generation 도메인의 경우, 테스트 셋에서 4.547점에서 6.286점의 성능 향상이 발생했으며, Korean scenario Genration 도메인의 경우, 테스트 셋에서 4.038점에서 5.795 점의 성능 향상이 발생했으며, 다른 유사 도메인들에서도 비슷한 점수 향상을 확인했다. Self-Guided Approach의 활용을 통해 특정 도메인(Writing Assistant)에서의 SLM의 성능 개선 가능성을 확인했으며 이는 LLM에 비용부담을 크게 줄이면서도 제한된 도메인에서 성능을 유지하며, LLM을 활용한 응용 서비스에 있어 실질적인 도움을 제공할 수 있을 것으로 기대된다.

  • PDF