• Title/Summary/Keyword: 페르소나

Search Result 97, Processing Time 0.024 seconds

Iterative Feedback-based Personality Persona Generation for Diversifying Linguistic Patterns in Large Language Models (대규모 언어 모델의 언어 패턴 다양화를 위한 반복적 피드백 기반 성격 페르소나 생성법)

  • Taeho Hwang;Hoyun Song;Jisu Shin;Sukmin Cho;Jong C. Park
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.454-460
    • /
    • 2023
  • 대규모 언어 모델(Large Language Models, LLM)의 발전과 더불어 대량의 학습 데이터로부터 기인한 LLM의 편향성에 관심이 집중하고 있다. 최근 선행 연구들에서는 LLM이 이러한 경향성을 탈피하고 다양한 언어 패턴을 생성하게 하기 위하여 LLM에 여러가지 페르소나를 부여하는 방법을 제안하고 있다. 일부에서는 사람의 성격을 설명하는 성격 5 요인 이론(Big 5)을 이용하여 LLM에 다양한 성격 특성을 가진 페르소나를 부여하는 방법을 제안하였고, 페르소나 간의 성격의 차이가 다양한 양상의 언어 사용 패턴을 이끌어낼 수 있음을 보였다. 그러나 제한된 횟수의 입력만으로 목표하는 성격의 페르소나를 생성하려 한 기존 연구들은 세밀히 서로 다른 성격을 가진 페르소나를 생성하는 데에 한계가 있었다. 본 연구에서는 페르소나 부여 과정에서 피드백을 반복하여 제공함으로써 세세한 성격의 차이를 가진 페르소나를 생성하는 방법론을 제안한다. 본 연구의 실험과 분석을 통해, 제안하는 방법론으로 형성된 성격 페르소나가 다양한 언어 패턴을 효과적으로 만들어 낼 수 있음을 확인했다.

  • PDF

A Method for Extracting Persona Triples in Dialogue (발화 내 페르소나 트리플 추출 방법 연구)

  • Yoonna Jang;Kisu Yang;Yuna Hur;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.726-729
    • /
    • 2023
  • 본 논문에서는 대화 중 발화에서 페르소나 트리플을 추출하는 방법을 연구한다. 발화 문장과 그에 해당하는 트리플 쌍을 활용하여 발화 문장 혹은 페르소나 문장이 주어졌을 때 그로부터 페르소나 트리플을 추출하도록 모델을 멀티 태스크 러닝 방식으로 학습시킨다. 모델은 인코더-디코더 구조를 갖는 사전학습 언어모델 BART [1]와 T5 [2]를 활용하며 relation 추출과 tail 추출의 두 가지 태스크를 각각 인코더, 디코더 위에 head를 추가하여 학습한다. Relation 추출은 분류로, tail 추출은 생성 문제로 접근하도록 하여 최종적으로 head, relation, tail의 구조를 갖는 페르소나 트리플을 추출하도록 한다. 실험에서는 BART와 T5를 활용하여 각 태스크에 대해 다른 학습 가중치를 두어 훈련시켰고, 두 모델 모두 relation과 tail을 추출하는 태스크 정확도에 있어서 90% 이상의 높은 점수를 보임을 확인했다.

  • PDF

A Dataset for Persona-based Korean Dialogue Modeling (페르소나 기반 한국어 대화 모델링을 위한 데이터셋)

  • Yohan Lee;Hyun Kim;Jonghun Shin;Minsoo Cho;Ohwoog Kwon;Youngkil Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.512-516
    • /
    • 2022
  • 페르소나 기반의 대화 시스템은 일관적인 대화를 수행할 수 있어 많은 관심을 받고 있다. 영어권에서 구축된 페르소나 대화 데이터셋은 서로의 페르소나를 알아가기 보다는 자신의 페르소나에 대해서만 말하는 경향을 보이며 이는 상대방의 말을 이해하여 관련 대화를 진행하는 대화의 특성을 반영하지 못한다. 본 연구에서는 회사 방문객이 안내 시스템과 대화하는 상황을 가정하여 안내 시스템이 주도적으로 방문객의 페르소나를 묻고 관련 대화를 수행하는 데이터셋을 구축함과 동시에 목적지향 대화 시스템의 대화 관리 프레임워크를 기반으로 시스템 주도적인 대화를 모델링하는 페르소나 대화 관리 모델을 제안한다. 실험을 통해 제안한 대화 관리 모델의 대화 이해 및 정책 성능을 검증하고 방문객의 페르소나를 예측할 때 대화 정책의 성능이 향상됨을 보임으로써 구축한 데이터셋이 이해와 정책이 포함된 대화의 특성을 반영하는 것을 확인한다.

  • PDF

Generative Model Utilizing Multi-Level Attention for Persona-Grounded Long-Term Conversations (페르소나 기반의 장기 대화를 위한 다각적 어텐션을 활용한 생성 모델)

  • Bit-Na Keum;Hong-Jin Kim;Jin-Xia Huang;Oh-Woog Kwon;Hark-Soo Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.281-286
    • /
    • 2023
  • 더욱 사람같은 대화 모델을 실현하기 위해, 페르소나 메모리를 활용하여 응답을 생성하는 연구들이 활발히 진행되고 있다. 다수의 기존 연구들에서는 메모리로부터 관련된 페르소나를 찾기 위해 별도의 검색 모델을 이용한다. 그러나 이는 전체 시스템에 속도 저하를 일으키고 시스템을 무겁게 만드는 문제가 있다. 또한, 기존 연구들은 페르소나를 잘 반영해 응답하는 능력에만 초점을 두는데, 그 전에 페르소나 참조의 필요성 여부를 판별하는 능력이 선행되어야 한다. 따라서, 우리의 제안 모델은 검색 모델을 활용하지 않고 생성 모델의 내부적인 연산을 통해 페르소나 메모리의 참조가 필요한지를 판별한다. 참조가 필요하다고 판단한 경우에는 관련된 페르소나를 반영하여 응답하며, 그렇지 않은 경우에는 대화 컨텍스트에 집중하여 응답을 생성한다. 실험 결과를 통해 제안 모델이 장기적인 대화에서 효과적으로 동작함을 확인하였다.

  • PDF

Personalized Multi-Turn Chatbot Based on Dual WGAN (Dual WGAN 기반 페르소나 Multi-Turn 챗봇)

  • Oh, Shinhyeok;Kim, JinTae;Kim, Harksoo;Lee, Jeong-Eom;Kim, Seona;Park, Youngmin;Noh, Myungho
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.49-53
    • /
    • 2019
  • 챗봇은 사람과 컴퓨터가 자연어로 대화를 주고받는 시스템을 말한다. 최근 챗봇에 대한 연구가 활발해지면서 단순히 기계적인 응답보다 사용자가 원하는 개인 특성이 반영된 챗봇에 대한 연구도 많아지고 있다. 기존 연구는 하나의 벡터를 사용하여 한 가지 형태의 페르소나 정보를 모델에 반영했다. 하지만, 페르소나는 한 가지 형태로 정의할 수 없어서 챗봇 모델에 페르소나 정보를 다양한 형태로 반영시키는 연구가 필요하다. 따라서, 본 논문은 최신 생성 기반 Multi-Turn 챗봇 시스템을 기반으로 챗봇이 다양한 형태로 페르소나를 반영하게 하는 방법을 제안한다.

  • PDF

Persona-based Korean Conversational Model (페르소나 기반 한국어 대화 모델)

  • Jang, Yoonna;Lim, Jungwoo;Hur, Yuna;Yang, Kisu;Park, Chanjun;Seo, Jaehyung;Lee, Seungjun;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.453-456
    • /
    • 2021
  • 대화형 에이전트가 일관성 없는 답변, 재미 없는 답변을 하는 문제를 해결하기 위하여 최근 페르소나 기반의 대화 분야의 연구가 활발히 진행되고 있다. 그러나 한국어로 구축된 페르소나 대화 데이터는 아직 구축되지 않은 상황이다. 이에 본 연구에서는 영어 원본 데이터에서 한국어로 번역된 데이터를 활용하여 최초의 페르소나 기반 한국어 대화 모델을 제안한다. 전처리를 통하여 번역 품질을 향상시킨 데이터에 사전 학습 된 한국어 모델인 KoBERT와 KoELECTRA를 미세조정(fine-tuning) 시킴으로써 모델에게 주어진 페르소나와 대화 맥락을 고려하여 올바른 답변을 선택하는 모델을 학습한다. 실험 결과 KoELECTRA-base 모델이 가장 높은 성능을 보이는 것을 확인하였으며, 단순하게 사용자의 발화만을 주는 것 보다 이전 대화 이력이 추가적으로 주어졌을 때 더 좋은 성능을 보이는 것을 확인할 수 있었다.

  • PDF

Effect of Emotional Elements in Personal Relationships on Multiple Personas from the Perspective of Teenage SNS Users (SNS 상의 대인관계에서 나타나는 감정적 요소와 청소년의 온라인 다중정체성 간의 영향관계)

  • Choi, Bomi;Park, Minjung;Chai, Sangmi
    • Information Systems Review
    • /
    • v.18 no.2
    • /
    • pp.199-223
    • /
    • 2016
  • As social networking services (SNS) become widely used tools for maintaining social relationships, people use SNS to express themselves online. Users are free to form multiple characters in SNS because of online anonymity. This phenomenon causes SNS users to easily demonstrate multiple personas that are different from their identities in the real world. Therefore, this study focuses on online multi-personas that establish multiple fake identities in the SNS environment. The main objective of this study is to investigate factors that affect online multi-personas. Fake online identities can have various negative consequences such as cyber bullying, cyber vandalism, or antisocial behavior. Since the boundary between the online and offline worlds is fading fast, these negative aspects of online behavior may influence offline behaviors as well. This study focuses on teenagers who often create multi-personas online. According to previous studies, personal identities are usually established during a person's youth. Based on data on 664 teenage users, this study identifies four emotional factors, namely, closeness with others, relative deprivation, peer pressure and social norms. According to data analysis results, three factors (except closeness with others) have positive correlations with users' multi-personas. This study contributes to the literature by identifying the factors that cause young people to form online multi-personas, an issue that has not been fully discussed in previous studies. From a practical perspective, this study provides a basis for a safe online environment by explaining the reasons for creating fake SNS identities.

Personalized Chit-chat Based on Language Models (언어 모델 기반 페르소나 대화 모델)

  • Jang, Yoonna;Oh, Dongsuk;Lim, Jungwoo;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.491-494
    • /
    • 2020
  • 최근 언어 모델(Language model)의 기술이 발전함에 따라, 자연어처리 분야의 많은 연구들이 좋은 성능을 내고 있다. 정해진 주제 없이 인간과 잡담을 나눌 수 있는 오픈 도메인 대화 시스템(Open-domain dialogue system) 분야에서 역시 이전보다 더 자연스러운 발화를 생성할 수 있게 되었다. 언어 모델의 발전은 응답 선택(Response selection) 분야에서도 모델이 맥락에 알맞은 답변을 선택하도록 하는 데 기여를 했다. 하지만, 대화 모델이 답변을 생성할 때 일관성 없는 답변을 만들거나, 구체적이지 않고 일반적인 답변만을 하는 문제가 대두되었다. 이를 해결하기 위하여 화자의 개인화된 정보에 기반한 대화인 페르소나(Persona) 대화 데이터 및 태스크가 연구되고 있다. 페르소나 대화 태스크에서는 화자마다 주어진 페르소나가 있고, 대화를 할 때 주어진 페르소나와 일관성이 있는 답변을 선택하거나 생성해야 한다. 이에 우리는 대용량의 코퍼스(Corpus)에 사전 학습(Pre-trained) 된 언어 모델을 활용하여 더 적절한 답변을 선택하는 페르소나 대화 시스템에 대하여 논의한다. 언어 모델 중 자기 회귀(Auto-regressive) 방식으로 모델링을 하는 GPT-2, DialoGPT와 오토인코더(Auto-encoder)를 이용한 BERT, 두 모델이 결합되어 있는 구조인 BART가 실험에 활용되었다. 이와 같이 본 논문에서는 여러 종류의 언어 모델을 페르소나 대화 태스크에 대해 비교 실험을 진행했고, 그 결과 Hits@1 점수에서 BERT가 가장 우수한 성능을 보이는 것을 확인할 수 있었다.

  • PDF

Political Bias in Large Language Models and Implications on Downstream Tasks (거대 언어 모델의 정치적 편향과 하위 작업에서의 영향)

  • Jeong yeon Seo;Sukmin Cho;Jong C. Park
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.552-557
    • /
    • 2023
  • 거대 언어 모델의 성능이 비약적으로 높아지며 인간과의 직접적인 상호 작용 과정이 가능해지고, 이에 따라 윤리 검증의 필요성이 대두되고 있다. 본 연구에서는 인간이 지닌 여러 가치관 중에 정치에 초점을 둔다. 거대 언어 모델의 정치 성향이 사용자의 입력에 따라 변할 수 있는지와 하위 작업에 끼치는 영향에 대해 알아보고자 두 개의 실험을 설계하였고 이에 대한 결과를 분석하였다. 실험에는 거대 언어 모델의 정치 성향을 입력 대조군으로, 세가지 다른 입력 (탈옥 기법, 정치 페르소나, 탈옥 페르소나)을 입력 실험군으로 규정하였다. 실험 결과, 거대 언어 모델의 정치 성향은 탈옥 기법에서 가장 큰 폭으로 변화하였고, 정치 페르소나와 탈옥 페르소나에서는 변화가 크지 않아, 거대 언어 모델에 내재된 정치 성향의 영향에서 크게 벗어나지 못함을 확인하였다. 또한, 하위 작업에서의 실험을 통해 변화된 정치 성향은 하위 작업의 성능 개선을 가져올 수 있으며, 각 실험군에 따라 하위 작업에서 다른 방식의 양상을 보임을 확인하였다. 이는 실제 모델이 사용될 때 개인화된 응답보다는 모델이 선호하는 응답을 받게 되며, 거대 언어 모델의 정치 성향이 사용자에게 여과없이 노출될 수 있음을 시사한다.

  • PDF

A Study on the Educational Method Using ChatGPT in Design Thinking: Focusing on Persona Activities (디자인 씽킹에서 ChatGPT를 활용한 교육 방법 연구: 페르소나 활동 중심으로)

  • Suhun Lim;Seung-Ju Hong;Seong-Won Kim;Youngjun Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.221-223
    • /
    • 2024
  • 이 연구에서는 21세기 정보화 시대의 중요성을 감안하여 창의적 문제해결 프로세스인 디자인 씽킹과 그 첫 번째 단계인 '공감' 단계에 초점을 맞추어 ChatGPT를 페르소나 기법과 결합하여 사용자 이해와 공감을 강화하는 방법을 제안한다. 이를 통해 스탠퍼드 D.School의 디자인씽킹프로세스를 기반으로 한 창의적 문제 해결을 강조하고, ChatGPT를 활용하여 페르소나를 개발하고 심층 인터뷰를 통해 사용자를 더 잘 이해하고 공감하는 방법을 탐구한다. 프로그램을 통해 학생들이 실제로 창의인적 문제 해결 능력과 공감 능력을 향상시킬 수 있도록 하여, 미래를 대비하는 역량을 효과적으로 강화하는 교육 방법을 제시한다.

  • PDF