• 제목/요약/키워드: 프롬프트

검색결과 84건 처리시간 0.03초

전문 지식 및 대화 정책 예측이 결합된 프롬프트를 활용한 지식 기반 대화 생성 (Knowledge-Grounded Dialogue Generation Using Prompts Combined with Expertise and Dialog Policy Prediction)

  • 주어진;임채균;이도경;윤준영;성주원;최호진
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.409-414
    • /
    • 2023
  • 최근 지식 기반 대화 생성에 많은 연구자가 초점을 맞추고 있다. 특히, 특정 도메인에서의 작업 지향형 대화 시스템을 구축하는 것은 다양한 도전 과제가 있으며, 이 중 하나는 거대 언어 모델이 입력과 관련된 지식을 활용하여 응답을 생성하는 데 있다. 하지만 현재 거대 언어 모델은 작업 지향형 대화에서 단순히 정보를 열거하는 방식으로 응답을 생성하는 경향이 있다. 이 논문에서는 전문 지식과 대화 정책 예측 모델을 결합한 프롬프트를 제시하고 작업 지향형 대화에서 사용자의 최근 입력에 대한 정보 제공 및 일상 대화를 지원하는 가능성을 탐구한다. 이러한 새로운 접근법은 모델 파인튜닝에 비해 비용 측면에서 효율적이며, 향후 대화 생성 분야에서 발전 가능성을 제시한다.

  • PDF

GPT-3.5를 활용한 정서적 공감 증진을 위한 프롬프트 엔지니어링 기법: 위로 응답의 효과 개선을 중심으로 (Prompt Engineering Techniques for Enhancing Emotional Empathy with GPT-3.5: Focusing on the Improvement of Consoling Responses)

  • 이경민;이진;나민혁;엄재웅;김대환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.873-874
    • /
    • 2024
  • 본 논문은 GPT-3.5 모델을 활용하여 우울증 환자의 일기에 대한 정서적 공감과 위로의 질을 향상 하는 프롬프트 엔지니어링 기법을 제안하고 실험적으로 검증한다. 제안 방법은 GPT-3.5모델에게 감정에 섬세하게 반응하고 적절한 위로의 답변을 생성하는 3가지 접근 방식을 사용한다. 위로 방법 구체적 제시, 페르소나 부여 및 감정 호소 명령서 제시를 통해 감정 일기 응답을 개선한다. 실험 결과, 조언 중심의 기존 답변 대신 감정을 중심으로 공감하는 응답이 생성됨을 확인할 수 있었다. 이는 우울증 환자에 대한 인문학적 접근과 제안 프롬프트 엔지니어링 기법을 통합하여, 인공지능 모델의 정서적 공감 능력을 향상할 수 있다는 것을 실험적으로 검증하였다.

코드 생성 언어 모델의 코드 보안성 향상을 위한 프롬프트 튜닝 (Prompt Tuning for Enhancing Security of Code in Code Generation Language Models)

  • 유미선;한우림;조윤기;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.623-626
    • /
    • 2024
  • 최근 거대 언어 모델의 발전으로 프로그램 합성 분야에서 활용되고 있는 코드 생성 언어 모델의 보안적 측면에 대한 중요성이 부각되고 있다. 그러나, 이를 위해 모델 전체를 재학습하기에는 많은 자원과 시간이 소모된다. 따라서, 본 연구에서는 효율적인 미세조정 방식 중 하나인 프롬프트 튜닝으로 코드 생성 언어 모델이 안전한 코드를 생성할 확률을 높이는 방법을 탐구한다. 또한 이에 따른 기능적 정확성 간의 상충 관계를 분석한다. 실험 결과를 통해 프롬프트 튜닝이 기존 방법에 비해 추가 파라미터를 크게 줄이면서도 보안률을 향상시킬 수 있음을 알 수 있었다. 미래 연구 방향으로는 새로운 조정 손실함수와 하이퍼파라미터 값을 조정하여 성능을 더욱 향상시킬 수 있는지 조사할 것이다. 이러한 연구는 보다 안전하고 신뢰할 수 있는 코드 생성을 위한 중요한 발전을 이끌 수 있을 것으로 기대된다.

A Study on Generative AI-Based Feedback Techniques for Tutoring Beginners' Error Codes on Online Judge Platforms

  • Juyeon Lee;Seung-Hyun Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권8호
    • /
    • pp.191-200
    • /
    • 2024
  • 컴퓨터 기술과 인공지능의 비약적인 발전이 국내 소프트웨어 교육에서도 많은 영향을 끼치고 있다. 이에 따라 2022 개정 교육과정에서도 맞춤형 교육을 요구하게 되었지만, 학교에서 맞춤형 교육을 실현하기에는 어려움이 있다. 이에 본 연구에서는 맞춤형 교육 실현을 위해 초보 학습자가 제출한 오답 코드와 오답 정보들을 활용하여 적절한 피드백 생성을 위한 프롬프트를 구성하였다. 그리고 생성형 인공지능 모델과 프롬프트 조합에 따른 정상 피드백 생성 빈도의 차이를 실제 데이터를 활용하여 분석하였다. 그 결과, 생성형 인공지능 모델 자체의 우수성보다 오답 정보를 포함한 프롬프트가 더 우수한 피드백 생성 성능을 나타내는 것을 확인하였다. 본 연구를 통해 국내 프로그래밍 교육에서 맞춤형 교육의 실현을 위한 토대가 되기를 기대한다.

프롬프트 기법의 실시간 행위인지 보정을 통한 개인화된 서비스 추천 (Personalized Service Recommendation by Real-time Activity Recognition Revision with Prompt Method)

  • 허태호;이호성;이승룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.591-592
    • /
    • 2013
  • 현재 사회는 건강에 대한 관심이 크게 증가하고 있으며, 전문적인 건강관리 서비스를 받기 위해서 사용자의 상태 및 상황을 정확히 알 수 있도록 사용자 행위인지 관련 연구가 활발히 진행되고 있다. 기존의 행위인지 연구에서 사용하는 각종 웨어러블 센서는 일상생활의 불편 및 비용 문제를 야기하여, 본 연구에서는 센서 디바이스로 스마트폰을 사용한다. 기존의 행위인지 연구는 특정 실험군 이외의 제3자에 의한 실험에서는 정확도에 큰 차이를 보이며, 인지 오류에 대한 실시간 수정이 불가능하였다. 본 논문에서는 프롬프트 방식을 통해 실시간으로 사용자의 인지 오류를 피드백하고, 클라우드 시스템에서 실시간으로 재트레이닝을 통한 수정된 행위 모델을 생성하여 지속적으로 행위의 오류를 줄이며, 각각의 사용자에 맞는 건강관련 서비스를 추천하는 방안을 제안하고자 한다.

프롬프트 기반 퓨샷 러닝을 통한 한국어 대화형 텍스트 기반 이미지 생성 (Image Generation from Korean Dialogue Text via Prompt-based Few-shot Learning)

  • 이은찬;안상태
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.447-451
    • /
    • 2022
  • 본 논문에서는 사용자가 대화 텍스트 방식의 입력을 주었을 때 이를 키워드 중심으로 변환하여 이미지를 생성해내는 방식을 제안한다. 대화 텍스트란 채팅 등에서 주로 사용하는 형식의 구어체를 말하며 이러한 텍스트 형식은 텍스트 기반 이미지 생성 모델이 적절한 아웃풋 이미지를 생성하기 어렵게 만든다. 이를 해결하기 위해 대화 텍스트를 키워드 중심 텍스트로 바꾸어 텍스트 기반 이미지 생성 모델의 입력으로 변환하는 과정이 이미지 생성의 질을 높이는 좋은 방안이 될 수 있는데 이러한 태스크에 적합한 학습 데이터는 충분하지 않다. 본 논문에서는 이러한 문제를 다루기 위한 하나의 방안으로 사전학습된 초대형 언어모델인 KoGPT 모델을 활용하며, 퓨샷 러닝을 통해 적은 양의 직접 제작한 데이터만을 학습시켜 대화 텍스트 기반의 이미지 생성을 구현하는 방법을 제안한다.

  • PDF

다중 목표 대화형 추천 시스템에서 입력 프롬프트가 정확도에 미치는 영향 분석 (Analyzing the Effect of Input-Prompt on Accuracy in Multi-Goal Conversational Recommender Systems)

  • 장형준 ;김태호 ;이현영 ;임지희 ;김상욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.466-467
    • /
    • 2023
  • 다중 목표 대화형 추천 시스템에서 대화의 흐름을 관리하기 위해 사용되는 목표설정을 한다. 본 논문에서는 목표 예측을 위해 기존에 사용되던 입력 프롬프트를 더욱 정교한 형태로 만들어보는 것이 목표 예측 정확도 향상과 더 나아가 응답 생성에도 도움이 되는지 사전 실험을 통해 당위성을 보여준다

대규모 언어 모델(LLM) 기반의 파이썬 입문자를 위한 코딩 도우미 (Coding Helper for Python Beginners based on the Large Language Model(LLM))

  • 이세훈;최정빈;백영태;윤선호
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.389-390
    • /
    • 2023
  • 본 논문에서는 파이썬 코딩 플랫폼에서의 LLM(Large Language Models)을 로직 및 문법 에러 확인, 디버깅 도구로 활용할 수 있는 시스템을 제안한다. 이 시스템은 사용자가 코딩 플랫폼에서 작성한 파이썬 코드와 함께 발생한 에러 문구 및 프롬프트를 LLM 모델에 입력함으로써 로직(문법) 에러를 식별하고 디버깅에 활용할 수 있다. 특히, 입문자를 고려해 프롬프트를 제한하여 사용의 편의성을 높인다. 이를 통해 파이썬 코딩 교육에서 입문자들의 학습 과정을 원활하게 진행할 수 있으며, 파이썬 코딩에 대한 진입 장벽을 낮출 수 있다.

  • PDF

대형 언어 모델의 한국어 Text-to-SQL 변환 능력 평가 (Evaluation of Large Language Models' Korean-Text to SQL Capability)

  • 최주영;민경구;심묘섭;정해민;박민준;최정규
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.171-176
    • /
    • 2023
  • 최근 등장한 대규모 데이터로 사전학습된 자연어 생성 모델들은 대화 능력 및 코드 생성 태스크등에서 인상적인 성능을 보여주고 있어, 본 논문에서는 대형 언어 모델 (LLM)의 한국어 질문을 SQL 쿼리 (Text-to-SQL) 변환하는 성능을 평가하고자 한다. 먼저, 영어 Text-to-SQL 벤치마크 데이터셋을 활용하여 영어 질의문을 한국어 질의문으로 번역하여 한국어 Text-to-SQL 데이터셋으로 만들었다. 대형 생성형 모델 (GPT-3 davinci, GPT-3 turbo) 의 few-shot 세팅에서 성능 평가를 진행하며, fine-tuning 없이도 대형 언어 모델들의 경쟁력있는 한국어 Text-to-SQL 변환 성능을 확인한다. 또한, 에러 분석을 수행하여 한국어 문장을 데이터베이스 쿼리문으로 변환하는 과정에서 발생하는 다양한 문제와 프롬프트 기법을 활용한 가능한 해결책을 제시한다.

  • PDF

생성형 언어모델을 이용한 관계추출 (Relation Extraction using Generative Language Models)

  • 허정;신종훈;임수종;권오욱
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.707-710
    • /
    • 2023
  • 관계추출은 문장 내 두 개체 간의 의미적 관계를 추론하는 자연어분석 태스크이다. 딥러닝의 발전과 더불어 관계추출은 BERT 계열의 이해형 언어모델을 이용하였다. 그러나, ChatGPT의 혁신적인 등장과 함께, GPT계열의 생성형 언어모델에 대한 연구가 활발해졌다. 본 논문에서는 소규모의 생성형 언어모델(Kebyt5)을 이용하여 관계추출 성능개선을 위한 프롬프트 구성 및 생각의 사슬(CoT) 학습 방법을 제안한다. 실험결과 Kebyt5-large 모델에서 CoT 학습을 수행하였을 경우, Klue-RoBERTa-base 모델보다 3.05%의 성능개선이 있었다.

  • PDF