• 제목/요약/키워드: 한국어 질의응답

검색결과 207건 처리시간 0.027초

사건 탐지 및 추적을 위해 신문기사에서 자동 추출된 시간정보의 유용성 판단 (Judgment about the Usefulness of Automatically Extracted Temporal Information from News Articles for Event Detection and Tracking)

  • 김평;맹성현
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권6호
    • /
    • pp.564-573
    • /
    • 2006
  • 시간정보는 정보 추출, 질의응답 시스템, 자동 요약과 같은 자연언어 처리 응용분야에서 중요한 역할을 한다. 사건 탐지 및 추적 분야에서는 기사의 발행일이 기사간 유사도 계산에 많이 사용되고 있지만 그 유용성에는 한계가 있다. 본 연구에서는 사건 탐지 및 추적 시스템의 성능을 향상시키기 위해서, 한국어 신문기사를 대상으로 비교적 간단한 자연언어 처리 기술을 사용해서 시간정보를 추출하는 방법을 개발하였다. 시간표현 어구를 추출하기 위해 품사패턴과 어휘사전이 사용되었고, 추출된 시간표현 어구는 정규화 과정을 통해 특정 시각 또는 기간으로 변환되었다. 실험을 통해 시간표현 추출과정의 정확도를 측정하였고, 기사에서 자동으로 추출된 시간을 사용함으로써 사건 탐지 및 추적 시스템의 성능을 향상시킬 수 있었다.

금융권에 적용 가능한 금융특화언어모델 구축방안에 관한 연구 (A Study on the Construction of Financial-Specific Language Model Applicable to the Financial Institutions)

  • 배재권
    • 한국산업정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.79-87
    • /
    • 2024
  • 최근 텍스트분류, 감성분석, 질의응답 등의 자연어 처리를 위해서 사전학습언어모델(Pre-trained Language Model, PLM)의 중요성은 날로 강조되고 있다. 한국어 PLM은 범용적인 도메인의 자연어 처리에서 높은 성능을 보이나 금융, 제조, 법률, 의료 등의 특화된 도메인에서는 성능이 미약하다. 본 연구는 금융도메인 뿐만 아니라 범용도메인에서도 우수한 성능을 보이는 금융특화 언어모델의 구축을 위해 언어모델의 학습과정과 미세조정 방법을 제안하는 것이 주요 목표이다. 금융도메인 특화언어모델을 구축하는 과정은 (1) 금융데이터 수집 및 전처리, (2) PLM 또는 파운데이션 모델 등 모델 아키텍처 선정, (3) 도메인 데이터 학습과 인스트럭션 튜닝, (4) 모델 검증 및 평가, (5) 모델 배포 및 활용 등으로 구성된다. 이를 통해 금융도메인의 특성을 살린 사전학습 데이터 구축방안과 효율적인 LLM 훈련방법인 적응학습과 인스트럭션 튜닝기법을 제안하였다.

온라인가나다를 위한 주제 분류 기반 유사 질문 검색 시스템 (Similar Question Search System for online Q&A for the Korean Language Based on Topic Classification)

  • 문정민;송영호;진지환;이현섭;이현아
    • 인지과학
    • /
    • 제26권3호
    • /
    • pp.263-278
    • /
    • 2015
  • 국립국어원의 온라인가나다 서비스는 한국어에 대한 질문을 등록하면 전문가가 답변을 작성하는 인터넷 서비스이다. 이러한 서비스는 유사한 질문이 자주 등록되는 문제점이 있다, 만일 새롭게 등록되는 질문과 유사한 질문을 자동으로 찾아 그 질문에 대한 답변을 등록 즉시 제공한다면, 질문자는 빠른 시간에 답변을 얻을 수 있고 서비스 관리자는 수동 답변 작성의 부담을 덜 수 있다. 본 논문에서는 온라인가나다의 특성을 분석하여 자주 질문되는 다섯 개의 주제 분류를 설정하고, 주제 분류 유사도와 함께 음소와 음절단위 수열유사도와 벡터 유사도를 결합하여 유사한 질문을 검색하는 시스템을 제안한다. 평가에서는 본 논문에서 제시한 주제 분류 정보를 활용하여 검색 정확률이 향상되는 결과를 얻었다. 최종 실험에서는 Mean Reciprocal Rank(MRR)가 0.756, 정답이 1위와 5위내에 검색될 확률은 각각 68.31%, 87.32%를 보였다.

미국거주 한국인 이민자들의 암과 식품에 대한 지식과 신념 (Knowledge and Beliefs About the Association Between Diet and Cancer Among Korean Immigrants in the U.S.A.)

  • Cho, Jae-Kyung;Kim, Katherine;Elena Yu
    • 보건교육건강증진학회지
    • /
    • 제15권1호
    • /
    • pp.133-149
    • /
    • 1998
  • 본 연구는 미국에 사는 한국인 이민자들의 암예방과 식품에 대한 지식과 신념에 관하여 알아보는데 그 목적이 있다. 본 연구의 도구로는 미국 국민 건강연구조사 (NHIS)의 설문지를 한국어로 번역하였고, 연구의 대상자는 미국의 시카고에 거주하는 263명의 한국인 이민자들이다. 본 연구의 주된 연구결과는 다음과 같았다. (1) 대부분의 대상자(83.3%)들은 한국음식을 먹고 있다고 답하였다. (2) 대상자들의 47.5%가 영어를 전혀 못 읽거나 거의 못 읽는다고 답하였다. (3) 식생활 변화를 하지 않는 이유에 대해 현재 먹고 있는 음식을 즐기기 때문에 식생활을 바꾸고 싶지 않다는 답이 가장 많았다. (4) 우리가 먹고 마시는 음식과 관계 있는 주요질병에 대해서 25.4%의 응답자만이 암이라고 답하였다 (미국 NHIS 에서는 48%). (5) 응답자의 48.3%만이 섬유소에 대해 들어보았다고 응답하였다. (6) 7.1%의 응답자만이 섬유소가 많은 음식으로 corn flakes와 bran flakes를 고를 수 있었다. 이 결과로 보아 한국인 이민자들이 미국음식에 대해 잘 모르는 것으로 보인다. (7) 약 62%의 응답자들이 암예방에 관한 무료 보건강좌에 참석하고 싶다고 응답하였다. 보건강좌 장소에 대해 "교회'라고 답한 응답자가 가장 많았다. (8) 질병예방에 관한 정보를 어디에서 얻느냐는 질문에 대하여 "신문"이라고 답한 응답자가 가장 많았다. 본 연구에서 얻은 결과를 볼 때 대부분의 응답자들이 미국 정부에서 하고 있는 암예방 교육의 혜택을 받고 있지 않는 것으로 나타났다. 한국인 이민자들의 문화적 배경에 맞는 암교육이 필요하며, 영어를 잘 못하는 이민자들을 위해 한국말로 번역된 보건교육자료를 사용하여야 한다.교육자료를 사용하여야 한다.표현을 위하여 확장된 기본 모델을 중심으로 각 레벨의 구성 요소들의 형식적 의미(formal semantics)와 레벨 내 혹은 레벨 구성요소들간의 관계성(relationship), 그리고 제약조건의 표현과 질의 추론 규칙들을 식별하여 FOPL(First Order Predicate Logic)로 표현한다. 또한, 본 논문은 FOPL로 표현된 predicate들과 규칙들을 구현하기 위하여 Prolog로 변환하기 위한 이론적 방법론을 제시하고 정보자원 관리를 위한 기본 함수들과 스키마 진화(schema evolution)를 위한 방법론을 제안한다. 최저 잔류탁도를 나타내는 최적 응집제 주입량에서의 Zeta potential은 원수탁도가 5NTU일 경우 Alum, PAC 및 PACS 모두 -20mV∼-15mV사이였으며, 원수 탁도가 10NTU인 경우에는 0∼0.5mV 범위에 있는 것으로 나타나 응집제 종류 및 주입량이 상이하더라도 응집효율이 가장 양호한 상태에서의 Zeta potential은 일정한 범위내에 있는 것으로 나타났다.각 각 11.1, 10.2, 12.2 그리고 13.0%의 발달율을 보여 유의적인 차이를 보이지 않았다. 4. 수정 후 114 시간 개별배양된 수정란으로부터 분리된 small과 large의 할구를 공핵체로 사용한 처리구에서 핵이식 수정란의 세포융합율에 있어서 각각 71.0, 71.4, 69.9 및 77.1% 의 융합율올 보여 유의적인 차이를 나타내지 않았으며, 핵이식 수정란의 배반포기배로의 발달율에 있어서도 각각 11.4%, 8.0%, 17.2% 그리고 12.9% 의 발달율을 보여 유의적인 차이를 보이지 않았다. 이상의 결과로 보아 핵이식 수정란을 효율적으로 생산하기 위하여 수핵난자의 세포질에 ionomycin 과 DMAP 의

  • PDF

KB-BERT: 금융 특화 한국어 사전학습 언어모델과 그 응용 (KB-BERT: Training and Application of Korean Pre-trained Language Model in Financial Domain)

  • 김동규;이동욱;박장원;오성우;권성준;이인용;최동원
    • 지능정보연구
    • /
    • 제28권2호
    • /
    • pp.191-206
    • /
    • 2022
  • 대량의 말뭉치를 비지도 방식으로 학습하여 자연어 지식을 획득할 수 있는 사전학습 언어모델(Pre-trained Language Model)은 최근 자연어 처리 모델 개발에 있어 매우 일반적인 요소이다. 하지만, 여타 기계학습 방식의 성격과 동일하게 사전학습 언어모델 또한 학습 단계에 사용된 자연어 말뭉치의 특성으로부터 영향을 받으며, 이후 사전학습 언어모델이 실제 활용되는 응용단계 태스크(Downstream task)가 적용되는 도메인에 따라 최종 모델 성능에서 큰 차이를 보인다. 이와 같은 이유로, 법률, 의료 등 다양한 분야에서 사전학습 언어모델을 최적화된 방식으로 활용하기 위해 각 도메인에 특화된 사전학습 언어모델을 학습시킬 수 있는 방법론에 관한 연구가 매우 중요한 방향으로 대두되고 있다. 본 연구에서는 금융(Finance) 도메인에서 다양한 자연어 처리 기반 서비스 개발에 활용될 수 있는 금융 특화 사전학습 언어모델의 학습 과정 및 그 응용 방식에 대해 논한다. 금융 도메인 지식을 보유한 언어모델의 사전학습을 위해 경제 뉴스, 금융 상품 설명서 등으로 구성된 금융 특화 말뭉치가 사용되었으며, 학습된 언어 모델의 금융 지식을 정량적으로 평가하기 위해 토픽 분류, 감성 분류, 질의 응답의 세 종류 자연어 처리 데이터셋에서의 모델 성능을 측정하였다. 금융 도메인 말뭉치를 기반으로 사전 학습된 KB-BERT는 KoELECTRA, KLUE-RoBERTa 등 State-of-the-art 한국어 사전학습 언어 모델과 비교하여 일반적인 언어 지식을 요구하는 범용 벤치마크 데이터셋에서 견줄 만한 성능을 보였으며, 문제 해결에 있어 금융 관련 지식을 요구하는 금융 특화 데이터셋에서는 비교대상 모델을 뛰어넘는 성능을 보였다.

Structural SVM을 이용한 백과사전 문서 내 생략 문장성분 복원 (Restoring Omitted Sentence Constituents in Encyclopedia Documents Using Structural SVM)

  • 황민국;김영태;나동열;임수종;김현기
    • 지능정보연구
    • /
    • 제21권2호
    • /
    • pp.131-150
    • /
    • 2015
  • 영어와 달리 한국어나 일본어 문장의 경우 용언의 필수격을 채우는 명사구가 생략되는 무형대용어 현상이 빈번하다. 특히 백과사전이나 위키피디아의 문서에서 표제어로 채울 수 있는 격의 경우 그 격이 문장에서 더 쉽게 생략된다. 정보검색, 질의응답 시스템 등 주요 지능형 응용시스템들은 백과사전류의 문서에서 주요한 정보를 추출하여 수집하여야 한다. 그러나 이러한 명사구 생략 현상으로 인해 양질의 정보추출이 어렵다. 본 논문에서는 백과사전 종류 문서에서 생략된 명사구 즉 무형대용어를 복원하는 시스템의 개발을 다루었다. 우리 시스템이 다루는 문제는 자연어처리의 무형대용어 해결 문제와 거의 유사하나, 우리 문제의 경우 문서의 일부가 아닌 표제어도 복원에 이용할 수 있다는 점이 다르다. 무형대용어 복원을 위해서는 먼저 무형대용어의 탐지 즉 문서 내에서 명사구 생략이 일어난 곳을 찾는 작업을 수행한다. 그 다음 무형대용어의 선행어 탐색 즉 무형대용어의 복원에 사용될 명사구를 문서 내에서 찾는 작업을 수행한다. 문서 내에서 선행어를 발견하지 못하면 표제어를 이용한 복원을 시도해 본다. 우리 방법의 특징은 복원에 사용된 문장성분을 찾기 위해 Structural SVM을 사용하는 것이다. 문서 내에서 생략이 일어난 위치보다 앞에 나온 명사구들에 대해 Structural SVM에 의한 시퀀스 레이블링(sequence labeling) 작업을 시행하여 복원에 이용 가능한 명사구인 선행어를 찾아내어 이를 이용하여 복원 작업을 수행한다. 우리 시스템의 성능은 F1 = 68.58로 측정되었으며 이는 의미정보의 이용 없이 달성한 점을 감안하면 높은 수준으로 평가된다.

지식베이스 구축을 위한 한국어 위키피디아의 학습 기반 지식추출 방법론 및 플랫폼 연구 (Knowledge Extraction Methodology and Framework from Wikipedia Articles for Construction of Knowledge-Base)

  • 김재헌;이명진
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.43-61
    • /
    • 2019
  • 최근 4차 산업혁명과 함께 인공지능 기술에 대한 연구가 활발히 진행되고 있으며, 이전의 그 어느 때보다도 기술의 발전이 빠르게 진행되고 있는 추세이다. 이러한 인공지능 환경에서 양질의 지식베이스는 인공지능 기술의 향상 및 사용자 경험을 높이기 위한 기반 기술로써 중요한 역할을 하고 있다. 특히 최근에는 인공지능 스피커를 통한 질의응답과 같은 서비스의 기반 지식으로 활용되고 있다. 하지만 지식베이스를 구축하는 것은 사람의 많은 노력을 요하며, 이로 인해 지식을 구축하는데 많은 시간과 비용이 소모된다. 이러한 문제를 해결하기 위해 본 연구에서는 기계학습을 이용하여 지식베이스의 구조에 따라 학습을 수행하고, 이를 통해 자연어 문서로부터 지식을 추출하여 지식화하는 방법에 대해 제안하고자 한다. 이러한 방법의 적절성을 보이기 위해 DBpedia 온톨로지의 구조를 기반으로 학습을 수행하여 지식을 구축할 것이다. 즉, DBpedia의 온톨로지 구조에 따라 위키피디아 문서에 기술되어 있는 인포박스를 이용하여 학습을 수행하고 이를 바탕으로 자연어 텍스트로부터 지식을 추출하여 온톨로지화하기 위한 방법론을 제안하고자 한다. 학습을 바탕으로 지식을 추출하기 위한 과정은 문서 분류, 적합 문장 분류, 그리고 지식 추출 및 지식베이스 변환의 과정으로 이루어진다. 이와 같은 방법론에 따라 실제 지식 추출을 위한 플랫폼을 구축하였으며, 실험을 통해 본 연구에서 제안하고자 하는 방법론이 지식을 확장하는데 있어 유용하게 활용될 수 있음을 증명하였다. 이러한 방법을 통해 구축된 지식은 향후 지식베이스를 기반으로 한 인공지능을 위해 활용될 수 있을 것으로 판단된다.