• 제목/요약/키워드: 정보 모델

검색결과 23,503건 처리시간 0.046초

최대 엔트로피 모델을 이용한 텍스트 단위화 학습 (Learning Text Chunking Using Maximum Entropy Models)

  • 박성배;장병탁
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2001년도 제13회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.130-137
    • /
    • 2001
  • 최대 엔트로피 모델(maximum entropy model)은 여러 가지 자연언어 문제를 학습하는데 성공적으로 적용되어 왔지만, 두 가지의 주요한 문제점을 가지고 있다. 그 첫번째 문제는 해당 언어에 대한 많은 사전 지식(prior knowledge)이 필요하다는 것이고, 두번째 문제는 계산량이 너무 많다는 것이다. 본 논문에서는 텍스트 단위화(text chunking)에 최대 엔트로피 모델을 적용하는 데 나타나는 이 문제점들을 해소하기 위해 새로운 방법을 제시한다. 사전 지식으로, 간단한 언어 모델로부터 쉽게 생성된 결정트리(decision tree)에서 자동적으로 만들어진 규칙을 사용한다. 따라서, 제시된 방법에서의 최대 엔트로피 모델은 결정트리를 보강하는 방법으로 간주될 수 있다. 계산론적 복잡도를 줄이기 위해서, 최대 엔트로피 모델을 학습할 때 일종의 능동 학습(active learning) 방법을 사용한다. 전체 학습 데이터가 아닌 일부분만을 사용함으로써 계산 비용은 크게 줄어 들 수 있다. 실험 결과, 제시된 방법으로 결정트리의 오류의 수가 반으로 줄었다. 대부분의 자연언어 데이터가 매우 불균형을 이루므로, 학습된 모델을 부스팅(boosting)으로 강화할 수 있다. 부스팅을 한 후 제시된 방법은 전문가에 의해 선택된 자질로 학습된 최대 엔트로피 모델보다 졸은 성능을 보이며 지금까지 보고된 기계 학습 알고리즘 중 가장 성능이 좋은 방법과 비슷한 성능을 보인다 텍스트 단위화가 일반적으로 전체 구문분석의 전 단계이고 이 단계에서의 오류가 다음 단계에서 복구될 수 없으므로 이 성능은 텍스트 단위화에서 매우 의미가 길다.

  • PDF

사용자의 선호도를 반영한 확장 퍼지 정보 검색 시스템의 설계 (Design of a Extended Fuzzy Information Retrieval System using User한s Preference)

  • 김대원;이광형
    • 한국지능시스템학회논문지
    • /
    • 제10권4호
    • /
    • pp.299-303
    • /
    • 2000
  • 정보 검색 시스템의 목표는 사용자가 원하는 정보를 빠른 시간 내에 효율적으로 검색하는 것이다. 이를 위해 불리언 모델, 벡터 모델을 비롯한 기존의 많은 검색 모델들과 퍼지 이론에 기반한 퍼지 검색 모델들이 제안되어져 왔다. 그러나 기존의 모델들은 관련 문서를 검색하는데 잇어서 사용자의 선호도를 반영하지 못하는 한계점을 지닌다. 본 논문에서는 기존의 퍼지 검색 모델의 단점을 보완하기 위해서 확장 퍼지 검색 모델을 제안하고 설계하였다. 제안하는 모델은 색인어와 문서 가중치의 유사도를 결정하는데 있어서 사용자의 선호도를 반영할 수 있도록 설계하였다.

  • PDF

형상 형성 제어를 이용한 어휘인식 공유 모델의 가우시안 최적화 (Gaussian Optimization of Vocabulary Recognition Clustering Model using Configuration Thread Control)

  • 안찬식;오상엽
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권2호
    • /
    • pp.127-134
    • /
    • 2010
  • 연속 어휘 인식 확률 분포의 공유 방법에서는 사용될 모델 파라미터들의 초기 추정치를 생성하기 위한 각 문맥들에 대한 음소 데이터가 반드시 필요하지만 이들 음소 데이터에 대한 모델을 구성할 수 없는 단점으로 가우시안 모델의 정확성을 확보하지 못한다는 단점이 있다. 이를 개선하기 위하여 확률 분포의 혼합 가우시안 모델을 최적화하고, 음소 단위로 데이터를 탐색을 지원하는 형상 형성 시스템을 제안한다. 본 논문의 형상 형성 시스템은 확장 facet 분류를 이용하여 사용자에게 음소 단위의 형상 형성 정보를 제공하므로 가우시안 모델의 정확성을 제공한다. 본 논문에서 제안한 시스템을 적용한 결과 시스템 성능에서 어휘 종속 인식률은 98.31%, 어휘 독립 인식률은 97.63%의 인식률을 나타내었다.

KRBERT 임베딩 층에 따른 의미역 결정 (Layerwise Semantic Role Labeling in KRBERT)

  • 서혜진;박명관;김유희
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.617-621
    • /
    • 2021
  • 의미역 결정은 문장 속에서 서술어와 그 논항의 관계를 파악하며, '누가, 무엇을, 어떻게, 왜' 등과 같은 의미역 관계를 찾아내는 자연어 처리 기법이다. 최근 수행되고 있는 의미역 결정 연구는 주로 말뭉치를 활용하여 딥러닝 학습을 하는 방식으로 연구가 이루어지고 있다. 최근 구글에서 개발한 사전 훈련된 Bidirectional Encoder Representations from Transformers (BERT) 모델이 다양한 자연어 처리 분야에서 상당히 높은 성능을 보이고 있다. 본 논문에서는 한국어 의미역 결정 성능 향상을 위해 한국어의 언어적 특징을 고려하며 사전 학습된 SNU KR-BERT를 사용하면서 한국어 의미역 결정 모델의 성능을 살펴보였다. 또한, 본 논문에서는 BERT 모델에서 과연 어떤 히든 레이어(hidden layer)에서 한국어 의미역 결정을 더 잘 수행하는지 알아보고자 하였다. 실험 결과 마지막 히든 레이어 임베딩을 활용하였을 때, 언어 모델의 성능은 66.4% 였다. 히든 레이어 별 언어 모델 성능을 비교한 결과, 마지막 4개의 히든 레이어를 이었을 때(concatenated), 언어 모델의 성능은 67.9% 이였으며, 11번째 히든 레이어를 사용했을 때는 68.1% 이였다. 즉, 마지막 히든 레이어를 선택했을 때보다 더 성능이 좋았다는 것을 알 수 있었다. 하지만 각 언어 모델 별 히트맵을 그려보았을 때는 마지막 히든 레이어 임베딩을 활용한 언어 모델이 더 정확히 의미역 판단을 한다는 것을 알 수 있었다.

  • PDF

다국어 음성인식을 위한 언어별 출력 계층 구조 Wav2Vec2.0 (Language Specific CTC Projection Layers on Wav2Vec2.0 for Multilingual ASR)

  • 이원준;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.414-418
    • /
    • 2021
  • 다국어 음성인식은 단일언어 음성인식에 비해 높은 난이도를 보인다. 하나의 단일 모델로 다국어 음성인식을 수행하기 위해선 다양한 언어가 공유하는 음성적 특성을 모델이 학습할 수 있도록 하여 음성인식 성능을 향상시킬 수 있다. 본 연구는 딥러닝 음성인식 모델인 Wav2Vec2.0 구조를 변경하여 한국어와 영어 음성을 하나의 모델로 학습하는 방법을 제시한다. CTC(Connectionist Temporal Classification) 손실함수를 이용하는 Wav2Vec2.0 모델의 구조에서 각 언어마다 별도의 CTC 출력 계층을 두고 각 언어별 사전(Lexicon)을 적용하여 음성 입력을 다른 언어로 혼동되는 경우를 원천적으로 방지한다. 제시한 Wav2Vec2.0 구조를 사용하여 한국어와 영어를 잘못 분류하여 음성인식률이 낮아지는 문제를 해결하고 더불어 제시된 한국어 음성 데이터셋(KsponSpeech)에서 한국어와 영어를 동시에 학습한 모델이 한국어만을 이용한 모델보다 향상된 음성 인식률을 보임을 확인하였다. 마지막으로 Prefix 디코딩을 활용하여 언어모델을 이용한 음성인식 성능 개선을 수행하였다.

  • PDF

복사 메커니즘과 강화 학습을 적용한 BERT 기반의 문서 요약 모델 (BERT-based Document Summarization model using Copying-Mechanism and Reinforcement Learning)

  • 황현선;이창기;고우영;윤한준
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.167-171
    • /
    • 2020
  • 문서 요약은 길이가 긴 원본 문서에서 의미를 유지한 채 짧은 문서나 문장을 얻어내는 작업을 의미한다. 딥러닝을 이용한 자연어처리 기술들이 연구됨에 따라 end-to-end 방식의 자연어 생성 모델인 sequence-to-sequence 모델을 문서 요약 생성에 적용하는 방법들이 연구되었다. 본 논문에서는 여러 자연어처리 분야에서 높은 성능을 보이고 있는 BERT 모델을 이용한 자연어 생성 모델에 복사 메커니즘과 강화 학습을 추가한 문서 요약 모델을 제안한다. 복사 메커니즘은 입력 문장의 단어들을 출력 문장에 복사하는 기술로 학습데이터에서 학습되기 힘든 고유 명사 등의 단어들에 대한 성능을 높이는 방법이다. 강화 학습은 정답 단어의 확률을 높이기 위해 학습하는 지도 학습 방법과는 달리 연속적인 단어 생성으로 얻어진 전체 문장의 보상 점수를 높이는 방향으로 학습하여 생성되는 단어 자체보다는 최종 생성된 문장이 더 중요한 자연어 생성 문제에 효과적일 수 있다. 실험결과 기존의 BERT 생성 모델 보다 복사 메커니즘과 강화 학습을 적용한 모델의 Rouge score가 더 높음을 확인 하였다.

  • PDF

초거대 언어모델의 재치에 관한 고찰: 수수께끼 해결 능력을 중심으로 (A Study on Proficiency in Solving Riddles of Large Language Model)

  • 어수경;박찬준;문현석;서재형;허윤아;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.25-30
    • /
    • 2023
  • 초거대 언어모델은 과연 수수께끼 문제에 재치있는 답변을 할 수 있을까? 최근 초거대 언어모델(Large language model, LLM)은 강력한 성능 및 유저 만족도를 보이며 세계의 이목을 집중시키고 있다. 여러 태스크들에 대한 정량 평가를 넘어서 최근에는 LLM의 창의력 및 고도화된 언어능력을 평가하는 연구들이 등장하고 있다. 본 논문에서는 이러한 연구 흐름에 따라 LLM의 재치에 관해 고찰해본다. 이때 재치를 평가하기 위한 태스크로 이를 요구하는 말놀이인 수수께끼를 활용한다. 본 논문은 LLM이 수수께끼를 잘 수행하는지를 모델 추론을 통해 평가하며, 모델 추론 시 활용되는 프롬프트들의 성격에 따른 성능 변화를 관찰한다. 또한 수수께끼의 종류에 따른 모델의 능력을 비교 분석하며 LLM의 추론 결과에 대한 오류 분석을 수행한다. 본 논문은 실험을 통해 GPT-4가 가장 높은 성능을 보이며, 설명글이나 데이터 예시를 추가할 시 성능을 한층 더 향상시킬 수 있음을 확인한다. 또한 단어 기반보다는 특성 기반의 수수께끼에 더욱 강력한 성능을 보이며, 오류 유형 분석을 통해 LLM이 환각(hallucination) 문제와 창의력을 동시에 가지고 있다고 분석한다.

  • PDF

페르소나 기반의 장기 대화를 위한 다각적 어텐션을 활용한 생성 모델 (Generative Model Utilizing Multi-Level Attention for Persona-Grounded Long-Term Conversations)

  • 금빛나;김홍진;황금하;권오욱;김학수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.281-286
    • /
    • 2023
  • 더욱 사람같은 대화 모델을 실현하기 위해, 페르소나 메모리를 활용하여 응답을 생성하는 연구들이 활발히 진행되고 있다. 다수의 기존 연구들에서는 메모리로부터 관련된 페르소나를 찾기 위해 별도의 검색 모델을 이용한다. 그러나 이는 전체 시스템에 속도 저하를 일으키고 시스템을 무겁게 만드는 문제가 있다. 또한, 기존 연구들은 페르소나를 잘 반영해 응답하는 능력에만 초점을 두는데, 그 전에 페르소나 참조의 필요성 여부를 판별하는 능력이 선행되어야 한다. 따라서, 우리의 제안 모델은 검색 모델을 활용하지 않고 생성 모델의 내부적인 연산을 통해 페르소나 메모리의 참조가 필요한지를 판별한다. 참조가 필요하다고 판단한 경우에는 관련된 페르소나를 반영하여 응답하며, 그렇지 않은 경우에는 대화 컨텍스트에 집중하여 응답을 생성한다. 실험 결과를 통해 제안 모델이 장기적인 대화에서 효과적으로 동작함을 확인하였다.

  • PDF

CNN 기반의 모델 학습을 통한 관계 분류 모델 : AI 기반의 셀프사진관 포즈 추천 프레임워크 (Relationship classification model through CNN-based model learning: AI-based Self-photo Studio Pose Recommendation Frameworks)

  • 백강민;한연지
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.951-952
    • /
    • 2023
  • 소위 '인생네컷'이라 불리는 셀프사진관은 MZ 세대의 새로운 놀이 문화로 떠오르며 사용자 수가 나날이 증가하고 있다. 그러나 짧은 시간 내에 다양한 포즈를 취해야 하는 셀프사진관 특성상 촬영이 낯선 사람에게는 여전히 진입장벽이 존재한다. 더불어 매번 비슷한 포즈와 사진 결과물에 기존 사용자는 점차 흥미를 잃어가는 문제점도 발생하고 있다. 이에 본 연구에서는 셀프사진관 사용자의 관계를 분류하는 모델을 개발하여 관계에 따른 적합하고 다양한 포즈를 추천하는 프레임워크를 제안한다. 사용자의 관계를 'couple', 'family', 'female_friend', 'female_solo', 'male_friend', 'male_solo' 총 6 개로 구분하였고 실제 현장과 유사하도록 단색 배경의 이미지를 우선으로 학습 데이터를 수집하여 모델의 성능을 높였다. 모델 학습 단계에서는 모델의 성능을 높이기 위해 여러 CNN 기반의 모델을 전이학습하여 각각의 정확도를 비교하였다. 결과적으로 195 장의 test_set 에서 accuracy 0.91 의 성능 평가를 얻었다. 본 연구는 객체 인식보다 객체 간의 관계를 학습시켜 관계성을 추론하고자 하는 것을 목적으로, 연구 결과가 희박한 관계 분류에 대한 주제를 직접 연구하여 추후의 방향성이나 방법론과 같은 초석을 제안할 수 있다. 또한 관계 분류 모델을 CCTV 에 활용하여 미아 방지 혹은 추적과 구조 등에 활용하여 국가 치안을 한층 높이는 데 기대할 수 있다.

스마트폰과 RFID를 이용한 u-테마파크 모델의 설계 및 구현 (Using Smart Phone and RFID Technology for making Ubiquitous Thema Park)

  • 신재명;김두형;안홍범;박상원;홍진표
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.1478-1481
    • /
    • 2010
  • 기존의 테마파크에 RFID를 이용하면 보다 편리하게 출입관리를 할 수 있고, 카드 한 장으로 테마파크 내에서 결제부터 부대시설과 서비스까지 이용할 수 있다. 이러한 모델은 이미 서브원 곤지암리조트 스키장과 캐리비언베이 워터파크 등 에서 도입하여 사용하고 있다[1][2]. 그러나 RFID를 이용한 유비쿼터스 모델들의 공통적인 단점은 RFID 카드 사용에 대한 피드백을 받을 수 없다는 것이다. 다시 말해서 RFID 카드에 대한 정보를 사용자는 모르기 때문에 자신이 RFID 카드로 무엇을 얼마나 결제했는지, 어떠한 서비스를 사용했는지 다시 확인할 수 없다는 문제점이 있다. 본 논문에서는 이러한 기존의 시스템에 스마트폰을 이용하여 사용자와 테마파크를 유기적으로 연결시켜줌으로써, 스마트폰을 통해 자신의 결제정보, 서비스 이용내역 등을 실시간으로 확인 가능할 수 있는 u-테마파크 모델을 제시한다. u-테마파크 모델을 이용하면 스마트폰을 통해 부대시설(놀이공원의 놀이기구, 스키장의 리프트 등)의 대기시간을 실시간으로 확인할 수 있고, RFID 카드를 소지한 일행의 위치를 찾을 수 있으며, 테마파크의 모든 이용객들과 정보를 교환할 수 있는 SNS(Social Network Service)등의 새로운 서비스를 제공할 수 있다. 테마파크 측에서는 실시간으로 취합되는 고객정보를 이용하여 이용률이 떨어지는 고객들의 특징을 파악해 해당 고객들에게 맞는 서비스를 제공하고 맞춤 마케팅을 하는 등의 체계적인 관리를 할 수 있어 다양한 마케팅과 새로운 서비스 제공이 가능하다는 이점이 있다.