• Title/Summary/Keyword: 추론 모델

Search Result 999, Processing Time 0.031 seconds

전문가 시스템의 불확실성 추론 방법

  • 이승재
    • 전기의세계
    • /
    • v.39 no.8
    • /
    • pp.7-12
    • /
    • 1990
  • 전문가 시스템에 있어서의 불확실성 정보의 표현 및 처리를 담당하는 주요 추론모델중 Bayesian모델, Certainty Factor 모델 그리고 Dempster-Shafer 모델의 기본이론을 살펴보고자 한다. 이외의 주요 추론 방법으로서 Fuzzy추론 모델이 있는데 이는 판단 지식에 대한 주관적 불확실성과 "매우", "많이" 등의 자연어가 포함하고 있는 불분명성을 체계적이고 효과적으로 다룰 수 있는 Fuzzy Set 이론에 근거한 방법으로서, 불확실성 또는 불명료성을 0에서부터 1 사이의 값을 갖는 membership degree로 표시하며 이를 "MIN"과 "MAX" 함수를 이용한 합성 추론 규칙(Composition Rule of Inference)를 적용하여 처리한다. Fuzzy 추론 모델은 자연어를 포함하는 전문가의 지식 처리에 매우 적합하여 앞으로 그 응용이 높이 기대되는 방법이다. 이외에 Bayesian 모델을 변형 응용한 PROSPECTOR의 Likelyhood Ratio 모델, 정량적 방법인 Theory of Endorsement 모델 등 여러 방법이 있다. 그러나 어느 모델이 더 일반성을 갖고 더 좋은 방법인가 하는 문제에 대하여는 아직 많은 연구가 요구된다. 따라서 이러한 모델들의 전문가 시스템 적용에 있어서는 각 모델의 장단점을 고려하여 주어진 문제 영역에 적합한 모델을 선택하는 것이 바람직하다. 현재 불확실성 처리에 있어서 각 문제에 따른 경험적인 처리에 의존하는 전력 계통 분야의 적용에 있어서도 이러한 실인간 전문가의 추론방법에 근접된 반성을 갖는 불확실성 추론 방버 도입이 요구된다.가의 추론방법에 근접된 반성을 갖는 불확실성 추론 방버 도입이 요구된다.

  • PDF

Empowering Emotion Classification Performance Through Reasoning Dataset From Large-scale Language Model (초거대 언어 모델로부터의 추론 데이터셋을 활용한 감정 분류 성능 향상)

  • NunSol Park;MinHo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.59-61
    • /
    • 2023
  • 본 논문에서는 감정 분류 성능 향상을 위한 초거대 언어모델로부터의 추론 데이터셋 활용 방안을 제안한다. 이 방안은 Google Research의 'Chain of Thought'에서 영감을 받아 이를 적용하였으며, 추론 데이터는 ChatGPT와 같은 초거대 언어 모델로 생성하였다. 본 논문의 목표는 머신러닝 모델이 추론 데이터를 이해하고 적용하는 능력을 활용하여, 감정 분류 작업의 성능을 향상시키는 것이다. 초거대 언어 모델(ChatGPT)로부터 추출한 추론 데이터셋을 활용하여 감정 분류 모델을 훈련하였으며, 이 모델은 감정 분류 작업에서 향상된 성능을 보였다. 이를 통해 추론 데이터셋이 감정 분류에 있어서 큰 가치를 가질 수 있음을 증명하였다. 또한, 이 연구는 기존에 감정 분류 작업에 사용되던 데이터셋만을 활용한 모델과 비교하였을 때, 추론 데이터를 활용한 모델이 더 높은 성능을 보였음을 증명한다. 이 연구를 통해, 적은 비용으로 초거대 언어모델로부터 생성된 추론 데이터셋의 활용 가능성을 보여주고, 감정 분류 작업 성능을 향상시키는 새로운 방법을 제시한다. 제시한 방안은 감정 분류뿐만 아니라 다른 자연어처리 분야에서도 활용될 수 있으며, 더욱 정교한 자연어 이해와 처리가 가능함을 시사한다.

  • PDF

Korean Commonsense Reasoning Evaluation for Large Language Models (거대언어모델을 위한 한국어 상식추론 기반 평가)

  • Jaehyung Seo;Chanjun Park;Hyeonseok Moon;Sugyeong Eo;Aram So;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.162-167
    • /
    • 2023
  • 본 논문은 거대언어모델에 대한 한국어 상식추론 기반의 새로운 평가 방식을 제안한다. 제안하는 평가 방식은 한국어의 일반 상식을 기초로 삼으며, 이는 거대언어모델이 주어진 정보를 얼마나 잘 이해하고, 그에 부합하는 결과물을 생성할 수 있는지를 판단하기 위함이다. 기존의 한국어 상식추론 능력 평가로 사용하던 Korean-CommonGEN에서 언어 모델은 이미 높은 수준의 성능을 보이며, GPT-3와 같은 거대언어모델은 사람의 상한선을 넘어선 성능을 기록한다. 따라서, 기존의 평가 방식으로는 거대언어모델의 발전된 상식추론 능력을 정교하게 평가하기 어렵다. 더 나아가, 상식 추론 능력을 평가하는 과정에서 사회적 편견이나 환각 현상을 충분히 고려하지 못하고 있다. 본 연구의 평가 방법은 거대언어모델이 야기하는 문제점을 반영하여, 다가오는 거대언어모델 시대에 한국어 자연어 처리 연구가 지속적으로 발전할 수 있도록 하는 상식추론 벤치마크 구성 방식을 새롭게 제시한다.

  • PDF

A Docker-based Evaluation Program for Model Inference Performance on Heterogeneous Edge Environments (Docker 기반 이기종 엣지 환경에서의 모델 추론 성능 측정 프로그램 구현 및 평가)

  • Kim, Seong-Woo;Kim, Eun-ji;Lee, Jong-Ryul;Moon, Yong-Hyuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.420-423
    • /
    • 2022
  • 최근 딥러닝 기술이 모바일 기기에 활발히 적용됨에 따라 다양한 엣지 디바이스에서 신경망 모델의 추론 성능을 측정하는 것이 중요해지고 있다. 하지만 디바이스 별 환경 구성과 런타임별 모델 변환 방식이 다르기 때문에 이를 실제로 수행하는 것은 많은 시간을 필요로 한다. 따라서 본 논문에서는 이기종 환경을 고려하여 추론 성능을 측정할 수 있는 Docker 기반의 프로그램을 구현하였고, 이를 이용하여 다양한 엣지 디바이스에서 최신 모델들의 추론 성능을 측정하였다. 또한, 본 프로그램으로 확보 가능한 추론시간 데이터 기반 추론 성능 예측 연구의 사전 연구로서, 대표적 경량모델인 MobilenetV1 에 대한 연산자별 프로파일링을 수행하여 추론시간의 변화 양상을 관찰하였다.

Natural Langugae Inference as Re-ranking for Multiple Question Answering (질의응답 결과 재순위화를 위한 자연어 추론 모델)

  • Lee, Jihyung;Lee, Geunbae
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.405-409
    • /
    • 2021
  • 자연어 추론은 전제가 주어졌을때 특정 가설이 전제에 기반해 합당한지 검증하는 자연어 처리의 하위 과제이다. 우리는 질의응답 시스템이 도출한 정답 및 근거 문서를 자연어 추론 모델로 검증할 수 있다는 점에 착안하여, HotpotQA 질의응답 데이터셋을 자연어 추론 데이터 형식으로 변환한뒤 자연어 추론 모델을 학습하여 여러 질의응답 시스템이 생성한 결과물을 재순위화하고자 하였다. 그 결과로, 자연어 추론 모델에 의해 재순위화된 결과물은 기존 단일 질의응답 시스템의 결과물보다 대체로 향상된 성능을 보여주었다.

  • PDF

Pretraining Dense retrieval for Multi-hop question answering of Korean (한국어 다중추론 질의응답을 위한 Dense Retrieval 사전학습)

  • Kang, Dong-Chan;Na, Seung-Hoon;Kim, Tae-Hyeong;Choi, Yun-Su;Chang, Du-Seong
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.588-591
    • /
    • 2021
  • 다중추론 질의응답 태스크는 하나의 문서만 필요한 기존의 단일추론 질의응답(Single-hop QA)을 넘어서 복잡한 추론을 요구하는 질문에 응답하는 것이 목표이다. IRQA에서는 검색 모델의 역할이 중요한 반면, 주목받고 있는 Dense Retrieval 모델 기반의 다중추론 질의응답 검색 모델은 찾기 어렵다. 본 논문에서는 검색분야에서 좋은 성능 보이고 있는 Dense Retrieval 모델의 다중추론을 위한 사전학습 방법을 제안하고 관련 한국어 데이터 셋에서 이전 방법과의 성능을 비교 측정하여 학습 방법의 유효성을 검증하고 있다. 이를 통해 지식 베이스, 엔터티 링킹, 개체명 인식모듈을 비롯한 다른 서브모듈을 사용하지 않고도 다중추론 Dense Retrieval 모델을 학습시킬 수 있음을 보였다.

  • PDF

Inference Network-Based Retrieval Model for Web Search Environment (웹 검색 환경에 적용할 추론 망 기반 검색모델)

  • 최익규;김민구
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.19-21
    • /
    • 2001
  • 대다수의 사용자는 웹 검색에서 자신이 찾고자 하는 것을 표현할 때, 평균 2, 3개의 단어를 사용하고 있다. 벡터 모델이나 추론 망 모델에서 이런 질의 정보를 이용하여 좋은 결과를 얻기에는 몇 가지 어려움이 있다. 특히 추론 망 모델에서 많이 사용되는 유사도 계산식인 weighted-sum방법은 질의에 나타나는 단어의 수가 적고 많은 문서들이 이 단어들을 모두 가지고 있을 경우에 좋지 않은 검색결과를 보여주고 있다. 본 논문은 추론 망 모델에 적용되는 유사도 계산식인 weighted-sum방법을 개선하였고, 이를 기반으로 Web Trec 9의 자료를 검색하여 좋은 결과를 얻었다.

  • PDF

Numerical Reasoning Dataset Augmentation Using Large Language Model and In-Context Learning (대규모 언어 모델 및 인컨텍스트 러닝을 활용한 수치 추론 데이터셋 증강)

  • Yechan Hwang;Jinsu Lim;Young-Jun Lee;Ho-Jin Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.203-208
    • /
    • 2023
  • 본 논문에서는 대규모 언어 모델의 인컨텍스트 러닝과 프롬프팅을 활용하여 수치 추론 태스크 데이터셋을 효과적으로 증강시킬 수 있는 방법론을 제안한다. 또한 모델로 하여금 수치 추론 데이터의 이해를 도울 수 있는 전처리와 요구사항을 만족하지 못하는 결과물을 필터링 하는 검증 단계를 추가하여 생성되는 데이터의 퀄리티를 보장하고자 하였다. 이렇게 얻어진 증강 절차를 거쳐 증강을 진행한 뒤 추론용 모델 학습을 통해 다른 증강 방법론보다 우리의 방법론으로 증강된 데이터셋으로 학습된 모델이 더 높은 성능을 낼 수 있음을 보였다. 실험 결과 우리의 증강 데이터로 학습된 모델은 원본 데이터로 학습된 모델보다 모든 지표에서 2%p 이상의 성능 향상을 보였으며 다양한 케이스를 통해 우리의 모델이 수치 추론 학습 데이터의 다양성을 크게 향상시킬 수 있음을 확인하였다.

  • PDF

A reasoning strategy for fault diagnosis

  • Lee, Won-Young
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 1992.04b
    • /
    • pp.82-90
    • /
    • 1992
  • 본 논문은 어떤 시스템 (예를들면, 자동화된 제조시스템)에서 발생하는 징후에 대한 고장진단 모델을 개발하는 것이 목적이다. 이 모델은 계층적 시스템이론(Theory of Hierarchical Systems)과 인공지능의 혼성추론기법(Hybrid Reasoning Approach)을 사용한다. 일반적으로, 시스템은 스트라타(strata)와 에셸론(echelons)으로써 표현될 수 있으며, 한편 시스템에 대한 지식은 근본지식 (deep knowledge)과 경험지식(shallow knowledge)으로 나뉘어 질 수 있다. 이 모델에서의 고장진단에 대한 추론전략은 근본지식베이스에 의한 근본적 추론을 먼저하고 그 다음에 경험지식베이스에 의한 경험적 추론을 하는 혼성추론기법이다.

  • PDF

Development of a Mechanistic Reasoning Model Based on Biologist's Inquiries (생물학자의 탐구에 기반한 메커니즘 추론 모델 개발)

  • Jeong, Sunhee;Yang, Ilho
    • Journal of The Korean Association For Science Education
    • /
    • v.38 no.5
    • /
    • pp.599-610
    • /
    • 2018
  • The purpose of this study is to analyze mechanistic reasoning in Fabre's inquires and to develop mechanistic reasoning model. To analyze the order of the process elements in mechanistic reasoning, 30 chapters were selected in book. Inquiries were analyzed through a framework which is based on Russ et al. (2008). The nine process elements of mechanistic reasoning that was presented in Fabre's inquires were as follows: Describing the Target Phenomenon, Identifying prior Knowledge, Identifying Properties of Objects, Identifying Setup Conditions, Identifying Activities, Conjecturing Entities, Identifying Properties of Entities, Identifying Entities, and Organization of Entities. The order of process elements of mechanistic reasoning was affected by inquiry's subject, types of question, prior knowledge and situation. Three mechanistic reasoning models based on the process elements of mechanistic reasoning were developed: Mechanistic reasoning model for Identifying Entities(MIE), Mechanistic reasoning model for Identifying Activities(MIA), and Mechanistic reasoning model for Identifying Properties of entities (MIP). Science teacher can help students to use the questions of not only "why" but also "How", "If", "What", when students identify entities or generate hypotheses. Also science teacher should be required to understand mechanistic reasoning to give students opportunities to generate diverse hypotheses. If students can't conjecture entities easily, MIA and MIP would be helpful for students.