• Title/Summary/Keyword: 사전 지식

Search Result 1,080, Processing Time 0.027 seconds

Hybrid Approach Combining Deep Learning and Rule-Based Model for Automatic IPC Classification of Patent Documents (딥러닝-규칙기반 병행 모델을 이용한 특허문서의 자동 IPC 분류 방법)

  • Kim, Yongil;Oh, Yuri;Sim, Woochul;Ko, Bongsoo;Lee, Bonggun
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.347-350
    • /
    • 2019
  • 인공지능 관련 기술의 발달로 다양한 분야에서 인공지능 활용에 대한 관심이 고조되고 있으며 전문영역에서도 기계학습 기법을 활용한 연구들이 활발하게 이루어지고 있다. 특허청에서는 분야별 전문지식을 가진 분류담당자가 출원되는 모든 특허에 국제특허분류코드(이하 IPC) 부여 작업을 수행하고 있다. IPC 분류와 같은 전문적인 업무영역에서 딥러닝을 활용한 자동 IPC 분류 서비스를 제공하기 위해서는 기계학습을 이용하는 분류 모델에 분야별 전문지식을 직관적으로 반영하는 것이 필요하다. 이를 위해 본 연구에서는 딥러닝 기반의 IPC 분류 모델과 전문지식이 반영된 분류별 어휘사전을 활용한 규칙기반 분류 모델을 병행하여 특허문서의 IPC분류를 자동으로 추천하는 방법을 제안한다.

  • PDF

A Construction of Multilingual Linguistic Translation Knowledge based on the Language Typology (언어 유형론에 기반한 다국어 공용 번역지식의 구축)

  • Choi, Sung-Kwon;Kim, Tae-Wan;Park, Dong-In
    • Annual Conference on Human and Language Technology
    • /
    • 1997.10a
    • /
    • pp.243-248
    • /
    • 1997
  • 본 논문은 다국어 자동번역시스템에서 다국어의 번역지식(사전,규칙,정보)구축을 위해 언어유형론을 도입하는 방법론을 제안한다. 다국어 번역지식의 구축과 관련하여 기존 다국어 자동번역 시스템들에서 항상 문제가 되고 있는 것은 번역지식의 구축, 관리, 재활용의 문제이다. 번역지식의 구축은 다국어를 위한 번역지식의 크기, 다국어의 수용정도와 관련되며, 번역지식의 관리는 번역지식의 단순화 정도와 관련되며, 번역지식의 재활용은 기존에 구축된 번역지식을 새로운 언어들에 재사용 정도와 관련된다. 이러한 문제점들을 해결하기 위해 본 논문에서는 한국어를 포함한 다국어의 언어 친족성에 따라 번역지식을 공유하도록 하는 언어유형론에 기반한 다국어 공용 번역지식 구축 방법론을 제안하고자 한다.

  • PDF

A Study on Learner Variables Influencing State Curiosity and State Anxiety in Confronting Scientific Task Situation (과학 문제 대면 상황에서 상태호기심 및 상태불안 유발에 영향을 미치는 학습자 변인에 대한 연구)

  • Kang, Jihoon;Kim, Jina
    • Journal of Korean Elementary Science Education
    • /
    • v.40 no.3
    • /
    • pp.343-365
    • /
    • 2021
  • The purpose of this study was to clarify the effect of learner variables on triggering state curiosity and state anxiety in confronting scientific task situation for fifth to sixth grades of elementary school. Science curiosity, interest, need for cognition, science self-concept, science anxiety, prior knowledge, and perceived difficulty were selected as learner variables that are expected to affect state curiosity and state anxiety. As a result of this study, the variables that had a significant influence on evoking state curiosity in confronting scientific task situation were in the order of interest, need for cognition, science curiosity, and prior knowledge, and all of these variables had a positive effect. In addition, the variables that significantly affect on evoking state anxiety in confronting scientific task situation were in the order of science anxiety, perceived difficulty, need for cognition, science self-concept, and prior knowledge. Of these, only prior knowledge had a negative effect on evoking state anxiety, and the other variables had a positive effect. The results of this study are expected to broaden the comprehension of students' emotional states in science education, and provide a theoretical foundation for the studies of state curiosity and state anxiety in science learning.

The Effects of Background Knowledge and Prior-Examples in Creative Problem Solving (창의적 아이디어 산출에 대한 배경지식과 사례의 영향)

  • 이정모;정재학
    • Korean Journal of Cognitive Science
    • /
    • v.13 no.2
    • /
    • pp.47-59
    • /
    • 2002
  • Three experiments were conducted to investigate whether different types (common vs. uncommon) of prior-examples entail different effects in creative problem solving, and whether types/levels (rich or lean. common or uncommon) of background knowledge interact with types of prior-examples. It was found that the example types and the types/levels of background knowledge do interact and have some differential effects on generating novel and useful ideas. In Experiment 1 and 2. uncommon examples had a positive effect - generating many novel and useful ideas. regardless of background knowledge types. while common examples had positive effects, only when the background knowledge was somewhat uncommon In Experiment 3 it was also found that types (irrelevant,. single common. single uncommon, or multiple common + uncommon) of background knowledge seemed to influence differently on the ease of finding solutions: when background knowledge is diverse or not directly related to the task problem, uncommon prior examples produced much greater number of novel ideas than it was with single common or sin91e uncommon background knowledge. Implications of the present study were discussed. in relation to mental sets and fixation.

  • PDF

KB-BERT: Training and Application of Korean Pre-trained Language Model in Financial Domain (KB-BERT: 금융 특화 한국어 사전학습 언어모델과 그 응용)

  • Kim, Donggyu;Lee, Dongwook;Park, Jangwon;Oh, Sungwoo;Kwon, Sungjun;Lee, Inyong;Choi, Dongwon
    • Journal of Intelligence and Information Systems
    • /
    • v.28 no.2
    • /
    • pp.191-206
    • /
    • 2022
  • Recently, it is a de-facto approach to utilize a pre-trained language model(PLM) to achieve the state-of-the-art performance for various natural language tasks(called downstream tasks) such as sentiment analysis and question answering. However, similar to any other machine learning method, PLM tends to depend on the data distribution seen during the training phase and shows worse performance on the unseen (Out-of-Distribution) domain. Due to the aforementioned reason, there have been many efforts to develop domain-specified PLM for various fields such as medical and legal industries. In this paper, we discuss the training of a finance domain-specified PLM for the Korean language and its applications. Our finance domain-specified PLM, KB-BERT, is trained on a carefully curated financial corpus that includes domain-specific documents such as financial reports. We provide extensive performance evaluation results on three natural language tasks, topic classification, sentiment analysis, and question answering. Compared to the state-of-the-art Korean PLM models such as KoELECTRA and KLUE-RoBERTa, KB-BERT shows comparable performance on general datasets based on common corpora like Wikipedia and news articles. Moreover, KB-BERT outperforms compared models on finance domain datasets that require finance-specific knowledge to solve given problems.

Domain-agnostic Pre-trained Language Model for Tabular Data (도메인 변화에 강건한 사전학습 표 언어모형)

  • Cho, Sanghyun;Choi, Jae-Hoon;Kwon, Hyuk-Chul
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.346-349
    • /
    • 2021
  • 표 기계독해에서는 도메인에 따라 언어모형에 필요한 지식이나 표의 구조적인 형태가 변화하면서 텍스트 데이터에 비해서 더 큰 성능 하락을 보인다. 본 논문에서는 표 기계독해에서 이러한 도메인의 변화에 강건한 사전학습 표 언어모형 구축을 위한 의미있는 표 데이터 선별을 통한 사전학습 데이터 구축 방법과 적대적인 학습 방법을 제안한다. 추출한 표 데이터에서 구조적인 정보가 없이 웹 문서의 장식을 위해 사용되는 표 데이터 검출을 위해 Heuristic을 통한 규칙을 정의하여 HEAD 데이터를 식별하고 표 데이터를 선별하는 방법을 적용했으며, 구조적인 정보를 가지는 일반적인 표 데이터와 엔티티에 대한 지식 정보를 가지는 인포박스 데이터간의 적대적 학습 방법을 적용했다. 기존의 정제되지 않는 데이터로 학습했을 때와 비교하여 데이터를 정제하였을 때, KorQuAD 표 데이터에서 f1 3.45, EM 4.14가 증가하였으며, Spec 표 질의응답 데이터에서 정제하지 않았을 때와 비교하여 f1 19.38, EM 4.22가 증가한 성능을 보였다.

  • PDF

An Automatic Construction of ISA relations of Wordnet Using Wiki Definitions (Wiki정의로부터 ISA를 추출할 수 있는 언어적 규칙)

  • Yeong-suk Han;Chang-guen Oh
    • Annual Conference of KIPS
    • /
    • 2008.11a
    • /
    • pp.52-55
    • /
    • 2008
  • The paper aims at showing the subsumption relations of the Wordnet can be captured automatically from a dynamic encyclopedia such as Wikipedia with a meaningful precision. The idea behind the proposal is that a knowledge base in the form of Wordnet can be dynamically obtained and maintained accordingly to the online dictionaries so that the scalability of knowledge base construction may be achieved to some degree. To show the plausibility of dynamic ISA construction, we have tested how well the ISA relations among the 100 technology terms selected from the Wordnet can be saved from the ISA construction by the wiki definitions of the selected terms. As a result the wiki definition led to the ISA relations of the Wordnet with the precision of 80%.

EGGCYCLOPEDIA (달걀백과)

  • 대한양계협회
    • KOREAN POULTRY JOURNAL
    • /
    • v.20 no.6 s.224
    • /
    • pp.99-101
    • /
    • 1988
  • 미국달걀위원회에서 편찬한 책으로 '달걀교육의 백과사전과정'이라고도 불린다. 이 책을 다시 설명하면 달걀지식을 폭넓게 다루었고 이와 관련된 모든 분야의 정보를 수록하였으며 각 주제별 알파벳순으로 정리 되었다. 또한 달걀에 관련된 주제에 대해 정의와 설명을 붙였으며 이의 이해를 돕기위해 도해, 도표, 그래프 등을 적절히 사용한 소책자라고 할 수 있다. 본지는 독자들의 계란에 대한 올바르고 폭넓은 지식을 얻을 수 있도록 연재로 소개한다.

  • PDF

한중 FTA시대, 기업의 중국진출과 지식재산

  • Lee, Heon-Hui
    • 발명특허
    • /
    • v.37 no.9
    • /
    • pp.38-43
    • /
    • 2012
  • 앞으로 체결될 한중FTA에서 지재관련 분야의 협상을 통해서 제도적 조화가 원활히 이루어지지 않을 경우 제도의 부지 혹은 상이함으로 인해 우리 기업이 곤란을 겪지 않을까하는 걱정을 하게 된다. 중국과 우리나라는 비슷하면서도 다른 지식재산제도를 가지고 있기 때문에, 이에 대한 사전준비를 하지 않는다면 불측의 손해를 입을 수 있기에 특허 상표 및 디자인 관련 제도를 중심으로 양국 간 제도적 차이를 간단히 살펴보고자 한다.

  • PDF