• Title/Summary/Keyword: 정보 모델

Search Result 23,437, Processing Time 0.04 seconds

Context independent claim detection model using semantic and structural information of sentences (문장의 구조 정보와 의미 정보를 이용한 문맥 독립 주장 탐지 모델)

  • Won-Jae Park;Gi-Hyeon Choi;Hark-Soo Kim;Tae-il Kim;Sung-Won Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.437-441
    • /
    • 2022
  • 문맥 독립 주장 탐지는 논점에 대한 정보가 주어지지 않은 상황에서 문서 내부의 문장들 또는 단일 문장에 대한 주장을 탐지하는 작업이다. 본 논문에서는 GCN 계층을 통해 얻은 구조 정보와 사전 학습된 언어 모델을 통해 얻은 의미 정보를 활용하는 문맥 독립 주장 탐지 모델을 제안한다. 특히 문장의 전체 구조 정보를 나타내는 부모-자식 그래프와 문장의 특정 구조 정보를 나타내는 조부모-조손 그래프를 활용해 추가적인 구조 정보를 활용하여 주장 탐지 성능을 향상시켰다. 제안 모델은 IAM 데이터셋을 사용한 실험에서 기본 RoBERTa base 모델과 비교하여 최대 2.66%p의 성능 향상을 보였다.

  • PDF

MDA Model Transformation Using Metamodel (MDA모델 변환을 위한 메타모델 정의)

  • 이승연;신규상
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.289-291
    • /
    • 2003
  • MDA는 시스템을 구현 플랫폼 및 구현 기술과 독립적으로 설계할 수 있도록 지원하고, 설계된 모델을 다양한 플랫폼으로 매핑할 수 있도록 하여 재사용 및 통합을 용이하게 한다. 하지만, 플랫폼에 독립적으로 설계된 모델을 다양한 플랫폼에 매핑하려면, 해당 플랫폼에 종속적인 모델로 매핑하여야 하고, 추가적으로 생성해야 하는 모델 정보를 파악하여 코드와 일대일 매핑될 수 있도록 하여야 한다. 본 논문은 플랫폼에 독립적인 설계모델을 플랫폼에 맞게 변환하기 위하여 MOF(Meta-Object Facility)에 기반하여 매핑규칙을 정의할 수 있도록 변환 메타모델을 정의하고 이를 EJB 도메인에 적용해본다.

  • PDF

An Analysis of the Applications of the Language Models for Information Retrieval (정보검색에서의 언어모델 적용에 관한 분석)

  • Kim Heesop;Jung Youngmi
    • Journal of Korean Library and Information Science Society
    • /
    • v.36 no.2
    • /
    • pp.49-68
    • /
    • 2005
  • The purpose of this study is to examine the research trends and their experiment results on the applications of the language models for information retrieval. We reviewed the previous studies with the following categories: (1) the first generation of language modeling information retrieval (LMIR) experiments which are mainly focused on comparing the language modeling information retrieval with the traditional retrieval models in their retrieval performance, and (2) the second generation of LMIR experiments which are focused on comparing the expanded language modeling information retrieval with the basic language models in their retrieval performance. Through the analysis of the previous experiments results, we found that (1) language models are outperformed the probabilistic model or vector space model approaches, and (2) the expended language models demonstrated better results than the basic language models in their retrieval performance.

  • PDF

Clinical Contents Model to Ensure Semantic Interoperability of Clinical Information (의료정보의 의미적 상호운용성 보장을 위한 임상콘텐츠 모델)

  • Ahn, Sun-Ju;Kim, Yoon;Yun, Ji-Hyun;Ryu, Sang-Hee;Cho, Kyoung-Hee;Kim, Seong-Woo;Kim, Seung-Soo;Kwak, Mi-Sook;Yu, Seung-Jong;Koh, Young-Taeg;Choi, Duck-Joo
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.12
    • /
    • pp.871-881
    • /
    • 2010
  • Objective: A clinical contents model is an essential data model to exchange clinical data, among existing computer systems and enhance consistency of necessary data, in terms of its meaning and reusability. However, there has not been a domestic case where such clinical model is developed till present. Methods and Results: This research is based on determining principles of developing clinical information model which is a specified model of Health level 7 Reference Information Model and attempts to identify clinical contents with types of ENTITY-ATTRIBUTE-VALUE, based on terminology standard by clinicians and domain modelers. Conclusion: This model is projected to be utilized in the next generation of EMR as core contents.

Korean Dependency Parser using Stack-Pointer Network and Information of Word Units (스택-포인터 네트워크와 어절 정보를 이용한 한국어 의존 구문 파서)

  • Choi, Yong-seok;Lee, Kong Joo
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.13-18
    • /
    • 2018
  • 구문 분석은 문장의 구조를 이해하며 의미의 중의성을 해결하는 것이다. 일반적으로 한국어는 어순 배열의 자유도가 높고 문장 성분의 생략이 빈번한 특성이 있기 때문에 의존 구문 분석이 주된 연구 대상이 되어 왔다. 스택-포인터 네트워크 모델은 의존 구문 파서에 맞게 포인터 네트워크 모델을 확장한 것이다. 스택-포인터 네트워크는 각 단어에서 의존소를 찾는 하향식 방식의 모델로 기존 모델의 장점을 유지하면서 각 단계에서 파생된 트리 정보도 사용한다. 본 연구에서는 스택-포인터 네트워크 모델을 한국어에 적용해보고 이와 함께 어절 정보를 반영하는 방법을 제안한다. 모델의 실험 결과는 세종 구문 구조를 중심어 후위(head-final)를 엄격히 준수하여 의존 구문 구조로 변환한 것을 기준으로 UAS 92.65%의 정확도를 얻었다.

  • PDF

Sequential Sentence Classification Model based on ELECTRA (ELECTRA 기반 순차적 문장 분류 모델)

  • Choi, Gi-Hyeon;Kim, Hark-Soo;Yang, Seong-Yeong;Jeong, Jae-Hong;Lim, Tae-Gu;Kim, Jong-Hoon;Park, Chan-Kyu
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.327-330
    • /
    • 2020
  • 순차적 문장 분류는 여러 문장들을 입력으로 받아 각 문장들에 대하여 사전 정의된 라벨을 할당하는 작업을 말한다. 일반적인 문장 분류와 대조적으로 기준 문장과 주변 문장 사이의 문맥 정보가 분류에 큰 영향을 준다. 따라서 입력 문장들 사이의 문맥 정보를 반영하는 과정이 필수적이다. 최근, 사전 학습 기반 언어 모델의 등장 이후 여러 자연 언어 처리 작업에서 큰 성능 향상이 있었다. 앞서 언급하였던 순차적 문장 분류 작업의 특성상 문맥 정보를 반영한 언어 표현을 생성하는 사전 학습 기반 언어 모델은 해당 작업에 매우 적합하다는 가설을 바탕으로 ELECTRA 기반 순차적 분류 모델을 제안하였다. PUBMED-RCT 데이터 셋을 사용하여 실험한 결과 제안 모델이 93.3%p로 가장 높은 성능을 보였다.

  • PDF

A Security Evaluation Model On Multiple Protection Countermeasures (다중보호대책에 대한 보안성 평가모델)

  • 오경희
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.8 no.3
    • /
    • pp.3-15
    • /
    • 1998
  • 본 논문에서는 다중보호대책으로 구성된 정보보호시스템의 보호효과를 평가하기 위한 새로운 모델을 제안한다. 제안한 모델은 정보보호시스템이 요구되는 보호수준에 부합하는지 결정할 수 있게 하며, 또한 구축된 정보보호시스템의 위혐분석을 위하여 활용될 수 있다.

Context Driven Component Model Supporting Scalability of Context (상황정보의 확장성을 지원하는 상황정보 기반 컴포넌트 모델)

  • Yoon, Hoi-Jin;Choi, Byoung-Ju
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.13 no.1
    • /
    • pp.24-34
    • /
    • 2007
  • Since Context Driven Component model is based on the idea that a context-aware application consists of the components that are context sensitive and the components that do not depend on the context, it divides the context sensitive part into components according to which context information they are related to. The model supports the scalability of context information by building an application through composing Context Driven Components. Furthermore, it solves the embeddedness of context information inside the application logic. To show the contributions of the model, this paper applies it to Call-forwarding application, and analyses how the model supports the scalability and the embeddedness.

Disambiguation on the Analysis of Korean Complex Nominals, Using Probabilistic CFG Parsing (확률적 CFG 파싱을 활용한 한국어 복합명사 구조 분석의 중의성 해소)

  • Kim, Dong-Sung
    • Annual Conference on Human and Language Technology
    • /
    • 2011.10a
    • /
    • pp.61-66
    • /
    • 2011
  • 본 논문은 한국어 복합명사 구조의 분석을 목적으로 한다. 연구는 이론 언어학뿐만이 아니라 정보처리, 정보검색과 같은 언어의 전산적 처리에서도 중요한다. 복합명사 구조는 크게 외심구조와 내심구조로 나뉘며 내심구조의 경우에 좌분지나 우분지 구조로 분석이 되어야 하는 중의성이 있다. 기존의 Lauer 모델은 사전적 정보에서 발견되는 확률 정보를 구조 정보에 연결하기 위한 모델로 의존모델과 인접모델을 제시하였다. 본 연구에서는 구조에 기반을 둔 확률정보를 결합하기 위한 확률적 CFG 파싱 방법을 활용하고자 하였다. 이를 위해서 실제 코퍼스상에서 발견되는 복합명사 패턴을 대상으로 구조적 분석을 화자 직관을 통해서 진행하고, 이를 다시 Lauer 모델과 확률적 CFG 파싱 방법 응용과 비교해 보았다. 결과적으로 화자 직관에 가장 일치한 예측을 하였으며, 구조에 대한 정보 해석이 가능하였다.

  • PDF

KorSciDeBERTa: A Pre-trained Language Model Based on DeBERTa for Korean Science and Technology Domains (KorSciDeBERTa: 한국어 과학기술 분야를 위한 DeBERTa 기반 사전학습 언어모델)

  • Seongchan Kim;Kyung-min Kim;Eunhui Kim;Minho Lee;Seungwoo Lee;Myung-Seok Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.704-706
    • /
    • 2023
  • 이 논문에서는 과학기술분야 특화 한국어 사전학습 언어모델인 KorSciDeBERTa를 소개한다. DeBERTa Base 모델을 기반으로 약 146GB의 한국어 논문, 특허 및 보고서 등을 학습하였으며 모델의 총 파라미터의 수는 180M이다. 논문의 연구분야 분류 태스크로 성능을 평가하여 사전학습모델의 유용성을 평가하였다. 구축된 사전학습 언어모델은 한국어 과학기술 분야의 여러 자연어처리 태스크의 성능향상에 활용될 것으로 기대된다.

  • PDF