• 제목/요약/키워드: entity normalization

검색결과 5건 처리시간 0.017초

Named entity normalization for traditional herbal formula mentions

  • Ho Jang
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권10호
    • /
    • pp.105-111
    • /
    • 2024
  • 본 논문에서는 의학 텍스트에 기술된 한의 처방명의 개체명 정규화 방법을 연구하였다. 구체적으로, 주어진 텍스트에서 개체명으로 인식된 처방 명칭과 처방의 약어 등 처방 멘션들이 동일한 처방 개념을 가리키는지를 판단하는 방법론을 연구하였다. 이를 위해 두 가지 접근 방식을 시도하였다. 먼저, 의학 텍스트에 등장하는 처방 멘션에 대해 BERT 기반의 문맥 벡터와 멘션의 문자 유사도 정보를 기계 학습 모델의 특징으로 사용하여, 두 멘션의 동일 여부를 판별하는 지도 학습 기반 분류 모델을 구축하였다. 다음으로, GPT-4o mini 및 GPT-4o 기반의 프롬프트 질의 방식을 활용하여 동일한 작업을 수행하였다. 두 방법 모두 Precision, Recall, F1-score에서 0.9 이상의 성능을 보였으나, GPT-4o 기반 방법이 가장 높은 Precision과 F1-Score를 기록하였다. 본 연구의 결과는 한의학 텍스트에서 개체명 정규화를 위한 기계 학습 기반 접근 방식이 유의미한 성능을 달성할 수 있음을 보여주며, 특히 GPT-4o 기반 방법이 뛰어난 Precision과 F1-Score를 보임으로써 향후 한의학 도메인에서 지능형 정보 추출 시스템 개발에 중요한 기초 자료로 활용될 수 있을 것으로 기대된다.

Improving methods for normalizing biomedical text entities with concepts from an ontology with (almost) no training data at BLAH5 the CONTES

  • Ferre, Arnaud;Ba, Mouhamadou;Bossy, Robert
    • Genomics & Informatics
    • /
    • 제17권2호
    • /
    • pp.20.1-20.5
    • /
    • 2019
  • Entity normalization, or entity linking in the general domain, is an information extraction task that aims to annotate/bind multiple words/expressions in raw text with semantic references, such as concepts of an ontology. An ontology consists minimally of a formally organized vocabulary or hierarchy of terms, which captures knowledge of a domain. Presently, machine-learning methods, often coupled with distributional representations, achieve good performance. However, these require large training datasets, which are not always available, especially for tasks in specialized domains. CONTES (CONcept-TErm System) is a supervised method that addresses entity normalization with ontology concepts using small training datasets. CONTES has some limitations, such as it does not scale well with very large ontologies, it tends to overgeneralize predictions, and it lacks valid representations for the out-of-vocabulary words. Here, we propose to assess different methods to reduce the dimensionality in the representation of the ontology. We also propose to calibrate parameters in order to make the predictions more accurate, and to address the problem of out-of-vocabulary words, with a specific method.

기업 전사 자료 설계에서 역정규화 중심 데이터 모델링의 부작용 (Negative Side Effects of Denormalization-Oriented Data Modeling in Enterprise-Wide Database Design)

  • 이혜경
    • 전자공학회논문지CI
    • /
    • 제43권6호
    • /
    • pp.17-25
    • /
    • 2006
  • 전산화 대상 규모가 확대되면서 새로운 방식의 데이터 모델링 방법론이 필요하게 됨에 따라 자료 설계라는 것에 최근 들어 1980년대 초반 못지 않게 이른 바 데이터 거버넌스 혹은 데이터 질 등의 화두의 모습으로 큰 관심이 재연되고 있다. 그러나 데이터 모델링에 대한 확고한 견해를 가지고 있지 못하기 때문에 막상 데이터베이스 설계를 실무적으로 소화해 내기에는 적지 않은 어려움을 겪게 된다 본 논문에서는 업무의 요구 형성/분석 단계부터 데이터베이스 구현까지 최종 단계까지를 체계적인 방법론을 통해 정보시스템의 데이터 모델을 창출하는 정규화 중시의NS방법론을 적용한 설계방법과 기존의 관행에 의해 역정규화를 어쩔 도리 없이 용인하고 마는 정보공학(Information Engineering, 약칭 IE)방법론 기반의 설계방법과 비교한다. 동일한 업무를 대상으로 설계된 데이터 설계 산출물을 기준으로 각종 측면에서 비교해 봄으로써 정규화 중시 기반의 체계적 방법론이 기업의 정보시스템의 성능 향상에 어느 정도 기여하는지를 정량 파악하였다. 비교 실험 결과, 개체 설정의 타당성, 설계의 균형성 지표인 사각고리형 경로 유무, 그리고 속성중복률 면에서 모두 NS방법론적 설계가 우수하였다.

분산 컴포넌트 명세를 통한 e-비즈니스 컴포넌트 구축 (The e-Business Component Construction based on Distributed Component Specification)

  • 김행곤;최하정;한은주
    • 정보처리학회논문지D
    • /
    • 제8D권6호
    • /
    • pp.705-714
    • /
    • 2001
  • 오늘날의 컴퓨팅 시스템은 인터넷을 사용하여 비즈니스 거래와 분산 업무 처리로 확대되어가고 있으며 정보 기술은 점차적 으로 재사용성과 독립성 그리고 이식성을 가진 컴포넌트를 기반으로 한 응용 개발이 확산되고 있다. 컴포넌트 개발 형태는 코드의 재사용이나 클래스 라이브러리보다 좀 더 발전된 형태의 부품개발 형태로서, CBD(Component Based Development)를 기초로 한다. 그러나, CBD를 이용하여 새로운 컴포넌트를 구축하는 비용의 증가와 함께 비즈니스 요구사항에 맞는 컴포넌트 개발을 위한 노력이 필요하다. 또한 빠르고 정확한 컴포넌트 정보를 웹 상에서 지원할 수 있도록 시스템 측면에서 정규화 형태의 컴포넌트 모델이 요구되고 있다. 본 논문에서는 사용자의 요구사항에 접근하고 웹 상에서 빠르고 신속하게 어플리케이션이 개발되는데 목적을 두고 있다. 네트워크상에서 비즈니스 도메인을 기반한 가장 소규모 단위의 분산 컴포넌트를 대상으로 인터페이스 명세를 제공한다. 컴포넌트 내부와 외부 관계를 담고 있는 명세는 사용자의 요구 사항을 정확하게 분석되도록 구성하며 이러한 명세는 비즈니스 도메인에서 재사용 가능한 정보 크기인 EJB(EnterpriseJavaBean)로 서블릿 시스템 내에서 세션과 엔티티 형태의 정보로 나누어 저장된다. 비즈니스 컴포넌트를 제공하기 위한 질의를 사용하여 비즈니스 컴포넌트를 이용할 수 있으며, 시스템은 차후에 등록, 자동 재배치, 조회, 테스트, 그리고 다운로드하여 컴포넌트를 제공받을 수 있는 환경 구축을 목표하며 이는 컴포넌트 재사용성을 증대시키며 비용을 절감하고 사용자가 분산 컴포넌트를 쉽게 사용할 수 있도록 하는데 목적을 둔다.

  • PDF

영구기록물관리를 위한 기록물 데이터베이스 스키마 개발 방향 (Directions for Developing Database Schema of Records in Archives Management Systems)

  • 임진희;이대욱;김은실;김익한
    • 기록학연구
    • /
    • 제34호
    • /
    • pp.57-105
    • /
    • 2012
  • 국가기록원 영구기록물관리시스템 CAMS(Central Archives Management System)는 2015년부터 매년 대량의 전자기록물을 이관받아 관리해야 할 중요한 시스템이다. CAMS 데이터베이스를 스키마 설계의 관점에서 진단해보고 전반적인 개선방향을 논의하는 일이 시급하다. CAMS 데이터베이스의 중심부분인 기록물철 및 기록물건 테이블을 살펴본 결과 두 테이블 모두 정규화가 되어 있지 않으며, 용도 불명의 칼럼들이 혼재하고 있어 기록물 데이터의 품질을 신뢰하기 어려운 상황임을 알 수 있었다. 이 논문에서는 다음과 같이 기록물철 및 기록물건 테이블의 정규화방향을 제시하였다. 첫째, 두 테이블 간 중복 항목을 최소화하는 방향으로 칼럼을 재배치할 것. 둘째, 분류체계 정보 항목을 별도 테이블로 분리할 것. 셋째, 기록물의 형태 및 유형별 기술 항목을 별도 테이블로 분리할 것. 넷째, 인수 및 인계, 보존처리 등 기록관리 과정의 기술 항목을 별도 테이블로 분리할 것. 나아가 이 논문에서는 기록물의 입수, 보존, 제공 단계별로 데이터베이스 스키마 설계 및 관리 시 고려할 사항을 제시하였다. 입수단에서는 매년 대량의 이관기록물을 정해진 기간 안에 일괄처리할 수 있어야 한다는 점, 보존단에서는 재분류, 재평가, 보존처리와 같은 다양한 관리이력을 남길 수 있어야 한다는 점, 제공단에서는 접근도구에 필요한 데이터를 정해야한다는 점 등을 논의하고 있다. 또한, 메타데이터 표준을 준수하는 방향에서 일부 개념 스키마를 개발하여 예시하고 있다.