• 제목/요약/키워드: Language model network

검색결과 372건 처리시간 0.023초

OWL DL을 사용한 GPM 핵심 모델의 구현 (Implementation of GPM Core Model Using OWL DL)

  • 최지웅;박호병;김형진;김명호
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권1호
    • /
    • pp.31-42
    • /
    • 2010
  • GPM(Generic Product Model)은 원자력 플랜트의 라이프 사이클 데이터를 통합, 공유하기 위하여 일본의 Hitachi에서 개발한 공통 데이터 모델이다. GPM은 추상 모델 성격의 GPM 핵심 모델과 핵심 모델의 기술을 위한 구현 언어 그리고 구현 언어로 작성된 참조 라이브러리로 구성되어 있다. GPM 핵심 모델은 객체들 사이의 의미가 부여된 관계 정의를 통하여 객체 의미 관계 네트워크 모델을 구성할 수 있는 특성이 있다. 초기의 GPM은 GPM 핵심 모델의 특성을 반영한 신택스의 GPML이라는 구현 언어를 개발하여 제공하였으나 원자력 플랜트 라이프 사이클동안 다양한 목적으로 GPM 데이터 모델에 접근하는 이기종 애플리케이션들과의 상호운용성을 위하여 XML을 기반으로 하는 GPM-XML로 교체되었다. 그러나 현재 GPM-XML을 사용하여 구축한 GPM 데이터 모델이 객체 의미 관계 네트워크 모델로서 활용되기 위한 GPM-XML 기반의 연구가 미비한 상태이다. 따라서 본 논문에서는 객체 의미 관계 네트워크와 유사한 성격의 온톨로지를 기술할 수 있으며 이를 지원하는 기술 표준 및 도구들이 이미 활용 가능한 수준에 있는 OWL을 GPM 핵심 모델을 위한 구현 언어로서 제안한다. OWL은 XML 기반의 RDF/XML 형식으로 기술될 수 있으므로 상호운용성 또한 보장받을 수 있다. 본 논문은 OWL의 세 가지 하위 언어 사양 중 추론기능을 완벽히 제공받을 수 있는 가운데 문법적 제약이 가장 덜 엄격한 OWL DL을 사용한다. 본 논문은 OWL DL을 GPM 핵심 모델의 구현 언어로서 사용하기 위하여 GPM과 OWL 두 모델 사이의 차이점을 도출한 후 이를 해소할 수 있는 방법을 제안하며 이 방법을 적용하여 GPML로 작성된 참조 라이브러리를 OWL DL 기반의 온톨로지로 변환하여 구축하는 방법을 기술한다.

Multi-task learning with contextual hierarchical attention for Korean coreference resolution

  • Cheoneum Park
    • ETRI Journal
    • /
    • 제45권1호
    • /
    • pp.93-104
    • /
    • 2023
  • Coreference resolution is a task in discourse analysis that links several headwords used in any document object. We suggest pointer networks-based coreference resolution for Korean using multi-task learning (MTL) with an attention mechanism for a hierarchical structure. As Korean is a head-final language, the head can easily be found. Our model learns the distribution by referring to the same entity position and utilizes a pointer network to conduct coreference resolution depending on the input headword. As the input is a document, the input sequence is very long. Thus, the core idea is to learn the word- and sentence-level distributions in parallel with MTL, while using a shared representation to address the long sequence problem. The suggested technique is used to generate word representations for Korean based on contextual information using pre-trained language models for Korean. In the same experimental conditions, our model performed roughly 1.8% better on CoNLL F1 than previous research without hierarchical structure.

网络流行语"X+人"探析 - 从"打工人", "尾款人", "工具人"等谈起

  • 유철
    • 중국학논총
    • /
    • 제71호
    • /
    • pp.41-59
    • /
    • 2021
  • With the progress of social economy and science and technology, network media technology has developed rapidly, China has ushered in the network information age, and the network buzzwords emerged to reflect the interaction and influence between language and society. The network buzzwords of "X+ ren "indirectly show the social psychology and value orientation of modern people with their unique structural characteristics, semantic connotation and cultural deposits, and so on. Based on this, we have conducted a multi-angle investigation on the network buzzwords "X+ ren". This paper first analyzes the structure types and syntactic functions of the lexical model of "X+ ren ", then makes a semantic analysis of the lexical model of "X+ Ren ", and finally investigates the causes and influences of the popularity of "X+ ren ". Through the investigation, we believe that "X+ ren "will continue to grow, and "X+ ren" will continue to attract the attention of the academic community.

분산 메모리 다중프로세서 환경에서의 병렬 음성인식 모델 (A Parallel Speech Recognition Model on Distributed Memory Multiprocessors)

  • 정상화;김형순;박민욱;황병한
    • 한국음향학회지
    • /
    • 제18권5호
    • /
    • pp.44-51
    • /
    • 1999
  • 본 논문에서는 음성과 자연언어의 통합처리를 위한 효과적인 병렬계산모델을 제안한다. 음소모델은 연속 Hidden Markov Model(HMM)에 기반을 둔 문맥종속형 음소를 사용하며, 언어모델은 지식베이스를 기반으로 한다. 또한 지식베이스를 구성하기 위해 계층구조의 semantic network과 병렬 marker-passing을 추론 메카니즘으로 쓰는 memory-based parsing 기술을 사용한다. 본 연구의 병렬 음성인식 알고리즘은 분산메모리 MIMD(Multiple Instruction Multiple Data) 구조의 다중 Transputer 시스템을 이용하여 구현되었다. 실험결과, 본 연구의 지식베이스 기반 음성인식 시스템의 인식률이 word network 기반 음성인식 시스템보다 높게 나타났으며 code-phoneme 통계정보를 활용하여 인식성능의 향상도 얻을 수 있었다. 또한, 성능향상도(speedup) 관련 실험들을 통하여 병렬 음성인식 시스템의 실시간 구현 가능성을 확인하였다.

  • PDF

LVLN: 시각-언어 이동을 위한 랜드마크 기반의 심층 신경망 모델 (LVLN : A Landmark-Based Deep Neural Network Model for Vision-and-Language Navigation)

  • 황지수;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권9호
    • /
    • pp.379-390
    • /
    • 2019
  • 본 논문에서는 시각-언어 이동 문제를 위한 새로운 심층 신경망 모델인 LVLN을 제안한다. LVLN 모델에서는 자연어 지시의 언어적 특징과 입력 영상 전체의 시각적 특징들 외에, 자연어 지시에서 언급하는 주요 장소와 랜드마크 물체들을 입력 영상에서 탐지해내고 이 정보들을 추가적으로 이용한다. 또한 이 모델은 자연어 지시 내 각 개체와 영상 내 각 관심 영역, 그리고 영상에서 탐지된 개별 물체 및 장소 간의 서로 연관성을 높일 수 있도록 맥락 정보 기반의 주의 집중 메커니즘을 이용한다. 그뿐만 아니라, LVLN 모델은 에이전트의 목표 도달 성공율을 향상시키기 위해, 목표를 향한 실질적인 접근을 점검할 수 있는 진척 점검기 모듈도 포함하고 있다. Matterport3D 시뮬레이터와 Room-to-Room (R2R) 벤치마크 데이터 집합을 이용한 다양한 실험들을 통해, 본 논문에서 제안하는 LVLN 모델의 높은 성능을 확인할 수 있었다.

순환 신경망 기반 언어 모델을 활용한 초등 영어 글쓰기 자동 평가 (Automatic Evaluation of Elementary School English Writing Based on Recurrent Neural Network Language Model)

  • 박영기
    • 정보교육학회논문지
    • /
    • 제21권2호
    • /
    • pp.161-169
    • /
    • 2017
  • 작성된 문서의 문법적 오류 교정을 할 때 맞춤법 검사기를 사용하는 것이 일반적이다. 그러나 초등학생들이 작성한 글 중에는 문법적으로는 옳더라도 자연스럽지 않은 문장이 있을 수 있다. 본 논문에서는 동일한 의미를 가진 2개의 문장이 주어졌을 때, 어떤 것이 더 자연스러운 문장인지 자동 판별할 수 있는 방법을 소개한다. 이 방법은 순환 신경망(recurrent neural network)을 이용하여 장기 의존성(long-term dependencies) 문제를 해결하고, 보조 단어(subword)를 사용하여 희소 단어(rare word) 문제를 해결한다. 약 200만 문장의 단일어 코퍼스를 통해 순환 신경망 기반 언어 모델을 학습하였다. 그 결과, 초등학생들이 주로 틀리는 표현들과 그에 대응하는 올바른 표현을 입력으로 주었을 때, 모든 경우에 대해 자연스러운 표현을 자동으로 선별할 수 있었다. 본 소프트웨어가 스마트 기기에 사용될 수 있는 형태로 구현된다면 실제 초등학교 현장에서 활용 가능할 것으로 기대된다.

Sentence-Chain Based Seq2seq Model for Corpus Expansion

  • Chung, Euisok;Park, Jeon Gue
    • ETRI Journal
    • /
    • 제39권4호
    • /
    • pp.455-466
    • /
    • 2017
  • This study focuses on a method for sequential data augmentation in order to alleviate data sparseness problems. Specifically, we present corpus expansion techniques for enhancing the coverage of a language model. Recent recurrent neural network studies show that a seq2seq model can be applied for addressing language generation issues; it has the ability to generate new sentences from given input sentences. We present a method of corpus expansion using a sentence-chain based seq2seq model. For training the seq2seq model, sentence chains are used as triples. The first two sentences in a triple are used for the encoder of the seq2seq model, while the last sentence becomes a target sequence for the decoder. Using only internal resources, evaluation results show an improvement of approximately 7.6% relative perplexity over a baseline language model of Korean text. Additionally, from a comparison with a previous study, the sentence chain approach reduces the size of the training data by 38.4% while generating 1.4-times the number of n-grams with superior performance for English text.

액티브 네트워크 응용의 검증 (Verifying Active Network Applications)

  • 박준철
    • 한국정보과학회논문지:정보통신
    • /
    • 제29권5호
    • /
    • pp.510-523
    • /
    • 2002
  • The routers in an active network perform customized computations on the messages flowing through them, while the role of routers in the traditional packet network, such as the Internet, is to passively forward packets as fast as possible. In contrast to the Internet, the processing in active networks can be customized on a per user or per application basis. Active networks allow users to inject information into the network, where the information describes or controls a program to be executed for the users by the routers as well as the end hosts. So the network users can realize the active networks by "programming" the network behavior via the programming interface exposed to them. In this paper, we devise a network protocol model and present a verification technique for reasoning about the correctness of an active application defined using the model. The technique is developed in a platform- and language-independent way, and it is algorithmic and can be automated by computer program. We give an example dealing with network auction to illustrate the use of the model and the verification technique.

반음절쌍과 변형된 연쇄 상태 분할을 이용한 연속 숫자 음 인식의 성능 향상 (Performance Improvement of Continuous Digits Speech Recognition Using the Transformed Successive State Splitting and Demi-syllable Pair)

  • 서은경;최갑근;김순협;이수정
    • 한국멀티미디어학회논문지
    • /
    • 제9권1호
    • /
    • pp.23-32
    • /
    • 2006
  • 본 논문에서는 언어모델과 음향모델을 개선함으로써 단위 숫자음의 인식성능 최적화에 대해 설명한다. 언어모델은 한국어 단위 숫자음 문장의 문법적 특징을 분석하고, Finile State Network(FSN) 노드를 두 음절로 구성하여 오 인식률을 감소시켰다. 음향모델은 단 음절로 구성되어 발성기간이 짧고 조음이 많이 생기는 불명확한 음소, 음절의 분할로 인한 오 인식을 줄이기 위해 인식단위를 반음절 쌍으로 하였다. 인식단위의 특징을 효과적으로 모델링하기 위해 특징부분에서 K-means 알고리즘으로 군집화 하여, 상태를 분할하는 변형된 연쇄 상태 분할방법을 이용하였다. 실험 결과 제안된 언어모델의 적용 후 동일 문맥종속 음소모델에서 10.5%, 음향모델에서 인식단위를 반음절 쌍으로 하였을 경우 문맥종속 음소모델에 비해 12.5%, 변형된 연쇄 상태분할을 하였을 경우 1.5%의 인식률을 향상시킬 수 있었다.

  • PDF

ORMN: 참조 표현 이해를 위한 심층 신경망 모델 (ORMN: A Deep Neural Network Model for Referring Expression Comprehension)

  • 신동협;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권2호
    • /
    • pp.69-76
    • /
    • 2018
  • 참조 표현이란 장면 영상 내의 특정 물체를 가리키는 자연어 문장들을 의미한다. 본 논문에서는 참조 표현 이해를 위한 새로운 심층 신경망 모델을 제안한다. 본 논문에서 제안하는 모델은 장면 영상 내 대상 물체의 영역을 찾아내기 위해, 참조 표현에서 언급하는 대상 물체뿐만 아니라 보조 물체, 그리고 대상 물체와 보조 물체 사이의 관계까지 풍부한 정보를 활용한다. 또한 제안 모델에서는 영상 내 각 후보 영역의 적합도 계산을 위해 물체 적합도와 관계 적합도를 참조 표현의 문장 구조에 따라 결합한다. 따라서, 본 모델은 크게 총 네 가지 서브 네트워크들로 구성된다: 언어 표현 네트워크(LRN), 물체 정합 네트워크(OMN), 관계 정합 네트워크(RMN), 그리고 가중 결합 네트워크(WCN). 본 논문에서는 세 가지 서로 다른 참조 표현 데이터집합들을 이용한 실험을 통해, 제안 모델이 현존 최고 수준의 참조 표현 이해 성능을 보인다는 것을 입증하였다.