• 제목/요약/키워드: 어휘모델

검색결과 306건 처리시간 0.024초

지휘통제 관련 정보교환모델 비교분석 및 시사점 (Comparative Analysis and Implications of Command and Control(C2)-related Information Exchange Models)

  • 김건영;박규동;손미애
    • 인터넷정보학회논문지
    • /
    • 제23권6호
    • /
    • pp.59-69
    • /
    • 2022
  • 효과적인 전장상황 인식 및 지휘결심을 위해서는 체계 간의 솔기없는 정보교환이 핵심적이다. 그러나 각 체계는 각자의 목적에 맞게 독립적으로 개발되었기 때문에, 효과적으로 정보를 교환하기 위해서는 체계 간 상호운용성을 보장하여야 한다. 우리 군의 경우 데이터 교환을 위한 공통 메시지 포맷을 활용함으로써 문법적 상호운용성(Syntactic interoperability)을 보장하고 있다. 그러나 단순히 교환되는 데이터의 형식을 표준화하는 것으로는 체계 간 상호운용성을 충분히 보장할 수 없다. 현재 미국과 NATO에서는 데이터 교환 형식을 보장하는 데에서 더 나아가 의미적 상호운용성(Semantic interoperability)을 달성하기 위해 정보교환모델을 개발·활용하고 있다. 정보교환모델은 공통 어휘(Common vocabulary) 또는 참조 모델(Reference model)로, 체계 간에 정보 교환을 내용적·의미적인 수준에서 보장하기 위해 활용된다. 미국에서 개발·활용하는 정보교환모델은 초기에는 전장상황과 직접 관련된 정보를 교환하는 데에 초점을 맞추었으나, 이후 각 정부 부처 및 민간 기관이 함께 활용할 수 있는 범용적인 형태로 발전되었다. 반면 NATO의 경우 이에 속한 각 국가의 군 간 연합 작전을 수행하는 데에 필요한 개념을 엄격히 표현하는 데에 초점을 맞추었으며, 모델의 범위 역시 지휘통제에 관련된 개념으로 한정되었다. 본 논문에서는 미국과 NATO에서 개발·활용하였던 정보교환모델의 개발 배경, 목적 및 특성을 식별하였고, 이들의 비교분석을 수행하였다. 이를 통해 추후 한국형 정보교환모델 개발 시 시사점을 제시하고자 한다.

저사양 기기를 위한 한국어 자동 띄어쓰기 시스템 (An Automatic Korean Word Spacing System for Devices with Low Computing Power)

  • 송영길;김학수
    • 정보처리학회논문지B
    • /
    • 제16B권4호
    • /
    • pp.333-340
    • /
    • 2009
  • 대부분의 기존 자동 띄어쓰기 시스템들은 많은 시스템 자원을 필요로 하기 때문에 상대적으로 낮은 컴퓨팅 파워를 가진 모바일 기기에 사용하기에는 적합하지 않다. 본 논문에서는 저사양 모바일 기기에 맞도록 메모리 사용량이 적고 수치 계산이 단순한 자동 띄어쓰기 시스템을 제안한다. 제안 시스템은 통계 기반 시스템과 규칙 기반 시스템으로 구성된 2단계 모델이다. 메모리 사용량을 줄이기 위해서 통계 기반 시스템이 음절 유니그램 기반의 개량된 은닉 마코프 모델을 사용하여 띄어쓰기 오류를 1차로 수정한다. 다음으로 정밀도 향상을 위해서 규칙 기반 시스템이 음절 바이그램 이상의 어휘 규칙을 이용하여 잘못 수정된 띄어쓰기 오류를 재보정한다. 실험 결과에 따르면 제안시스템은 1MB를 조금 넘는 메모리 사용하면서도 94.14%라는 비교적 높은 정밀도를 보였다.

단어 의미와 자질 거울 모델을 이용한 단어 임베딩 (A Word Embedding used Word Sense and Feature Mirror Model)

  • 이주상;신준철;옥철영
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권4호
    • /
    • pp.226-231
    • /
    • 2017
  • 단어 표현은 기계학습을 사용하는 자연어 처리 분야에서 중요하다. 단어 표현은 단어를 텍스트가 아닌 컴퓨터가 분별할 수 있는 심볼로 표현하는 방법이다. 기존 단어 임베딩은 대량의 말뭉치를 이용하여 문장에서 학습할 단어의 주변 단어를 이용하여 학습한다. 하지만 말뭉치 기반의 단어 임베딩은 단어의 등장 빈도수나 학습할 단어의 수를 늘리기 위해서는 많은 양의 말뭉치를 필요로 한다. 본 논문에서는 말뭉치 기반이 아닌 단어의 뜻풀이와 단어의 의미 관계(상위어, 반의어)를 이용하며 기존 Word2Vec의 Skip-Gram을 변형한 자질거울모델을 사용하여 단어를 벡터로 표현하는 방법을 제시한다. 기존 Word2Vec에 비해 적은 데이터로 많은 단어들을 벡터로 표현 가능하였으며 의미적으로 유사한 단어들이 비슷한 벡터를 형성하는 것을 확인할 수 있다. 그리고 반의어 관계에 있는 두 단어의 벡터가 구분되는 것을 확인할 수 있다.

가변 신뢰도 문턱치를 사용한 미등록어 거절 알고리즘에 대한 연구 (A Study on Out-of-Vocabulary Rejection Algorithms using Variable Confidence Thresholds)

  • 방기덕;강철호
    • 한국멀티미디어학회논문지
    • /
    • 제11권11호
    • /
    • pp.1471-1479
    • /
    • 2008
  • 본 논문에서는 음성인식 분야에서 많이 사용되고 있는 가변어휘 단어 인식 시스템에서 미등록어에 대한 거절 성능을 향상시키는 방법을 제안한다. 거절 기능을 구현하는 방식은 핵심어 검출(keyword spotting)방식과 발화검증(utterance verification)으로 구분이 된다. 발화 검증 방식은 각 음소마다 이와 유사한 반음소모델(anti-phoneme model)을 생성한 후 정상적인 음소 모델과 반음소 모델의 유사도를 비교하여 결정하는 방식이다. 본 논문에서는 화자가 발성할 때마다 구해지는 화자확인 확률값을 신뢰도 문턱치를 결정할 때 적용하는 방법에 대하여 제안하였다. 제안한 방법을 사용하였을 때, 사무실 환경에서 CA(Correctly Accepted for keyword)가 94.23%, CR(Correctly Rejected for out-of-vocabulary)이 95.11%로 나타났고, 잡음 환경에서는 CA가 91.14%, CR이 92.74%로 나타나서 성능이 향상됨을 확인할 수 있었다.

  • PDF

마코프 체인 밀 음절 N-그램을 이용한 한국어 띄어쓰기 및 복합명사 분리 (Korean Word Segmentation and Compound-noun Decomposition Using Markov Chain and Syllable N-gram)

  • 권오욱
    • 한국음향학회지
    • /
    • 제21권3호
    • /
    • pp.274-284
    • /
    • 2002
  • 한국어 대어휘 연속음성인식을 위한 텍스트 전처리에서 띄어쓰기 오류는 잘못된 단어를 인식 어휘에 포함시켜 언어모델의 성능을 저하시킨다. 본 논문에서는 텍스트 코퍼스의 띄어쓰기 교정을 위하여 한국어 음절 N-그램을 이용한 자동 띄어쓰기 알고리듬을 제시한다. 제시된 알고리듬에서는 주어진 입력음절열은 좌에서 우로의 천이만을 갖는 마코프 체인으로 표시되고 어떤 상태에서 같은 상태로의 천이에서 공백음절이 발생하며 다른 상태로의 천이에서는 주어진 음절이 발생한다고 가정한다. 마코프 체인에서 음절 단위 N-그램 언어모델에 의한 문장 확률이 가장 높은 경로를 찾음으로써 띄어쓰기 결과를 얻는다. 모든 공백을 삭제한 254문장으로 이루어진 신문 칼럼 말뭉치에 대하여 띄어쓰기 알고리듬을 적용한 결과 91.58%의 어절단위 정확도 및 96.69%의 음절 정확도를 나타내었다. 띄어쓰기 알고리듬을 응용한 줄바꿈에서의 공백 오류 처리에서 이 알고리듬은 91.00%에서 96.27%로 어절 정확도를 향상시켰으며, 복합명사 분리에서는 96.22%의 분리 정확도를 보였다.

반복적 기법을 사용한 그래프 기반 단어 모호성 해소 (Graph-Based Word Sense Disambiguation Using Iterative Approach)

  • 강상우
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제13권2호
    • /
    • pp.102-110
    • /
    • 2017
  • 최근 자연어 처리 분야에서 단어의 모호성을 해소하기 위해서 다양한 기계 학습 방법이 적용되고 있다. 지도 학습에 사용되는 데이터는 정답을 부착하기 위해 많은 비용과 시간이 필요하므로 최근 연구들은 비지도 학습의 성능을 높이기 위한 노력을 지속적으로 시도하고 있다. 단어 모호성 해소(word sense disambiguation)를 위한 비지도 학습연구는 지식 기반(knowledge base)를 이용한 방법들이 주목받고 있다. 이 방법은 학습 데이터 없이 지식 기반의 정보을 이용하여 문장 내에서 모호성을 가지는 단어의 의미를 결정한다. 지식 기반을 이용한 방법에는 그래프 기반방식과 유사도 기반 방법이 대표적이다. 그래프 기반 방법은 모호성을 가지는 단어와 그 단어가 가지는 다양한 의미들의 집합 간의 모든 경로에 대한 의미 그래프를 구축한다는 장점이 있지만 불필요한 의미 경로가 추가되어 오류를 증가시킨다는 단점이 있다. 이러한 문제를 해결하기 위해 본 논문에서는 그래프 구축을 위해 불필요한 간선들을 배제하면서 반복적으로 그래프를 재구축하는 모델을 제안한다. 또한, 구축된 의미 그래프에서 더욱 정확한 의미를 예측하기 위해 하이브리드 유사도 예측 모델을 적용한다. 또한 제안된 모델은 다국어 어휘 의미망 사전인 BabelNet을 사용하기 때문에 특정 언어뿐만 아니라 다양한 언어에도 적용 가능하다.

한국어 기계 독해를 위한 언어 모델의 효과적 토큰화 방법 탐구 (Exploration on Tokenization Method of Language Model for Korean Machine Reading Comprehension)

  • 이강욱;이해준;김재원;윤희원;유원호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.197-202
    • /
    • 2019
  • 토큰화는 입력 텍스트를 더 작은 단위의 텍스트로 분절하는 과정으로 주로 기계 학습 과정의 효율화를 위해 수행되는 전처리 작업이다. 현재까지 자연어 처리 분야 과업에 적용하기 위해 다양한 토큰화 방법이 제안되어 왔으나, 주로 텍스트를 효율적으로 분절하는데 초점을 맞춘 연구만이 이루어져 왔을 뿐, 한국어 데이터를 대상으로 최신 기계 학습 기법을 적용하고자 할 때 적합한 토큰화 방법이 무엇일지 탐구 해보기 위한 연구는 거의 이루어지지 않았다. 본 논문에서는 한국어 데이터를 대상으로 최신 기계 학습 기법인 전이 학습 기반의 자연어 처리 방법론을 적용하는데 있어 가장 적합한 토큰화 방법이 무엇인지 알아보기 위한 탐구 연구를 진행했다. 실험을 위해서는 대표적인 전이 학습 모형이면서 가장 좋은 성능을 보이고 있는 모형인 BERT를 이용했으며, 최종 성능 비교를 위해 토큰화 방법에 따라 성능이 크게 좌우되는 과업 중 하나인 기계 독해 과업을 채택했다. 비교 실험을 위한 토큰화 방법으로는 통상적으로 사용되는 음절, 어절, 형태소 단위뿐만 아니라 최근 각광을 받고 있는 토큰화 방식인 Byte Pair Encoding (BPE)를 채택했으며, 이와 더불어 새로운 토큰화 방법인 형태소 분절 단위 위에 BPE를 적용하는 혼합 토큰화 방법을 제안 한 뒤 성능 비교를 실시했다. 실험 결과, 어휘집 축소 효과 및 언어 모델의 퍼플렉시티 관점에서는 음절 단위 토큰화가 우수한 성능을 보였으나, 토큰 자체의 의미 내포 능력이 중요한 기계 독해 과업의 경우 형태소 단위의 토큰화가 우수한 성능을 보임을 확인할 수 있었다. 또한, BPE 토큰화가 종합적으로 우수한 성능을 보이는 가운데, 본 연구에서 새로이 제안한 형태소 분절과 BPE를 동시에 이용하는 혼합 토큰화 방법이 가장 우수한 성능을 보임을 확인할 수 있었다.

  • PDF

주가지수 방향성 예측을 위한 주제지향 감성사전 구축 방안 (Predicting the Direction of the Stock Index by Using a Domain-Specific Sentiment Dictionary)

  • 유은지;김유신;김남규;정승렬
    • 지능정보연구
    • /
    • 제19권1호
    • /
    • pp.95-110
    • /
    • 2013
  • 최근 다양한 소셜미디어를 통해 생성되는 비정형 데이터의 양은 빠른 속도로 증가하고 있으며, 이를 저장, 가공, 분석하기 위한 도구의 개발도 이에 맞추어 활발하게 이루어지고 있다. 이러한 환경에서 다양한 분석도구를 통해 텍스트 데이터를 분석함으로써, 기존의 정형 데이터 분석을 통해 해결하지 못했던 이슈들을 해결하기 위한 많은 시도가 이루어지고 있다. 특히 트위터나 페이스북을 통해 실시간에 근접하게 생산되는 글들과 수많은 인터넷 사이트에 게시되는 다양한 주제의 글들은, 방대한 양의 텍스트 분석을 통해 많은 사람들의 의견을 추출하고 이를 통해 향후 수익 창출에 기여할 수 있는 새로운 통찰을 발굴하기 위한 움직임에 동기를 부여하고 있다. 뉴스 데이터에 대한 오피니언 마이닝을 통해 주가지수 등락 예측 모델을 제안한 최근의 연구는 이러한 시도의 대표적 예라고 할 수 있다. 우리가 여러 매체를 통해 매일 접하는 뉴스 역시 대표적인 비정형 데이터 중의 하나이다. 이러한 비정형 텍스트 데이터를 분석하는 오피니언 마이닝 또는 감성 분석은 제품, 서비스, 조직, 이슈, 그리고 이들의 여러 속성에 대한 사람들의 의견, 감성, 평가, 태도, 감정 등을 분석하는 일련의 과정을 의미한다. 이러한 오피니언 마이닝을 다루는 많은 연구는, 각 어휘별로 긍정/부정의 극성을 규정해 놓은 감성사전을 사용하며, 한 문장 또는 문서에 나타난 어휘들의 극성 분포에 따라 해당 문장 또는 문서의 극성을 산출하는 방식을 채택한다. 하지만 특정 어휘의 극성은 한 가지로 고유하게 정해져 있지 않으며, 분석의 목적에 따라 그 극성이 상이하게 나타날 수도 있다. 본 연구는 특정 어휘의 극성은 한 가지로 고유하게 정해져 있지 않으며, 분석의 목적에 따라 그 극성이 상이하게 나타날 수도 있다는 인식에서 출발한다. 동일한 어휘의 극성이 해석하는 사람의 입장에 따라 또는 분석 목적에 따라 서로 상이하게 해석되는 현상은 지금까지 다루어지지 않은 어려운 이슈로 알려져 있다. 구체적으로는 주가지수의 상승이라는 한정된 주제에 대해 각 관련 어휘가 갖는 극성을 판별하여 주가지수 상승 예측을 위한 감성사전을 구축하고, 이를 기반으로 한 뉴스 분석을 통해 주가지수의 상승을 예측한 결과를 보이고자 한다.

조선시대 선생안 온톨로지 설계 (Ontology Design for the Register of Officials(先生案) of the Joseon Period)

  • 김사현
    • 동양고전연구
    • /
    • 제69호
    • /
    • pp.115-146
    • /
    • 2017
  • 본고는 조선시대 선생안의 디지털 아카이브를 위한 온톨로지(Ontology) 설계에 관한 연구이다. 선생안(先生案)은 조선시대 각 관청에서 소속 관원(官員)의 인적사항 및 인사이동을 기록한 일종의 인명부(人名簿)이다. 일반적으로 관원의 성명(姓名), 생년(生年), 자(字), 본관(本貫) 등의 인적사항 정보와 관직(官職), 제배일(除拜日), 도임일(到任日), 체임일(遞任日), 체임사유(遞任事由) 등의 인사이동 정보가 기록되어 있다. 현전(現傳)하고 있는 선생안은 국 내외 도서관 및 박물관에 소장되어 있으며 그 수는 176종으로 알려져 있다. 이 중에서 한국학중앙연구원 장서각에 소장된 47건의 선생안을 대상으로 선생안의 내용 및 구조를 검토하고, 선생안의 소장처, 선생안 기록 주체인 관청, 기록된 관직, 관원 등 관련 있는 주변의 내용을 담아낼 수 있는 온톨로지를 설계한다. 조선시대 선생안 온톨로지는 실물자료인 선생안 소장정보와 선생안에 기록된 내용의 특징을 반영해 관원, 관청, 인사이동에 초점을 맞추어 설계하였다. 온톨로지 설계는 대상자원을 클래스(Class)로 범주화 하고, 범주에 속하는 개체들(Individuals)은 공통의 속성(Attribute)를 갖도록 하였다. 그리고 각각의 개체들은 다른 개체와의 관계(Relation)를 명시적으로 표현할 수 있는 의미적인 관계어를 정의하였다. 클래스는 '선생안', '인물', '관청', '관직', '장소', '과거(科擧)', '기록', '개념' 등 8개로 범주화하였다. 관계, 속성의 설계는 기존에 설계되어 활용되고 있는 '더블린코어(Doublin Core)', '유로피아나데이터모델(Europeana Data Mode)', 'CIDOC-CRM', '과거 합격자 데이터베이스를 위한 데이터 모델' 등의 어휘를 참조하여 설계하였다. 기존 데이터모델에서 설계한 어휘를 사용한 경우에는 해당 데이터모델의 이름 공간(Namespace)을 사용하였으며, 필요한 경우 필자가 관계를 정의하였다. 설계한 온톨로지는 명릉선생안(明陵先生案)으로 구현 예시를 보이고, 하나의 선생안에서 다수의 선생안으로 대상을 확대하여 정보를 입력하였을 때 기대되는 효과와 활용 방안에 대해 모색해 보았다. 조선시대 선생안 온톨로지는 현전하는 선생안 176종 모두를 검토하여 설계된 것이 아니기 때문에 완벽한 온톨로지로써 기능하기에는 무리가 있다. 지속적으로 선생안의 정보가 입력되는 과정에서 온톨로지 모델의 수정 및 보완이 필요하며, 그 지향점은 선생안에 기록된 정보들을 체계적으로 정리하기 위한 것도 있지만, 선생안에서 확인되는 인물, 관직 등의 정보 요소가 이미 서비스 구축 되었거나, 향후 제작될 조선시대 인물에 관한 데이터베이스 혹은 아카이브와 연계될 수 있는 것도 고려해야 할 것이다. 조선시대 선생안 온톨로지로 입력된 정보는 조선시대 관청 운영과 인사시스템을 볼 수 있는 일면으로 활용되고, 이미 구축된 여타 조선시대와 관련된 데이터베이스와 연계되어 조선시대의 정치 경제 사회 문화를 종합적으로 이해하는 자료의 하나로 기능하기를 기대한다.

치매 환자를 포함한 한국 노인 음성 데이터 딥러닝 기반 음성인식 (Deep learning-based speech recognition for Korean elderly speech data including dementia patients)

  • 문정현;강준서;김기웅;배종빈;이현준;임창원
    • 응용통계연구
    • /
    • 제36권1호
    • /
    • pp.33-48
    • /
    • 2023
  • 본 연구에서는 발화자가 동물이나 채소와 같은 일련의 단어를 무작위로 일 분 동안 말하는 한국어 음성 데이터에 대한 자동 음성 인식(ASR) 문제를 고려하였다. 발화자의 대부분은 60세 이상의 노인이며 치매 환자를 포함하고 있다. 우리의 목표는 이러한 데이터에 대한 딥러닝 기반 자동 음성 인식 모델을 비교하고 성능이 좋은 모델을 찾는 것이다. 자동 음성 인식은 컴퓨터가 사람이 말하는 말을 자동으로 인식하여 음성을 텍스트로 변환할 수 있는 기술이다. 최근 들어 자동 음성 인식 분야에서 성능이 좋은 딥러닝 모델들이 많이 개발되어 왔다. 이러한 딥러닝 모델을 학습시키기 위한 데이터는 대부분 대화나 문장 형식으로 이루어져 있다. 게다가, 발화자들 대부분은 어휘를 정확하게 발음할 수 있어야 한다. 반면에, 우리 데이터의 발화자 대부분은 60세 이상의 노인으로 발음이 부정확한 경우가 많다. 또한, 우리 데이터는 발화자가 1분 동안 문장이 아닌 일련의 단어를 무작위로 말하는 한국어 음성 데이터이다. 따라서 이러한 일반적인 훈련 데이터를 기반으로 한 사전 훈련 모델은 본 논문에서 고려하는 우리 데이터에 적합하지 않을 수 있으므로, 우리는 우리의 데이터를 사용하여 딥러닝 기반 자동 음성 인식 모델을 처음부터 훈련한다. 또한 데이터 크기가 작기 때문에 일부 데이터 증강 방법도 적용한다.