• 제목/요약/키워드: Word Input

검색결과 225건 처리시간 0.026초

Text Summarization on Large-scale Vietnamese Datasets

  • Ti-Hon, Nguyen;Thanh-Nghi, Do
    • Journal of information and communication convergence engineering
    • /
    • 제20권4호
    • /
    • pp.309-316
    • /
    • 2022
  • This investigation is aimed at automatic text summarization on large-scale Vietnamese datasets. Vietnamese articles were collected from newspaper websites and plain text was extracted to build the dataset, that included 1,101,101 documents. Next, a new single-document extractive text summarization model was proposed to evaluate this dataset. In this summary model, the k-means algorithm is used to cluster the sentences of the input document using different text representations, such as BoW (bag-of-words), TF-IDF (term frequency - inverse document frequency), Word2Vec (Word-to-vector), Glove, and FastText. The summary algorithm then uses the trained k-means model to rank the candidate sentences and create a summary with the highest-ranked sentences. The empirical results of the F1-score achieved 51.91% ROUGE-1, 18.77% ROUGE-2 and 29.72% ROUGE-L, compared to 52.33% ROUGE-1, 16.17% ROUGE-2, and 33.09% ROUGE-L performed using a competitive abstractive model. The advantage of the proposed model is that it can perform well with O(n,k,p) = O(n(k+2/p)) + O(nlog2n) + O(np) + O(nk2) + O(k) time complexity.

순환 신경망에서 LSTM 블록을 사용한 영어와 한국어의 시편 생성기 비교 (Psalm Text Generator Comparison Between English and Korean Using LSTM Blocks in a Recurrent Neural Network)

  • 에런 스노버거;이충호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.269-271
    • /
    • 2022
  • 최근 몇 년 동안 LSTM 블록이 있는 RNN 네트워크는 순차적 데이터를 처리하는 기계 학습 작업에 광범위하게 사용되어왔다. 이러한 네트워크는 주어진 시퀀스에서 가능성이 다음으로 가장 높은 단어를 기존 신경망보다 더 정확하게 예측할 수 있기 때문에 순차적 언어 처리 작업에서 특히 우수한 것으로 입증되었다. 이 연구는 영어와 한국어로 된 150개의 성경 시편에 대한 세 가지 다른 번역에 대해 RNN/LSTM 신경망을 훈련하였다. 그런 다음 결과 모델에 입력 단어와 길이 번호를 제공하여 훈련 중에 인식한 패턴을 기반으로 원하는 길이의 새 시편을 자동으로 생성하였다. 영어 텍스트와 한국어 텍스트에 대한 네트워크 훈련 결과를 상호 비교하고 개선할 점을 기술한다.

  • PDF

OFDMA/TDD 시스템의 하향링크 빔형성 송신기 설계 (Design of Downlink Beamforming Transmitter in OFDMA/ TDD system)

  • 박형숙;박윤옥;김철성
    • 한국통신학회논문지
    • /
    • 제31권5A호
    • /
    • pp.493-500
    • /
    • 2006
  • 논문은 OFDMA/TDD 시스템에서 하향링크 빔 형성 송신기의 효율적인 구조와 설계 변수의 최적화에 대하여 고찰하였다. 다수의 송신 안테나를 사용하는 하향링크 빔 형성 송신기 설계에 있어 다수의 사용자에 대한 효율적인 빔 형성 구조 설계와 송신기 블록의 word-length 는 송신기의 성능과 하드웨어 복잡도 측면에서 중요한 설계 변수가 된다. 본 논문에서는 기지국 수신에서 사용자 구분 없이 부반송파별 가중치만 메모리에 저장하고, IFFT 입력의 부반송파 단위에서 사용자에 따라 할당된 부반송파의 가중치를 고속으로 계산하여 적용하는 효율적인 빔형성기 구조를 제시하였다. 또한, 고정 소수점 시뮬레이션을 통하여 최적의 설계 변수를 분석하였다. 제시한 구조는 프레임 당 최대 사용자 수에 비례하게 메모리를 줄일 수 있으며, 또한 기지국 수신에서 사용자 제어 없이 FFT 출력을 바로 송신에 적용하여 OFDM 한 심볼의 처리 시간을 줄일 수 있고 송신기에서 빔 형성 계산은 별도의 처리 시간을 요구하지 않는 장점이 있다.

VQ와 Fuzzy 이론을 이용한 단어인식 (Word Recognition Using VQ and Fuzzy Theory)

  • 김자용;최갑석
    • 한국음향학회지
    • /
    • 제10권4호
    • /
    • pp.38-47
    • /
    • 1991
  • 음성인식에 있어서 문제점의 하나는 발성자에 따른 주파수 변동문제이다. 본 논문에서는 이러한 음성 신호의 주파수 특성의 변동에 따른 영향을 해결하기 위하여 fuzzy 이론을 도입하였다. 여기서 표준패턴은 음성신호의 대표적인 특징들을 포함하고 있어야 하므로, 먼저 여러 화자가 발성한 단어들을 벡터 양자화한 코드북을 생성하였으며, 이코드북으로 부터 추출한 피크 주파수와 피크 에너지를 fuzzy화 패턴으로 작성하였다. 입력 음성신호로 부터 추출한 특징량인 스펙트럼의 피크 주파수와 피크에너지를 각각 멤버쉽 함수로 표현하여 fuzzy 추론에 의한 단어인식을 하였다. 실제 확신도 계산에 있어서는 계산량을 줄이기 위하여 fuzzy 값의 차만으로 확신도를 구하는 개선 확신도를 제안하여 사용하였다. 한국어 숫자음을 인식 실험한 결과 주파수 특성의 변동에 따른 영향을 해결할 수 있음을 확인하였으며, 제안된 개선 확신도 계산방법에 의해서 기억용량과 계산량을 감소 시킬 수 있었다.

  • PDF

HMM을 기반으로 한 자율이동로봇의 음성명령 인식시스템의 개발 (Development of Autonomous Mobile Robot with Speech Teaching Command Recognition System Based on Hidden Markov Model)

  • 조현수;박민규;이현정;이민철
    • 제어로봇시스템학회논문지
    • /
    • 제13권8호
    • /
    • pp.726-734
    • /
    • 2007
  • Generally, a mobile robot is moved by original input programs. However, it is very hard for a non-expert to change the program generating the moving path of a mobile robot, because he doesn't know almost the teaching command and operating method for driving the robot. Therefore, the teaching method with speech command for a handicapped person without hands or a non-expert without an expert knowledge to generate the path is required gradually. In this study, for easily teaching the moving path of the autonomous mobile robot, the autonomous mobile robot with the function of speech recognition is developed. The use of human voice as the teaching method provides more convenient user-interface for mobile robot. To implement the teaching function, the designed robot system is composed of three separated control modules, which are speech preprocessing module, DC servo motor control module, and main control module. In this study, we design and implement a speaker dependent isolated word recognition system for creating moving path of an autonomous mobile robot in the unknown environment. The system uses word-level Hidden Markov Models(HMM) for designated command vocabularies to control a mobile robot, and it has postprocessing by neural network according to the condition based on confidence score. As the spectral analysis method, we use a filter-bank analysis model to extract of features of the voice. The proposed word recognition system is tested using 33 Korean words for control of the mobile robot navigation, and we also evaluate the performance of navigation of a mobile robot using only voice command.

사상멤버쉽함수에 의한 화자적응 단어인식 (Speaker-adaptive Word Recognition Using Mapped Membership Function)

  • 이기영;최갑석
    • 한국음향학회지
    • /
    • 제11권3호
    • /
    • pp.40-52
    • /
    • 1992
  • 본논문에서는 불특정화자 음성인식의 문제점이 되는 개인차에 의한 변동을 흡수하기 위하여 사상멤버쉽함수에 의한 화자적응 단어인식 방법을 제안하였다. 이방법의 학습과정에서는 미지화자의 표준화자의 스펙트럼패턴 사이에서 작성된 사상코드북에 퍼지이론을 도입하여 사상멤버쉽함수를 작성하였으며, 인식과정에서는 미지화자의 음성패턴을 사상멤버쉽함수에 의해 표준화자의 음성패턴에 적응된 패턴으로 재구성하고 뉴럴-퍼지패턴매칭에 의해 단어를 인식하였다. 본 방법의 타당성을 평가하기 위하여, 28개의 DDD 지역명을 대상으로 실험한 결과, 종래의 사상코드북에 의한 벡터양자화 화자적응방법에서는 64.9[%], 퍼지벡터양자화 화자적응방법에서는 76.1[%]의 인식율을 얻었으나, 사상멤버쉽함수에 의한 화자적응방법에서는 95.4[%]의 향상된 인식율을 얻으므로써 인식성능의 우수함을 확인하였다. 또한 사상멤버쉽함수의 작성과정에서는 반복된 학습과정이 불피요하며, 기억용량과 계산량도 사상코드북에 의한 화자적응방법보다 각각 1/30, 1/500배 정도였다.

  • PDF

Question Similarity Measurement of Chinese Crop Diseases and Insect Pests Based on Mixed Information Extraction

  • Zhou, Han;Guo, Xuchao;Liu, Chengqi;Tang, Zhan;Lu, Shuhan;Li, Lin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권11호
    • /
    • pp.3991-4010
    • /
    • 2021
  • The Question Similarity Measurement of Chinese Crop Diseases and Insect Pests (QSM-CCD&IP) aims to judge the user's tendency to ask questions regarding input problems. The measurement is the basis of the Agricultural Knowledge Question and Answering (Q & A) system, information retrieval, and other tasks. However, the corpus and measurement methods available in this field have some deficiencies. In addition, error propagation may occur when the word boundary features and local context information are ignored when the general method embeds sentences. Hence, these factors make the task challenging. To solve the above problems and tackle the Question Similarity Measurement task in this work, a corpus on Chinese crop diseases and insect pests(CCDIP), which contains 13 categories, was established. Then, taking the CCDIP as the research object, this study proposes a Chinese agricultural text similarity matching model, namely, the AgrCQS. This model is based on mixed information extraction. Specifically, the hybrid embedding layer can enrich character information and improve the recognition ability of the model on the word boundary. The multi-scale local information can be extracted by multi-core convolutional neural network based on multi-weight (MM-CNN). The self-attention mechanism can enhance the fusion ability of the model on global information. In this research, the performance of the AgrCQS on the CCDIP is verified, and three benchmark datasets, namely, AFQMC, LCQMC, and BQ, are used. The accuracy rates are 93.92%, 74.42%, 86.35%, and 83.05%, respectively, which are higher than that of baseline systems without using any external knowledge. Additionally, the proposed method module can be extracted separately and applied to other models, thus providing reference for related research.

한국어 단어 및 문장 분류 태스크를 위한 분절 전략의 효과성 연구 (A Comparative study on the Effectiveness of Segmentation Strategies for Korean Word and Sentence Classification tasks)

  • 김진성;김경민;손준영;박정배;임희석
    • 한국융합학회논문지
    • /
    • 제12권12호
    • /
    • pp.39-47
    • /
    • 2021
  • 효과적인 분절을 통한 양질의 입력 자질 구성은 언어모델의 문장 이해력을 향상하기 위한 필수적인 단계이다. 입력 자질의 품질 제고는 세부 태스크의 성능과 직결된다. 본 논문은 단어와 문장 분류 관점에서 한국어의 언어적 특징을 효과적으로 반영하는 분절 전략을 비교 연구한다. 분절 유형은 언어학적 단위에 따라 어절, 형태소, 음절, 자모 네 가지로 분류하며, RoBERTa 모델 구조를 활용하여 사전학습을 진행한다. 각 세부 태스크를 분류 단위에 따라 문장 분류 그룹과 단어 분류 그룹으로 구분 지어 실험함으로써, 그룹 내 경향성 및 그룹 간 차이에 대한 분석을 진행한다. 실험 결과에 따르면, 문장 분류에서는 단위의 언어학적 분절 전략을 적용한 모델이 타 분절 전략 대비 최대 NSMC: +0.62%, KorNLI: +2.38%, KorSTS: +2.41% 높은 성능을, 단어 분류에서는 음절 단위의 분절 전략이 최대 NER: +0.7%, SRL: +0.61% 높은 성능을 보임으로써, 각 분류 그룹에서의 효과성을 보여준다.

한국어에서 의존 구문분석을 위한 구묶음의 활용 (Exploiting Chunking for Dependency Parsing in Korean)

  • 남궁영;김재훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권7호
    • /
    • pp.291-298
    • /
    • 2022
  • 본 논문은 한국어에 대해서 구묶음을 수행한 후에 의존구조를 분석하는 방법을 제안한다. 의존구조 분석은 단어의 지배어를 결정하는 과정이다. 지배어를 정할 때, 문법적인 지배어를 정할 것인지 의미적인 지배어를 정할 것인지가 고질적인 문제이다. 일반적으로는 문법적인 지배어를 정하고 있다. 예를 들면 문장 "밥을 먹고 싶다"에서 어절 "먹고"의 지배어로 "싶다"를 정한다. 그러나 "싶다"는 보조용언으로 의미적으로 지배어가 될 수 없다. 이와 같은 방법으로 구문을 분석하면 의미분석을 위해서 또 다른 변환이 있어야 한다. 본 논문에서는 이런 문제를 다소 완화하기 위해서 구묶음을 수행한 후에 구문을 분석하는 방법을 제안한다. 구묶음은 문장을 구성성분 단위로 분할하는 과정이며 구성성분은 내용어 말덩이와 기능어 말덩이로 구성된다. 구묶음을 수행하면 구문 분석의 입력이 되는 문장 성분의 수가 줄어들므로 구문 분석 속도가 개선될 수 있으며, 문장에서 중심어를 중심으로 하나의 말덩이로 묶이므로 말덩이에 대해서만 그 의존 관계를 파악할 수 있어 구문 분석의 효율성을 높일 수 있다. 본 논문은 세종의존말뭉치를 사용해서 성능을 분석했으며 UAS와 LAS가 각각 86.48%와 84.56%였으며 입력의 노드 수도 약 22% 정도 줄일 수 있었다.

사전과 말뭉치를 이용한 한국어 단어 중의성 해소 (Korean Word Sense Disambiguation using Dictionary and Corpus)

  • 정한조;박병화
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.1-13
    • /
    • 2015
  • 빅데이터 및 오피니언 마이닝 분야가 대두됨에 따라 정보 검색/추출, 특히 비정형 데이터에서의 정보 검색/추출 기술의 중요성이 나날이 부각되어지고 있다. 또한 정보 검색 분야에서는 이용자의 의도에 맞는 결과를 제공할 수 있는 검색엔진의 성능향상을 위한 다양한 연구들이 진행되고 있다. 이러한 정보 검색/추출 분야에서 자연어처리 기술은 비정형 데이터 분석/처리 분야에서 중요한 기술이고, 자연어처리에 있어서 하나의 단어가 여러개의 모호한 의미를 가질 수 있는 단어 중의성 문제는 자연어처리의 성능을 향상시키기 위해 우선적으로 해결해야하는 문제점들의 하나이다. 본 연구는 단어 중의성 해소 방법에 사용될 수 있는 말뭉치를 많은 시간과 노력이 요구되는 수동적인 방법이 아닌, 사전들의 예제를 활용하여 자동적으로 생성할 수 있는 방법을 소개한다. 즉, 기존의 수동적인 방법으로 의미 태깅된 세종말뭉치에 표준국어대사전의 예제를 자동적으로 태깅하여 결합한 말뭉치를 사용한 단어 중의성 해소 방법을 소개한다. 표준국어대사전에서 단어 중의성 해소의 주요 대상인 전체 명사 (265,655개) 중에 중의성 해소의 대상이 되는 중의어 (29,868개)의 각 센스 (93,522개)와 연관된 속담, 용례 문장 (56,914개)들을 결합 말뭉치에 추가하였다. 품사 및 센스가 같이 태깅된 세종말뭉치의 약 79만개의 문장과 표준국어대사전의 약 5.7만개의 문장을 각각 또는 병합하여 교차검증을 사용하여 실험을 진행하였다. 실험 결과는 결합 말뭉치를 사용하였을 때 정확도와 재현율에 있어서 향상된 결과가 발견되었다. 본 연구의 결과는 인터넷 검색엔진 등의 검색결과의 성능향상과 오피니언 마이닝, 텍스트 마이닝과 관련한 자연어 분석/처리에 있어서 문장의 내용을 보다 명확히 파악하는데 도움을 줄 수 있을 것으로 기대되어진다.