• Title/Summary/Keyword: 문자 인코딩

Search Result 29, Processing Time 0.022 seconds

Hybrid Word-Character Neural Network Model for the Improvement of Document Classification (문서 분류의 개선을 위한 단어-문자 혼합 신경망 모델)

  • Hong, Daeyoung;Shim, Kyuseok
    • Journal of KIISE
    • /
    • v.44 no.12
    • /
    • pp.1290-1295
    • /
    • 2017
  • Document classification, a task of classifying the category of each document based on text, is one of the fundamental areas for natural language processing. Document classification may be used in various fields such as topic classification and sentiment classification. Neural network models for document classification can be divided into two categories: word-level models and character-level models that treat words and characters as basic units respectively. In this study, we propose a neural network model that combines character-level and word-level models to improve performance of document classification. The proposed model extracts the feature vector of each word by combining information obtained from a word embedding matrix and information encoded by a character-level neural network. Based on feature vectors of words, the model classifies documents with a hierarchical structure wherein recurrent neural networks with attention mechanisms are used for both the word and the sentence levels. Experiments on real life datasets demonstrate effectiveness of our proposed model.

Fast Construction of Suffix Arrays for DNA Strings (DNA 스트링에 대하여 써픽스 배열을 구축하는 빠른 알고리즘)

  • Jo, Jun-Ha;Kim, Nam-Hee;Kwon, Ki-Ryong;Kim, Dong-Kyue
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.34 no.8
    • /
    • pp.319-326
    • /
    • 2007
  • To perform fast searching in massive data such as DNA strings, the most efficient method is to construct full-text index data structures of given strings. The widely used full-text index structures are suffix trees and suffix arrays. Since the suffix may uses less space than the suffix tree, the suffix array is proper for DNA strings. Previously developed construction algorithms of suffix arrays are not suitable for DNA strings since those are designed for integer alphabets. We propose a fast algorithm to construct suffix arrays on DNA strings whose alphabet sizes are fixed by 4. We reduce the construction time by improving encoding and merging steps on Kim et al.[1]'s algorithm. Experimental results show that our algorithm constructs suffix arrays on DNA strings 1.3-1.6 times faster than Kim et al.'s algorithm, and also for other algorithms in most cases.

Molecular Computing Simulation of Cognitive Anagram Solving (애너그램 문제 인지적 해결과정의 분자컴퓨팅 시뮬레이션)

  • Chun, Hyo-Sun;Lee, Ji-Hoon;Ryu, Je-Hwan;Baek, Christina;Zhang, Byoung-Tak
    • KIISE Transactions on Computing Practices
    • /
    • v.20 no.12
    • /
    • pp.700-705
    • /
    • 2014
  • An anagram is a form of word play to find a new word from a set of given alphabet letters. Good human anagram solvers use the strategy of bigrams. They explore a constraint satisfaction network in parallel and answers consequently pop out quickly. In this paper, we propose a molecular computational algorithm using the same process as this. We encoded letters into DNA sequences and made bigrams and then words by connecting the letter sequences. From letters and bigrams, we performed DNA hybridization, ligation, gel electrophoresis and finally, extraction and separation to extract bigrams. From the matched bigrams and words, we performed the four molecular operations again to distinguish between right and wrong results. Experimental results show that our molecular computer can identify cor rect answers and incorrect answers. Our work shows a new possibility for modeling the cognitive and parallel thinking process of a human.

A Design and Implementation of WML Compiler for WAP Gateway for Wireless Internet Services (무선 인터넷 서비스를 위한 WAP 게이트웨이용 WML 컴파일러의 설계 및 구현)

  • Choi, Eun-Jeong;Han, Dong-Won;Lim, Kyung-Shik
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.7 no.2
    • /
    • pp.165-182
    • /
    • 2001
  • In this paper, we describe a design and implementation of the Wireless Markup Language(WML) compiler to deploy wireless Internet services effectively. The WML compiler translates textual WML decks into binary ones in order to reduce the traffic on wireless links that have relatively low bandwidth to wireline links and mitigate the processing overhead of WML decks on, wireless terminals that have relatively low processing power to fixed workstations. In addition, it takes over the overhead of eXtensible Markup Language(XML) well-formedness and validation processes. The WML compiler consists of the lexical analyzer and parser modules. The granunar for the WML parser module is LALR(1) context-free grammar that is designed based on XML 1.0 and WML 1.2 DTD(Document Type Definition) with the consideration of the Wireless Application Protocol Binary XML grammar. The grammar description is converted into a C program to parse that grammar by using parser generator. Even though the tags in WML will be extended or WML DTD will be upgraded, this approach has the advantage of flexibility because the program is generated by modifying just the changed parts. We have verified the functionality of the WML compiler by using a WML decompiler in the public domain and by using the Nokia WAP Toolkit as a WAP client. To measurethe compressibility gain of the WML compiler, we have tested a large number of textual WML decks and obtained a maximum 85 %. As the effect of compression is reduced when the portion of general textual strings increases relative to one of the tags and attributes in a WML deck, an extended encoding method might be needed for specific applications such as compiling of the WML decks to which the Hyper Text Markup Language document is translated dynamically.

  • PDF

Quantitative Evaluation of Bags-of-Features Method Using Part-of-Speech Tagging (품사 부착 실험을 통한 Bags-of-Features 방법의 정량적 평가)

  • Lee, Chanhee;Lee, Seolhwa;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.298-300
    • /
    • 2017
  • 본 논문에서는 단순하지만 효과적인 단어 표현 방법인 Bags of Features에 대한 비교 실험을 수행한다. Bags of Features는 어휘집의 크기에 제한이 없으며, 문자 단위의 정보를 반영하고, 벡터화 과정에서 신경망 구조에 의존하지 않는 단어 표현 방법이다. 영어 품사 부착 실험을 사용하여 실험한 결과, one-hot 인코딩을 사용한 모델과 대비하여 학습 데이터에 존재하지 않는 단어의 경우 49.68%, 전체 부착 정확도는 0.96% 향상이 관찰되었다. 또한, Bags of Features를 사용한 모델은 기존의 영어 품사 부착 분야의 최첨단 모델들 중 학습 데이터 외의 추가적인 데이터를 활용하지 않는 모델들과 비견할 만한 성능을 보였다.

  • PDF

Quantitative Evaluation of Bags-of-Features Method Using Part-of-Speech Tagging (품사 부착 실험을 통한 Bags-of-Features 방법의 정량적 평가)

  • Lee, Chanhee;Lee, Seolhwa;Lim, Heuiseok
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.298-300
    • /
    • 2017
  • 본 논문에서는 단순하지만 효과적인 단어 표현 방법인 Bags of Features에 대한 비교 실험을 수행한다. Bags of Features는 어휘집의 크기에 제한이 없으며, 문자 단위의 정보를 반영하고, 벡터화 과정에서 신경망 구조에 의존하지 않는 단어 표현 방법이다. 영어 품사 부착 실험을 사용하여 실험한 결과, one-hot 인코딩을 사용한 모델과 대비하여 학습 데이터에 존재하지 않는 단어의 경우 49.68%, 전체 부착 정확도는 0.96% 향상이 관찰되었다. 또한, Bags of Features를 사용한 모델은 기존의 영어 품사 부착 분야의 최첨단 모델들 중 학습 데이터 외의 추가적인 데이터를 활용하지 않는 모델들과 비견할 만한 성능을 보였다.

  • PDF

Characteristics of Bearing Capacity under Square Footing on Two-layered Sand (2개층 사질토지반에서 정방형 기초의 지지력 특성)

  • 김병탁;김영수;이종현
    • Journal of the Korean Geotechnical Society
    • /
    • v.17 no.4
    • /
    • pp.289-299
    • /
    • 2001
  • 본 연구는 균질 및 2개층 비균질지반에서 사질토지반 상에 놓인 정방형 기초의 극한지지력과 침하에 대하여 고찰하였다. 본 연구는 얕은기초의 거동에 대한 정방형 기초의 크기, 지반 상대밀도, 기초 폭에 대한 상부층의 두께 비(H/B), 상부층 아래 경계면의 경사($\theta$) 그리고 지반강성비의 영향을 규명하기 위하여 모형실험을 수행하였다. 동일 상대밀도에서 지지력 계수($N_{{\gamma}}$)는 일정하지 않으며 기초 폭에 직접적으로 관련되며 지지력계수는 기초 폭이 증가함에 따라 감소하였다. 기초크기의 영향과 구속압력의 영향을 고려하는 Ueno 방법에 의한 극한지지력의 예측값은 고전적인 지지력 산정식보다 더 잘 일치하며 그 값은 실험값의 65% 이상으로 나타났다. $\theta$=$0^{\circ}$인 2개층 지반의 결과에 근거하여, 극한지지력에 대한 하부층 지반의 영향을 무시할 수 있는 한계 상부층 두께는 기초 폭의 2배로 결정되었다. 그러나, 73%의 상부층 상대밀도인 경우는 침하비($\delta$B) 0.05 이하에서만 이 결과가 유효하였다. 경계면이 경사진 2개층 지반의 결과에 근거하여, 상부층의 상대밀도가 느슨할수록 그리고 상부층의 두께가 클수록 극한지지력에 대한 경계면 경사의 영향은 크지 않는 것으로 나타났다. 경계면의 경사가 증가함에 따른 극한침하량의 변화는 경계면이 수평인 경우($\theta$=$0^{\circ}$)를 기준으로 0.82~1.2(상부층 $D_{r}$=73%인 경우) 그리고 0.9~1.07(상부층 $D_{r}$=50%인 경우) 정도로 나타났다.Markup Language 문서로부터 무선 마크업 언어 문서로 자동 변환된 텍스트를 인코딩하는 경우와 같이 특정한 응용 분야에서는 일반 문자열에 대한 확장 인코딩 기법을 적용할 필요가 있을 수 있다.mical etch-stop method for the etching of Si in TMAH:IPA;pyrazine solutions provides a powerful and versatile alternative process for fabricating high-yield Si micro-membranes. the RSC circle, but also to the logistics system in the SLC circle. Thus, the RSLC model can maximize combat synergy effects by integrating the RSC and the SLC. With a similar logic, this paper develops "A Revised System of Systems with Logistics (RSSL)" which combines "A New system of Systems" and logistics. These tow models proposed here help explain several issues such as logistics environment in future warfare, MOE(Measure of Effectiveness( on logistics performance, and COA(Course of Actions) for decreasing mass and increasing velocity. In particular, velocity in logistics is emphasized.

  • PDF

The Bi-Cross Pretraining Method to Enhance Language Representation (Bi-Cross 사전 학습을 통한 자연어 이해 성능 향상)

  • Kim, Sung-ju;Kim, Seonhoon;Park, Jinseong;Yoo, Kang Min;Kang, Inho
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.320-325
    • /
    • 2021
  • BERT는 사전 학습 단계에서 다음 문장 예측 문제와 마스킹된 단어에 대한 예측 문제를 학습하여 여러 자연어 다운스트림 태스크에서 높은 성능을 보였다. 본 연구에서는 BERT의 사전 학습 문제 중 다음 문장 예측 문제에 대해 주목했다. 다음 문장 예측 문제는 자연어 추론 문제와 질의 응답 문제와 같이 임의의 두 문장 사이의 관계를 모델링하는 문제들에 성능 향상을 위해 사용되었다. 하지만 BERT의 다음 문장 예측 문제는 두 문장을 특수 토큰으로 분리하여 단일 문자열 형태로 모델에 입력으로 주어지는 cross-encoding 방식만을 학습하기 때문에 문장을 각각 인코딩하는 bi-encoding 방식의 다운스트림 태스크를 고려하지 않은 점에서 아쉬움이 있다. 본 논문에서는 기존 BERT의 다음 문장 예측 문제를 확장하여 bi-encoding 방식의 다음 문장 예측 문제를 추가적으로 사전 학습하여 단일 문장 분류 문제와 문장 임베딩을 활용하는 문제에서 성능을 향상 시키는 Bi-Cross 사전 학습 기법을 소개한다. Bi-Cross 학습 기법은 영화 리뷰 감성 분류 데이터 셋인 NSMC 데이터 셋에 대해 학습 데이터의 0.1%만 사용하는 학습 환경에서 Bi-Cross 사전 학습 기법 적용 전 모델 대비 5점 가량의 성능 향상이 있었다. 또한 KorSTS의 bi-encoding 방식의 문장 임베딩 성능 평가에서 Bi-Cross 사전 학습 기법 적용 전 모델 대비 1.5점의 성능 향상을 보였다.

  • PDF

A Study on Improvement of Korean OCR Accuracy Using Deep Learning (딥러닝을 이용한 한글 OCR 정확도 향상에 대한 연구)

  • Kang, Ga-Hyeon;Ko, Ji-Hyun;Kwon, Yong-Jun;Kwon, Na-Young;Koh, Seok-Ju
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2018.05a
    • /
    • pp.693-695
    • /
    • 2018
  • In this paper, we propose the improvement of Hangul OCR accuracy through deep learning. OCR is a program that senses printed and handwritten characters in an optical way and encodes them digitally. In the case of the most commonly used Tesseract OCR, the accuracy of English recognition is high. However, Hangul has lower accuracy because it has less learning data for a complex structure. Therefore, in this study, we propose a method to improve the accuracy of Hangul OCR by extracting the character region from the desired image through image processing and using deep learning using it as learning data. It is expected that OCR, which has been developed only by existing alphanumeric and several languages, can be applied to various languages.

  • PDF