• Title/Summary/Keyword: 한글 낱자

Search Result 36, Processing Time 0.024 seconds

Scrambling Occurrence Frequency in HDB-3 in UTF-8 Coding of UNICODE Hangul Jamo (Unicode 한글낱자의 UTF-8 부호화에 따른 HDB-3 스크램블링 발생빈도)

  • Hong, Wan-Pyo
    • Journal of Advanced Navigation Technology
    • /
    • v.19 no.2
    • /
    • pp.153-160
    • /
    • 2015
  • This paper has studied about the scrambling occurrence frequency in UTF-8 coding system for Unicode Hangul Jamo codes. The scrambling methode applied in the study is HDB-3 in AMI line coding that is international transmission standard. In the study, the source coding rule was applied to analysis the scrambling occurrence. The quantity of the scrambling occurrence was calculated by the number of times and frequency rate of the scrambling occurrence in Hangul Jamo and Compatibity Hangul Jamo. In the case of Hangul Jamo, the number of times and frequency rate in Unicode and UTF-8 were 24times, 52% and 148times, 228% respectively. In the case of Compatibility Hangul Jamo, that were 10times, 14% and 83times, 131% respectively. As a result, when Hangul Jamo and Compatibility Hangul Jamo in UNICODE were transformed to UTF-8, the scrambling frequency rates were increased 340% and 851% respectively.

Handwritten Korean Amounts Recognition in Bank Slips using Rule Information (규칙 정보를 이용한 은행 전표 상의 필기 한글 금액 인식)

  • Jee, Tae-Chang;Lee, Hyun-Jin;Kim, Eun-Jin;Lee, Yill-Byung
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.8
    • /
    • pp.2400-2410
    • /
    • 2000
  • Many researches on recognition of Korean characters have been undertaken. But while the majority are done on Korean character recognition, tasks for developing document recognition system have seldom been challenged. In this paper, I designed a recognizer of Korean courtesy amounts to improve error correction in recognized character string. From the very first step of Korean character recognition, we face the enormous scale of data. We have 2350 characters in Korean. Almost the previous researches tried to recognize about 1000 frequently-used characters, but the recognition rates show under 80%. Therefore using these kinds of recognizers is not efficient, so we designed a statistical multiple recognizer which recognize 16 Korean characters used in courtesy amounts. By using multiple recognizer, we can prevent an increase of errors. For the Postprocessor of Korean courtesy amounts, we use the properties of Korean character strings. There are syntactic rules in character strings of Korean courtesy amounts. By using this property, we can correct errors in Korean courtesy amounts. This kind of error correction is restricted only to the Korean characters representing the unit of the amounts. The first candidate of Korean character recognizer show !!i.49% of recognition rate and up to the fourth candidate show 99.72%. For Korean character string which is postprocessed, recognizer of Korean courtesy amounts show 96.42% of reliability. In this paper, we suggest a method to improve the reliability of Korean courtesy amounts recognition by using the Korean character recognizer which recognize limited numbers of characters and the postprocessor which correct the errors in Korean character strings.

  • PDF

Language Identification of Character-level in Document Image (문서영상의 낱자 단위 언어 구분)

  • 권세광;오일석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.613-615
    • /
    • 2003
  • 본 논문은 문서 구조분석을 통해 얻어진 텍스트 영상에 대해 낱자 단위 분할 과정과 분할된 낱자에 대한 언어 구분 방법을 제안한다. 먼저 8방향 연결 요소를 이용한 레이블링을 수행하고 각 레이블의 거리관계와 한글 종모음의 특징을 이용하여 낱자 분리를 수행한다. 분리가 이루어진 낱자의 언어 구분은 각 낱자에 존재하는 concavity 특징을 이용하여 한글과 영어로 구분하게 된다. Concavity 특징을 찾기 위해 낱자를 이루는 흑화소 중 수직런을 이루는 흑화소 중 일부와 세리프 성분을 제거하며 그 방법을 기술한다. concavity 특징은 분리기를 통해 한글과 영어 두 가지로 분리되며, 분류기는 신경망을 이용한다. 제안된 방법은 20개의 텍스트 영상에 총 7923개의 낱자를 대상으로 실험하였으며, 낱자 분리는 97.20%의 정확도를 보였으며 분리된 낱자에 대한 언어 구분은 92.70%의 정확도를 얻을 수 있었다.

  • PDF

Logic Analyzer of Composite Hangul Units for Implementation of Input Methods (한글 입력 방식의 구현을 위한 범용적인 복합 낱자 분석 시스템)

  • Kim, Yongmook;Kim, Kuk
    • Korean Journal of Cognitive Science
    • /
    • v.28 no.4
    • /
    • pp.223-243
    • /
    • 2017
  • A Hangul input method consists of two core components: key layout for primitive units (Natja), and binding rules to form more complex, composite units from primitive ones. However, careless design and implementation of an input method may result in ambiguity and inability of contiguous typing, when it comes to handle composite Hangul units. This is due to the collective nature of Hangul, namely, existence of implicit boundaries between units and syllables. This issue gets more challenging for the context-dependent 2-beolsik method, mobile environment having significantly fewer keys, and yet addition of the support for Old Hangul. For the sake of the management of complexity, we devised a system in which the binding rule is divided into two layers rather than one. Based on this concept, we implemented a tool program that, given the primitive units and their binding rules, generates input details of every composite unit and detects any potential ambiguity and conflicts. We presented the actual analysis result for Samsung Cheonji-in and KT Naratgeul, two of the most popular mobile Hangul input methods used in Korea.

An Analysis on the Korean Language for Optimum Transmission of Hangul Code (한글 부호의 최적화 전송을 위한 한국어 낱자 분석)

  • Hong, Wan-Pyo
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.10 no.1
    • /
    • pp.33-38
    • /
    • 2015
  • The goal of this paper is to propose the Hangul Jamo to make a optimum transmission code of Hangul consonant and vowel(Jamo). The Hangul Jamo was analyzed by three kinds of Hangul Jamo. First one is the basic Hangul Jamo which is consisted by 24ea Jamo. Second one is a two combination keyboard which has 28ea Jamo. Third one is 54 Jamo set which is added the double Jamo to the second one. Use frequency of Hangul-Jamo is analyzed based on the Hangul in "Modern Korean Use Frequency Rate Survey Result" issued by The National Institute of the Korean Language". Total 58,437 Korean words are contained in the report and the words are composed with Hangul 1,540ea. The results of this study are as follows, In the Jamo are that in the first Jamo set case, the highest use frequency consonant is "ㅇ" and the lowest one is "ㅋ", and in the vowel case, the highest use frequency one is "ㅏ" and the lowest one is "ㅑ". In the second case, the highest use frequency consonant is same as first case and the highest vowel is "ㅏ" and the lowest one is "ㅒ". In the third case, the highest consonant is "ㅏ" and the lowest one is "ㅞ". the highest vowel is "ㄱ" and the lowest one is "ㄽ".

A Formal Description and Analysis of 2-beolsik Hangul Input Methods (두벌식 한글 입력 방식의 정형적인 기술과 분석)

  • Kim, Yongmook;Kim, Kuk
    • Annual Conference on Human and Language Technology
    • /
    • 2016.10a
    • /
    • pp.27-32
    • /
    • 2016
  • 한글 입력 방식은 글쇠배열과 더불어 추가적인 낱자들을 입력하기 위한 결합 규칙이라는 형태로 정의할 수 있다. 그런데 이 규칙을 토대로 입력 방식을 실제로 구현해 보면 겹낱자를 결합하거나 음절이 바뀌는 과정에서 모호성 같은 문제가 발생할 수 있다. 초성과 종성을 문맥에 따라 구분해야 하는 두벌식, 모바일 환경처럼 매우 적은 글쇠, 수십 종류의 낱자들을 조합해야 하는 옛한글이라는 조건이 더해지면 입력 방식을 기술하고 분석하는 난이도가 더욱 높아진다. 본 논문에서는 한글 낱자의 결합 규칙을 대결합과 소결합으로 구분해서 기술하는 체계를 제안하며, 이를 토대로 입력 방식의 예상 동작을 분석해 주는 프로그램을 소개하였다. 그리고 모바일용 삼성 천지인과 KT 나랏글 한글 입력 방식을 동일 프로그램으로 기술하고 분석한 결과를 제시하였다.

  • PDF

Letter Perception in Two-Syllable Korean Words: Comparison of an Interactive Activation Model to an Elementary Perceiver and Memorizer model (II) (두 음절 한글단어에 있어서 낱자의 지각: 상호작용활성화 모형과 초보지각자-기억자 모형의 비교 검증 (II))

  • Kim, Jung-Oh;Kim, Jae-Kap
    • Annual Conference on Human and Language Technology
    • /
    • 1990.11a
    • /
    • pp.235-246
    • /
    • 1990
  • McClelland와 Rumelhart (1981)의 상호작용활성화 모형과 Feigembaum과 Simon (1984)의 초보지각자-기억자 모형 (Elementary Perceiver and Memorizer, EPAM)을 두 음절 한글단어에서의 낱자 지각을 중심으로 검증한 김 재갑과 김 정오 (1990)의 실험을 새 자극 단어들과 변수를 포함시킨 두 실험을 수행하였다. 여섯 낱자들로 구성된 단어의 둘째 음절위치에서 단어 내의 낱자들은 단독으로 제시되는 낱자들보다 더 부정확하게 파악되었고 (단어열등효과), 이 결과는 다섯 낱자로 된 두 음절 단어들에서는 관찰되지 않았고, 그 배후 기제는 세 낱자들로 구성된 단어의 부분에 대한 제한된 주의 용량의 배정임을 시사하는 결과를 얻었다. 본 연구의 결과들은 상호작용활성화 모형보다 EPAM 모형에 의해 더 잘 다루어짐이 밝혀졌다.

  • PDF

A Formal Description and Analysis of 2-beolsik Hangul Input Methods (두벌식 한글 입력 방식의 정형적인 기술과 분석)

  • Kim, Yongmook;Kim, Kuk
    • 한국어정보학회:학술대회논문집
    • /
    • 2016.10a
    • /
    • pp.27-32
    • /
    • 2016
  • 한글 입력 방식은 글쇠배열과 더불어 추가적인 낱자들을 입력하기 위한 결합 규칙이라는 형태로 정의할 수 있다. 그런데 이 규칙을 토대로 입력 방식을 실제로 구현해 보면 겹낱자를 결합하거나 음절이 바뀌는 과정에서 모호성 같은 문제가 발생할 수 있다. 초성과 종성을 문맥에 따라 구분해야 하는 두벌식, 모바일 환경처럼 매우 적은 글쇠, 수십 종류의 낱자들을 조합해야 하는 옛한글이라는 조건이 더해지면 입력 방식을 기술하고 분석하는 난이도가 더욱 높아진다. 본 논문에서는 한글 낱자의 결합 규칙을 대결합과 소결합으로 구분해서 기술하는 체계를 제안하며, 이를 토대로 입력 방식의 예상 동작을 분석해 주는 프로그램을 소개하였다. 그리고 모바일용 삼성 천지인과 KT 나랏글 한글 입력 방식을 동일 프로그램으로 기술하고 분석한 결과를 제시하였다.

  • PDF

Korean Amount Recognizer in Bank Slips (은행 전표에서 한글 금액 인식기의 구현)

  • 지태창;김은진;이일병
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.369-371
    • /
    • 1998
  • 본 논문에서는 은행 전표의 한글 금액열을 인식하는 시스템을 제안한다. 한글의 낱자를 인식하는 연구가 활발히 진해되고 있는데 반하여, 본 연구에서는 한글의 낱자 인식 결과를 가지고 후처리를 한 후, 그 결과를 금액 숫자의 인식결과와 통합하는 시스템을 구성하였다. 한글 낱자 인식기는 MDC(Minimum Distance Classifier) 기법을 응용한 방법을 사용하였고, 그 후처리는 금액의 구조적인 특징을 사용하였다. 마지막으로 숫자 인식기의 결과와 상호 참조하여 인식기를 완성하였다. 인식 결과를 보면 한글 금액 문자열의 낱자에 대해서는 후처리를 하기 전에는 96.29%, 후처리를 한 후에는 97.72%의 인식률을 보였고, 한글 금액 문자열에 대해서는 후처리를 하기 전에는 79.96%, 후처리를 한 후에는 98.24%의 신뢰도를 보였다.

  • PDF

Handwritten Korean Word Recognition for Address Recognition (주소 인식 시스템을 위한 필기 한글 단어 인식)

  • 권진욱;이관용;변혜란;이일병
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1997.11a
    • /
    • pp.201-204
    • /
    • 1997
  • 최근 주소를 자동으로 인식하여 우편물 분류와 같은 업무를 효과적으로 수행하기 위한 연구가 진행되고 있다. 기존 연구들은 낱자 단위의 인식을 수행한 후 사전 형태의 간단한 DB를 통해 최종의 결과를 생성한다. 그러나 한글과 같은 복잡한 구조의 필기 문자에 대한 인식기의 성능은 아직도 미흡한 상태이다. 따라서 낱자 인식기의 성능에 의존하는 현재와 같은 방법으로는 만족할 만한 결과를 얻기가 힘들 것으로 생각된다. 본 논문에서는 낱자 인식 결과에 크게 의존하지 않고 주소에 나타나는 단어의 낱자들 사이간 연결 정보를 이용하여 단어를 인식할 수 있는 시스템을 제안한다. 본 시스템은 통계적 인식기를 사용하여 낱자를 인식하는 부분과 낱자 인식 결과를 조합하여 단어 수준의 인식과정을 통해 최종의 결과를 생성하는 부분으로 구성된다. 통계적 인식기는 Nearest neighborhood 방법을 사용하여 간단한 형태로 구현하였다. 단어인식 모듈은 단어에서 모든 문자간의 관계를 표현할 수 있도록 HMM 모형을 사용하여 어휘정보 네트워크를 구성하고 이를 이용하여 주소에 나타나는 단어를 인식하도록 하였다. PE92 한글 문자 데이터를 이용하여 실험을 수 璿\ulcorner 결과, 통계적 인식기의 성능이 저조함에도 불구하고 HMM을 이용한 어휘정보 네트워크가 이를 보완함으로써 좋은 결과를 얻었다. 이러한 단어 인식 방법을 주소 이외의 다른 단어 집합에 대해서도 쉽게 적용될 수 있을 것으로 예상된다.

  • PDF