• 제목/요약/키워드: Character Feature Extraction

검색결과 119건 처리시간 0.026초

6-유형 별로 적응적 계층 구조를 갖는 인쇄 한글 인식 (Printed Hangul Recognition with Adaptive Hierarchical Structures Depending on 6-Types)

  • 함대성;이득용;최경웅;오일석
    • 한국콘텐츠학회논문지
    • /
    • 제10권1호
    • /
    • pp.10-18
    • /
    • 2010
  • 한글 인식은 부류 수가 많다는 특성을 가지며 이 특성으로 인해 6-유형으로 사전 분류하는 것이 일반적이다. 사전 분류 후 각 유형들은 초성, 중성, 종성으로 분리하여 인식할 수 있다. 초성, 중성, 종성 각각은 부류의 수는 적지만 'ㅔ', 'ㅖ', 과 같이 서로간의 유사도가 높아 오 인식 되는 경우가 종종 발생한다. 따라서 본 논문에서는 6-유형 각각에 대해 다단계 트리 구조를 가진 계층적 인식 방법을 제안 하였다. 또한 초성, 중성, 종성의 서로 간의 간섭을 줄이기 위해, 초성과 종성의 인식 결과를 중성 분류기의 특징으로 사용하였다. PHD08 데이터베이스의 테스트 집합에 대해 98.96%의 정확률을 보였다.

런 길이를 이용한 필기체 한글 자획의 교점 검출 (Detection of Intersection Points of Handwritten Hangul Strokes using Run-length)

  • 정민철
    • 한국산학기술학회논문지
    • /
    • 제7권5호
    • /
    • pp.887-894
    • /
    • 2006
  • 본 논문은 런 길이를 이용해 필기체 한글 문자에서 자획의 교점을 검출하는 새로운 방법을 제안한다 이를 위해 첫째로, 수평 런 길이와 수직 런 길이를 이용해 필기체 한글 문자의 자획 두께를 구하고, 둘째로, 자획 두께를 이용해 입력 문자의 자소를 수평 성분과 수직 성분으로 분리하며, 마지막으로, 자획의 수평 성분과 수직 성분을 이용해 자획의 교점을 구하는 기술을 제안한다. 수평 성분과 수직 성분 분석은 각도와 관계없이 자획 두께와 런 길이의 변화량만을 이용해 구한다. 자획의 교점은 오프라인 필기체 한글 인식을 위한 요소 기술 중 하나인 자소 분리를 위한 분리점 후보가 되며 분리된 자획은 필기체 한글 인식을 위한 특징을 나타낸다.

  • PDF

A Comparative Study on OCR using Super-Resolution for Small Fonts

  • Cho, Wooyeong;Kwon, Juwon;Kwon, Soonchu;Yoo, Jisang
    • International journal of advanced smart convergence
    • /
    • 제8권3호
    • /
    • pp.95-101
    • /
    • 2019
  • Recently, there have been many issues related to text recognition using Tesseract. One of these issues is that the text recognition accuracy is significantly lower for smaller fonts. Tesseract extracts text by creating an outline with direction in the image. By searching the Tesseract database, template matching with characters with similar feature points is used to select the character with the lowest error. Because of the poor text extraction, the recognition accuracy is lowerd. In this paper, we compared text recognition accuracy after applying various super-resolution methods to smaller text images and experimented with how the recognition accuracy varies for various image size. In order to recognize small Korean text images, we have used super-resolution algorithms based on deep learning models such as SRCNN, ESRCNN, DSRCNN, and DCSCN. The dataset for training and testing consisted of Korean-based scanned images. The images was resized from 0.5 times to 0.8 times with 12pt font size. The experiment was performed on x0.5 resized images, and the experimental result showed that DCSCN super-resolution is the most efficient method to reduce precision error rate by 7.8%, and reduce the recall error rate by 8.4%. The experimental results have demonstrated that the accuracy of text recognition for smaller Korean fonts can be improved by adding super-resolution methods to the OCR preprocessing module.

OCR 프로그램을 활용한 선박 항해일지 데이터 추출 모델 개발 (Development of a Ship's Logbook Data Extraction Model Using OCR Program)

  • 이다인;김성철;윤익현
    • 해양환경안전학회지
    • /
    • 제30권1호
    • /
    • pp.97-107
    • /
    • 2024
  • 빠르게 발전하는 이미지 인식 기술에도 불구하고 표 형식의 문서와 수기로 작성된 문서를 완벽하게 디지털화하기에는 아직 어려움이 따른다. 본 연구는 표 형식의 수기 문서인 선박 항해일지를 작성하는 데에 사용되는 규칙을 이용하여 보정 작업을 수행함으로써 OCR 결과물의 정확도를 향상시키고자 한다. 이를 통해 OCR 프로그램을 통하여 추출된 항해일지 데이터의 정확성과 신뢰성을 높일 것으로 기대된다. 본 연구는 목포해양대학교 실습선 새누리호의 2023년에 항해한 57일간의 항해일지 데이터를 대상으로 OCR 프로그램 인식 후 발생한 오류를 보정하여 그 정확도를 개선하고자 하였다. 이 모델은 항해일지 기재 시 고려되는 몇 가지 규칙을 활용하여 오류를 식별한 후, 식별된 오류를 보정하는 방식으로 구성하였다. 모델을 활용하여 오류를 보정 후, 그 효과를 평가하고자 보정 전과 후의 데이터를 항차별로 구분한 후, 같은 항차의 같은 변수끼리 비교하였다. 본 모델을 활용하여 실제 셀 오류율은 약 11.8% 중 약 10.6%의 오류를 식별하였고, 123개의 오류 중 56개를 개선하였다. 본 연구는 항해일지 중 항해정보를 기입하는 Dist.Run부터 Stand Course까지의 정보만을 대상으로 수행하였다는 한계점이 있으므로, 추후 항해정보 뿐만 아니라 기상정보 등 항해일지의 더 많은 정보를 보정하기 위한 연구를 진행할 예정이다.

가중치가 부여된 베이지안 분류자를 이용한 스팸 메일 필터링 시스템 (Spam-Mail Filtering System Using Weighted Bayesian Classifier)

  • 김현준;정재은;조근식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권8호
    • /
    • pp.1092-1100
    • /
    • 2004
  • 최근 인터넷의 급속한 성장과 더불어 전자메일(E-Mail)은 통신 및 정보, 의사교환의 필수적인 매체로 사용되어지고 있다. 그러나 편리하고 비용이 들지 않는 장점을 이용해 엄청난 양의 스팸 메일이 매일같이 쏟아져 오고, 그 문제의 심각성에 정보통신부는 ‘정보통신망 이용촉진 및 정보보호등에 관한 개정안’이라는 새로운 법률까지 만들었다. 본 논문에서는 기존의 문서 분류에 널리 쓰이던 나이브 베이지안 분류자(naive Bayesian classifier)보다 개선된 가중치가 부여된 베이지안 분류자 (weighted Bayesian classifier)와 정보통신부의 개정안을 준수하는 매일을 분류하기 위한 전처리 단계, 그리고 사용자의 행동을 학습하여 보다 정확한 분류를 가능하게 지능형 에이젼트(intelligent agent)가 결합된 형태의 스팸 메일 필터링 시스템(spam mail filtering system)을 제안한다. 제안된 시스템에서는 사용자가 직접 규칙을 넣을 필요 없이 학습한 데이타를 가지고 자동적으로 스팸 메일을 분류할 수가 있는데, 특히 이메일의 특징 추출(feature extraction)을 이용하여 상대적으로 스팸/논스팸 판별에 비중이 큰 단어들에 대해 가중치를 부여함으로서 필터링의 성능향상을 도모하였다. 실험에서는 제안된 시스템의 최적의 성능 평가를 위해서 일반 나이브 베이지안 필터링시의 성능과 이메일 헤더정보, 특정 Tag들 그리고 하이퍼링크 부분에 가중치를 준 베이지안 필터링, 마지막으로 4가지를 결합한 상태의 필터링 성능을 각각 비교 분석하였다. 그 결과 제안하는 시스템이 나이브 베이지안 분류자를 이용한 시스템보다 정확도에서는 5.7% 저조한 성능을 보였으나, 재현율에서 33.3%, F-measure에서 31.2% 우수한 성능향상을 보였다.

연결요소 분석에 기반한 인쇄체 한글 주소와 필기체 한글 주소의 구분 (Classification of Handwritten and Machine-printed Korean Address Image based on Connected Component Analysis)

  • 장승익;정선화;임길택;남윤석
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권10호
    • /
    • pp.904-911
    • /
    • 2003
  • 본 논문에서는 우편봉투 상에 기입된 인쇄체 한글 주소와 필기체 한글 주소를 효과적으로 구분할 수 있는 방법을 제안한다. 문자인식 모듈을 포함하는 각종 응용 시스템에서 입력 영상이 인쇄체인지 필기체인지 구분하는 것은 매우 중요하다. 이는 대부분의 경우 인쇄체 영상과 필기체 영상이 갖는 특징이 상이하여, 각 영상에서의 문자 및 문자열 분리 방법, 문자 인식 방법 둥이 매우 상이하게 개발되기 때문이다. 본 논문에서 제안한 구분 방법은 연결요소 추출 및 병합, 특징 추출, 영상 구분 순으로 수행된다. 연결요소 추출 및 병합 단계에서는 입력영상으로부터 연결요소를 추출한 후 일부 연결요소들에 대하여 병합을 시도하며, 특징 추출 단계에서는 병합결과 얻어진 연결요소들의 그룹들로부터 폭과 위치에 관련된 특징을 추출하고, 영상 구분 단계에서는 추출한 특징을 입력으로 제공받는 다충퍼셉트론을 사용하여 구분을 시도한다. 제안한 방법의 우수성을 증명하기 위해 실제 우편물로부터 추출된 3,147개의 한글 주소 영상을 사용하여 실험한 결과, 98.85%의 구분률을 보여주었다.

신경망 학습 코드에 따른 오프라인 필기체 한글 인식률 비교 (Comparisons of Recognition Rates for the Off-line Handwritten Hangul using Learning Codes based on Neural Network)

  • 김미영;조용범
    • 전기전자학회논문지
    • /
    • 제2권1호
    • /
    • pp.150-159
    • /
    • 1998
  • 본 논문은 필기체 한글의 특징을 추출한 후 이를 신경망을 이용하여 인식하였다. 한글의 특징 추출을 위해 $5{\times}5$ 윈도우 방법을 사용하였는데, 이는 $3{\times}3$ 윈도우 방법을 수정한 것이다. 추출된 특징을 이진화 코드로 변환하여 신경망의 입력으로 사용하며, 백프로퍼게이션 알고리즘으로 학습시켰다. 수직 모음, 수평모음, 자음 인식을 위한 3개의 신경망을 각각 구성하였고, 결과를 비교하기 위하여 3가지 학습 방법을 사용하였다. 3가지 학습 방법은 고정 코드 방법, 학습 코드 방법 I, 학습 코드 방법 II이고 학습 코드 방법 II가 가장 좋은 결과를 보였다. 이 경우 수직 모음과 수평 모음은 100%의 인식률을, 자음은 93.75%의 인식 결과를 보였다.

  • PDF

모바일 시스템 응용을 위한 실외 한국어 간판 영상에서 텍스트 검출 및 인식 (Text Detection and Recognition in Outdoor Korean Signboards for Mobile System Applications)

  • 박종현;이귀상;김수형;이명훈
    • 전자공학회논문지CI
    • /
    • 제46권2호
    • /
    • pp.44-51
    • /
    • 2009
  • 자연 영상에서의 텍스트 이해는 지난 수년간 매우 활발한 연구 분야로 자리하고 있다. 논문에서 우리는 한국어 간판 영상으로부터 자동으로 텍스트를 인식하는 방법을 제안한다. 제안된 방법은 상호명의 인식을 위한 텍스트 영역의 검출 및 이진화를 포함하고 있다. 먼저 수직, 수평 방향의 에지 히스토그램을 이용하여 텍스트 영역의 정교한 검출을 수행하였다. 두 번째 단계는 검출된 텍스트 영역에 대해서 연결요소 기법을 적용하여 각각의 독립된 한 개의 문자 영역으로 분할되어지고, 마지막으로 최소 거리 분류법에 의해 각각의 글자를 인식한다. 각각의 문자 인식을 위해 모양 기반 통계적 특징을 추출한다. 실험에서 제안된 전체적인 효율성 및 정확성을 분석하였으며, 현재 구현된 모바일 시스템의 실용성을 확인할 수 있었다.

시각정보획득과정에 나타난 주사판정과 성별 주시특성 - 지하철 홀 공간을 대상으로 - (Scanning Determination & Observation Features by Sex shown in the Process of Acquiring Visual Information - With the Object of Subway Station Hall Space -)

  • 김종하;최계영
    • 한국실내디자인학회논문집
    • /
    • 제23권6호
    • /
    • pp.115-124
    • /
    • 2014
  • This study has carried out scanning tests in order to figure out the features of scanning search by sex of space users, with the result of which the validity of data has been estimated. In this research, the scanning patterns were set up for verifying the typology of scanning paths and then the reason for determining scanning paths and the validity of estimation method were reviewed. Since the observation features depends on sex, the analysis of visual activities for acquiring any information in a space will reveal the intention and purpose of space users. The findings by analyzing the features of scanning pattern by sex which were found at the determination of scanning patterns can be defined as the followings. First, for estimating the process of space-information search, the movement distance at each point of continuative-observation data from the angle of eye-movement has been extracted, on the ground of which the fixation and movement of eye have been defined for the establishment of scanning-cut characteristics. Second, the scanning times were estimated for the extraction of effective observation data that would be used for comparative analysis, which showed that men had more data (3,398.2/64.4%) than women (2,998.2/55.6%). This enables the acknowledgment that the scanning cut of men was relatively less, which indicates that men will acquire more information on space than women in the process of observing any space. Third, men's scanning times (58.0 times/2.02 seconds) were less than those of women (71.9 times/1.39 seconds) while the scanning time of the former was longer than that of the latter, which shows the feature that it takes longer for men than women in scanning while the scanning times of the former is less than those of the latter. Fourth, the observation features can be determined that the combination of this result with the predominance character by sex for a general viewpoint to be employed indicates that while men employ mixed-scanning for observation activities to acquire space-information spending for longer time, women, by concentrated-scanning, focus on a single point for shorter time or stay at one location for a considerably long time for space-information acquirement.