• 제목/요약/키워드: Scene text recognition

검색결과 30건 처리시간 0.045초

Text Extraction in HIS Color Space by Weighting Scheme

  • Le, Thi Khue Van;Lee, Gueesang
    • 스마트미디어저널
    • /
    • 제2권1호
    • /
    • pp.31-36
    • /
    • 2013
  • A robust and efficient text extraction is very important for an accuracy of Optical Character Recognition (OCR) systems. Natural scene images with degradations such as uneven illumination, perspective distortion, complex background and multi color text give many challenges to computer vision task, especially in text extraction. In this paper, we propose a method for extraction of the text in signboard images based on a combination of mean shift algorithm and weighting scheme of hue and saturation in HSI color space for clustering algorithm. The number of clusters is determined automatically by mean shift-based density estimation, in which local clusters are estimated by repeatedly searching for higher density points in feature vector space. Weighting scheme of hue and saturation is used for formulation a new distance measure in cylindrical coordinate for text extraction. The obtained experimental results through various natural scene images are presented to demonstrate the effectiveness of our approach.

  • PDF

Ship Number Recognition Method Based on An improved CRNN Model

  • Wenqi Xu;Yuesheng Liu;Ziyang Zhong;Yang Chen;Jinfeng Xia;Yunjie Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.740-753
    • /
    • 2023
  • Text recognition in natural scene images is a challenging problem in computer vision. The accurate identification of ship number characters can effectively improve the level of ship traffic management. However, due to the blurring caused by motion and text occlusion, the accuracy of ship number recognition is difficult to meet the actual requirements. To solve these problems, this paper proposes a dual-branch network based on the CRNN identification network. The network couples image restoration and character recognition. The CycleGAN module is used for blur restoration branch, and the Pix2pix module is used for character occlusion branch. The two are coupled to reduce the impact of image blur and occlusion. Input the recovered image into the text recognition branch to improve the recognition accuracy. After a lot of experiments, the model is robust and easy to train. Experiments on CTW datasets and real ship maps illustrate that our method can get more accurate results.

자연영상 텍스트 이진화를 위한 3단계 색상 군집화 알고리즘 (Three-Level Color Clustering Algorithm for Binarizing Scene Text Images)

  • 김지수;김수형
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.737-744
    • /
    • 2005
  • 본 논문에서는 자연 영상에서 추출된 텍스트 영상의 이진화를 위한 3단계 색상 분할 알고리즘을 제안한다. 1단계 색상 분할은 입력 영상 중에서 텍스트색상과 배경색상이 잘 구별되는 단순 영상의 이진화를 수행하고, 2단계 색상 분할은 입력 영상에 고주파 필터를 적용하여 자연조명 이나 인공조명에 영향을 받은 영상의 이진화를 수행하며, 3단계 색상 분할은 저주파 필터를 기반으로 텍스트나 배경에 텍스쳐가 존재하는 영상의 이진화를 수행한다. 제안한 이진화 알고리즘이 그레이 정보를 이용하는 이진화 알고리즘보다 효과적으로 텍스트 영역을 이진화함을 입증하기 위해 상용문서 인식기인 아르미 6.0을 사용하여 이진화된 문자영상에 대한 인식 실험을 실행하였다. 그 결과 제안한 알고리즘의 필드 단위 인식률이 그레이 정보를 이용한 이진화 알고리즘의 인식률보다 $35\%$ 이상 우수함을 관측하였다.

A Fast Algorithm for Korean Text Extraction and Segmentation from Subway Signboard Images Utilizing Smartphone Sensors

  • Milevskiy, Igor;Ha, Jin-Young
    • Journal of Computing Science and Engineering
    • /
    • 제5권3호
    • /
    • pp.161-166
    • /
    • 2011
  • We present a fast algorithm for Korean text extraction and segmentation from subway signboards using smart phone sensors in order to minimize computational time and memory usage. The algorithm can be used as preprocessing steps for optical character recognition (OCR): binarization, text location, and segmentation. An image of a signboard captured by smart phone camera while holding smart phone by an arbitrary angle is rotated by the detected angle, as if the image was taken by holding a smart phone horizontally. Binarization is only performed once on the subset of connected components instead of the whole image area, resulting in a large reduction in computational time. Text location is guided by user's marker-line placed over the region of interest in binarized image via smart phone touch screen. Then, text segmentation utilizes the data of connected components received in the binarization step, and cuts the string into individual images for designated characters. The resulting data could be used as OCR input, hence solving the most difficult part of OCR on text area included in natural scene images. The experimental results showed that the binarization algorithm of our method is 3.5 and 3.7 times faster than Niblack and Sauvola adaptive-thresholding algorithms, respectively. In addition, our method achieved better quality than other methods.

Gradation Image Processing for Text Recognition in Road Signs Using Image Division and Merging

  • 정규수
    • 한국ITS학회 논문지
    • /
    • 제13권2호
    • /
    • pp.27-33
    • /
    • 2014
  • This paper proposes a gradation image processing method for the development of a Road Sign Recognition Platform (RReP), which aims to facilitate the rapid and accurate management and surveying of approximately 160,000 road signs installed along the highways, national roadways, and local roads in the cities, districts (gun), and provinces (do) of Korea. RReP is based on GPS(Global Positioning System), IMU(Inertial Measurement Unit), INS(Inertial Navigation System), DMI(Distance Measurement Instrument), and lasers, and uses an imagery information collection/classification module to allow the automatic recognition of signs, the collection of shapes, pole locations, and sign-type data, and the creation of road sign registers, by extracting basic data related to the shape and sign content, and automated database design. Image division and merging, which were applied in this study, produce superior results compared with local binarization method in terms of speed. At the results, larger texts area were found in images, the accuracy of text recognition was improved when images had been gradated. Multi-threshold values of natural scene images are used to improve the extraction rate of texts and figures based on pattern recognition.

한국어 역사 소설에서 공간적 배경 인식 기법 (A Recognition Method for Korean Spatial Background in Historical Novels)

  • 김서희;김승훈
    • 한국IT서비스학회지
    • /
    • 제15권1호
    • /
    • pp.245-253
    • /
    • 2016
  • Background in a novel is most important elements with characters and events, and means time, place and situation that characters appeared. Among the background, spatial background can help conveys topic of a novel. So, it may be helpful for choosing a novel that readers want to read. In this paper, we are targeting Korean historical novels. In case of English text, It can be recognize spatial background easily because it use upper and lower case and words used with the spatial information such as Bank, University and City. But, in case Korean text, it is difficult to recognize that spatial background because there is few information about usage of letter. In the previous studies, they use machine learning or dictionaries and rules to recognize about spatial information in text such as news and text messages. In this paper, we build a nation dictionaries that refer to information such as 'Korean history' and 'Google maps.' We Also propose a method for recognizing spatial background based on patterns of postposition in Korean sentences comparing to previous works. We are grasp using of postposition with spatial background because Korean characteristics. And we propose a method based on result of morpheme analyze and frequency in a novel text for raising accuracy about recognizing spatial background. The recognized spatial background can help readers to grasp the atmosphere of a novel and to understand the events and atmosphere through recognition of the spatial background of the scene that characters appeared.

컬러 영상의 조명성분 분석을 통한 문자인식 성능 향상 (Improved Text Recognition using Analysis of Illumination Component in Color Images)

  • 치미영;김계영;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.131-136
    • /
    • 2007
  • 본 논문에서는 컬러영상에 존재하는 문자들을 효율적으로 추출하기 위한 새로운 접근 방법을 제안한다. 빛 또는 조명성분의 영향에 의해 획득된 영상 내에 존재하는 반사성분은 문자 또는 관심객체들의 경계가 모호해 지거나 관심객체와 배경이 서로 혼합 되었을 경우, 문자추출 및 인식을 함에 있어서 오류를 포함시킬 수 있다. 따라서 영상 내에 존재하는 반사성분을 제거하기 위해 먼저. 컬러영상으로부터 Red컬러 성분에 해당하는 히스토그램에서 두개의 pick점을 검출한다. 이후 검출된 두 개의 pick점들 간의 분포를 사용하여 노말 또는 편광 영상에 해당하는지를 판별한다. 노말 영상의 경우 부가적인 처리를 거치지 않고 문자에 해당하는 영역을 검출하며, 편광 영상에 해당하는 경우 반사성분을 제거하기 위해 호모모픽필터링 방법을 적용하여 반사성분에 해당하는 영역을 제거한다. 이후 문자영역을 검출하기 위해 최적전역임계화방식을 적용하여 전경과 배경을 분리하였으며 문자영역 추출 및 인식의 성능을 향상시켰다. 널리 사용되고 있는 문자 인식기를 사용하여 제안한 방식 적용 전과 후의 인식결과를 비교하였다. 편광영상에서 제안된 방법 적용 후, 문자인식을 한 경우 인식률이 향상되었다.

  • PDF

시각장애인 보조를 위한 영상기반 휴먼 행동 인식 시스템 (Image Based Human Action Recognition System to Support the Blind)

  • 고병철;황민철;남재열
    • 정보과학회 논문지
    • /
    • 제42권1호
    • /
    • pp.138-143
    • /
    • 2015
  • 본 논문에서는 시각장애인의 장면인식 보조를 위해, 귀걸이 형 블루투수 카메라와 행동인식 서버간의 통신을 통해 휴먼의 행동을 인식하는 시스템을 제안한다. 먼저 시각장애인이 귀걸이 형 블루투수 카메라를 이용하여 원하는 위치의 장면을 촬영하면, 촬영된 영상은 카메라와 연동된 스마트 폰을 통해 인식서버로 전송된다. 인식 서버에서는 영상 분석 알고리즘을 이용하여 휴먼 및 객체를 검출하고 휴먼의 포즈를 분석하여 휴먼 행동을 인식한다. 인식된 휴먼 행동 정보는 스마트 폰에 재 전송되고 사용자는 스마트 폰을 통해 text-to-speech (TTS)로 인식결과를 듣게 된다. 본 논문에서 제안한 시스템에서는 실내 외에서 촬영된 실험데이터에 대해서 60.7%의 휴먼 행동 인식 성능을 보여 주었다.

문자-에지 맵의 패턴 히스토그램을 이용한 자연이미지에세 텍스트 영역 추출 (Text Region Extraction Using Pattern Histogram of Character-Edge Map in Natural Images)

  • 박종천;황동국;이우람;전병민
    • 한국산학기술학회논문지
    • /
    • 제7권6호
    • /
    • pp.1167-1174
    • /
    • 2006
  • 자연이미지로부터 텍스트 영역 추출은 자동차 번호판 인식 등과 같은 많은 응용프로그램에서 유용하다. 따라서 본 논문은 문자-에지 맵의 패턴 히스토그램을 이용한 텍스트 영역을 추출하는 방법을 제안한다. 16종류의 에지맵을 생성하고, 이것을 조합하여 문자 특징을 갖는 8종류 문자-에지 맵 특징을 추출한다. 문자-에지 맵의 특징을 이용하여 텍스트 후보 영역을 추출하고, 텍스트 후보 영역에 대한 검증은 문자-에지 맵의 패턴 히스토그램 및 텍스트 영역의 구조적 특징을 이용하였다. 실험결과 제안한 방법은 복잡한 배경, 다양한 글꼴, 다양한 텍스트 컬러로 구성된 자연이미지로부터 텍스트 영역을 효과적으로 추출하였다.

  • PDF