• 제목/요약/키워드: Text Region Detection

검색결과 54건 처리시간 0.024초

자연영상에서 문자의 형태 분석을 이용한 문자영역 추출에 관한 연구 (A Study on Extraction of text region using shape analysis of text in natural scene image)

  • 양재호;한현호;김기봉;이상훈
    • 한국융합학회논문지
    • /
    • 제9권11호
    • /
    • pp.61-68
    • /
    • 2018
  • 본 논문에서는 일상에서 획득할 수 있는 자연 영상에서 문자를 검출하기 위해 영상 개선 및 문자의 형태를 분석하여 문자를 검출하는 방법을 제안한다. 제안하는 방법은 자연 영상에서 문자로 인식될 영역의 검출률을 향상시키기 위해 객체부분의 경계를 언샤프 마스크를 사용하여 강조하였다. 향상된 객체의 경계 부분을 이용하여 영상의 문자 후보영역을 MSER(Maximally Stable Extermal Regions)을 이용하여 검출하였다. 검출된 문자 후보영역에서 실제 문자로 판단될 영역을 검출하기 위해 각 영역들의 형태를 분석하여 글자의 특성을 갖는 영역외의 비 문자영역을 제거하여 실제 문자영역 검출률을 높였다. 본 논문의 정량적 평가를 위해 문자 영역의 검출률과 정확도를 이용하여 기존의 방법들과 비교하였다. 실험결과 기존의 문자 검출 방법보다 제안하는 방법이 비교적 높은 문자영역의 검출률 및 정확도를 보였다.

Table Detection from Document Image using Vertical Arrangement of Text Blocks

  • Tran, Dieu Ni;Tran, Tuan Anh;Oh, Aran;Kim, Soo Hyung;Na, In Seop
    • International Journal of Contents
    • /
    • 제11권4호
    • /
    • pp.77-85
    • /
    • 2015
  • Table detection is a challenging problem and plays an important role in document layout analysis. In this paper, we propose an effective method to identify the table region from document images. First, the regions of interest (ROIs) are recognized as the table candidates. In each ROI, we locate text components and extract text blocks. After that, we check all text blocks to determine if they are arranged horizontally or vertically and compare the height of each text block with the average height. If the text blocks satisfy a series of rules, the ROI is regarded as a table. Experiments on the ICDAR 2013 dataset show that the results obtained are very encouraging. This proves the effectiveness and superiority of our proposed method.

모바일 시스템 응용을 위한 실외 한국어 간판 영상에서 텍스트 검출 및 인식 (Text Detection and Recognition in Outdoor Korean Signboards for Mobile System Applications)

  • 박종현;이귀상;김수형;이명훈
    • 전자공학회논문지CI
    • /
    • 제46권2호
    • /
    • pp.44-51
    • /
    • 2009
  • 자연 영상에서의 텍스트 이해는 지난 수년간 매우 활발한 연구 분야로 자리하고 있다. 논문에서 우리는 한국어 간판 영상으로부터 자동으로 텍스트를 인식하는 방법을 제안한다. 제안된 방법은 상호명의 인식을 위한 텍스트 영역의 검출 및 이진화를 포함하고 있다. 먼저 수직, 수평 방향의 에지 히스토그램을 이용하여 텍스트 영역의 정교한 검출을 수행하였다. 두 번째 단계는 검출된 텍스트 영역에 대해서 연결요소 기법을 적용하여 각각의 독립된 한 개의 문자 영역으로 분할되어지고, 마지막으로 최소 거리 분류법에 의해 각각의 글자를 인식한다. 각각의 문자 인식을 위해 모양 기반 통계적 특징을 추출한다. 실험에서 제안된 전체적인 효율성 및 정확성을 분석하였으며, 현재 구현된 모바일 시스템의 실용성을 확인할 수 있었다.

문자-에지 맵의 패턴 히스토그램을 이용한 자연이미지에세 텍스트 영역 추출 (Text Region Extraction Using Pattern Histogram of Character-Edge Map in Natural Images)

  • 박종천;황동국;이우람;전병민
    • 한국산학기술학회논문지
    • /
    • 제7권6호
    • /
    • pp.1167-1174
    • /
    • 2006
  • 자연이미지로부터 텍스트 영역 추출은 자동차 번호판 인식 등과 같은 많은 응용프로그램에서 유용하다. 따라서 본 논문은 문자-에지 맵의 패턴 히스토그램을 이용한 텍스트 영역을 추출하는 방법을 제안한다. 16종류의 에지맵을 생성하고, 이것을 조합하여 문자 특징을 갖는 8종류 문자-에지 맵 특징을 추출한다. 문자-에지 맵의 특징을 이용하여 텍스트 후보 영역을 추출하고, 텍스트 후보 영역에 대한 검증은 문자-에지 맵의 패턴 히스토그램 및 텍스트 영역의 구조적 특징을 이용하였다. 실험결과 제안한 방법은 복잡한 배경, 다양한 글꼴, 다양한 텍스트 컬러로 구성된 자연이미지로부터 텍스트 영역을 효과적으로 추출하였다.

  • PDF

비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 (Overlay Text Graphic Region Extraction for Video Quality Enhancement Application)

  • 이상희;박한성;안정일;온영상;조강현
    • 방송공학회논문지
    • /
    • 제18권4호
    • /
    • pp.559-571
    • /
    • 2013
  • 2차원 비디오를 3차원 스테레오 비디오로 변환할 때 기존 비디오에 삽입되어 있는 오버레이 텍스트(overlay text) 그래픽 영역으로 인해 발생하는 문제점을 이 논문에서 제시한다. 이를 해결하기 위한 방법으로 2차원 비디오를 오버레이 텍스트 그래픽 영역만 있는 영상과 오버레이 그래픽 영역이 추출되어 홀(hole)이 있는 영상으로 분리하여 처리하는 시나리오를 제안한다. 그리고 이 시나리오의 첫 번째 단계로 오버레이 텍스트 영역을 검색하고 추출하는 방법에 대해서만 이 논문에서 논한다. 비디오 시퀀스(sequence)가 입력되면 불필요한 연산 과정을 줄이기 위해 해리스 코너(Harris corner)로 얻어진 코너 밀도 맵을 이용하여 프레임 내 오버레이 텍스트의 존재 유무를 먼저 판단한다. 오버레이 텍스트가 있다면, 색(color) 정보와 움직임(motion) 정보를 결합하여 오버레이 텍스트 그래픽 영역을 검색하고 추출한다. 실험에서는 여러 가지 장르의 방송용 비디오에 대한 처리 결과를 보여주고 분석했다.

Text Line Segmentation using AHTC and Watershed Algorithm for Handwritten Document Images

  • Oh, KangHan;Kim, SooHyung;Na, InSeop;Kim, GwangBok
    • International Journal of Contents
    • /
    • 제10권3호
    • /
    • pp.35-40
    • /
    • 2014
  • Text line segmentation is a critical task in handwritten document recognition. In this paper, we propose a novel text-line-segmentation method using baseline estimation and watershed. The baseline-detection algorithm estimates the baseline using Adaptive Head-Tail Connection (AHTC) on the document. Then, the watershed method segments the line region using the baseline-detection result. Finally, the text lines are separated by watershed result and a post-processing algorithm defines the lines more correctly. The scheme successfully segments text lines with 97% accuracy from the handwritten document images in the ICDAR database.

Local Similarity based Document Layout Analysis using Improved ARLSA

  • Kim, Gwangbok;Kim, SooHyung;Na, InSeop
    • International Journal of Contents
    • /
    • 제11권2호
    • /
    • pp.15-19
    • /
    • 2015
  • In this paper, we propose an efficient document layout analysis algorithm that includes table detection. Typical methods of document layout analysis use the height and gap between words or columns. To correspond to the various styles and sizes of documents, we propose an algorithm that uses the mean value of the distance transform representing thickness and compare with components in the local area. With this algorithm, we combine a table detection algorithm using the same feature as that of the text classifier. Table candidates, separators, and big components are isolated from the image using Connected Component Analysis (CCA) and distance transform. The key idea of text classification is that the characteristics of the text parallel components that have a similar thickness and height. In order to estimate local similarity, we detect a text region using an adaptive searching window size. An improved adaptive run-length smoothing algorithm (ARLSA) was proposed to create the proper boundary of a text zone and non-text zone. Results from experiments on the ICDAR2009 page segmentation competition test set and our dataset demonstrate the superiority of our dataset through f-measure comparison with other algorithms.

웹 이미지로부터 이미지기반 문자추출 (Locating Text in Web Images Using Image Based Approaches)

  • Chin, Seongah;Choo, Moonwon
    • 지능정보연구
    • /
    • 제8권1호
    • /
    • pp.27-39
    • /
    • 2002
  • 본 논문은 다양한 웹 이미지로부터 문자영역(text block)의 위치를 알아내고 문자영역을 추출하는 방법을 제안한다. 인터넷 사용자관점에서 볼 때, 웹 이미지에 포함되어 있는 문자정보는 중요한 정보이지만 최근까지 이 분야의 연구는 그리 활발하지 못했다. 본 연구에서 제안된 알고리즘은 문자의 경사방향(skew)과 문자의 크기나 폰트에 관한 사전 정보 없이 수행되어 질 수 있도록 제안되었다 폰트 스타일과 크기에 제약되지 않고 문자영역을 적합하게 추출하기 위해 유용한 에지 검출, 문자 클러스터링 영역으로 정의되는 문자의 고유한 특성을 위한 히스토그램을 사용하였다. 다수의 실험을 통하여 제안된 방법을 테스트하고 수용할 만한 결과를 도출했다.

  • PDF

An End-to-End Sequence Learning Approach for Text Extraction and Recognition from Scene Image

  • Lalitha, G.;Lavanya, B.
    • International Journal of Computer Science & Network Security
    • /
    • 제22권7호
    • /
    • pp.220-228
    • /
    • 2022
  • Image always carry useful information, detecting a text from scene images is imperative. The proposed work's purpose is to recognize scene text image, example boarding image kept on highways. Scene text detection on highways boarding's plays a vital role in road safety measures. At initial stage applying preprocessing techniques to the image is to sharpen and improve the features exist in the image. Likely, morphological operator were applied on images to remove the close gaps exists between objects. Here we proposed a two phase algorithm for extracting and recognizing text from scene images. In phase I text from scenery image is extracted by applying various image preprocessing techniques like blurring, erosion, tophat followed by applying thresholding, morphological gradient and by fixing kernel sizes, then canny edge detector is applied to detect the text contained in the scene images. In phase II text from scenery image recognized using MSER (Maximally Stable Extremal Region) and OCR; Proposed work aimed to detect the text contained in the scenery images from popular dataset repositories SVT, ICDAR 2003, MSRA-TD 500; these images were captured at various illumination and angles. Proposed algorithm produces higher accuracy in minimal execution time compared with state-of-the-art methodologies.

카메라 영상 위에서의 문자 영역 추출 및 OCR (Text Region Extraction and OCR on Camera Based Images)

  • 신현경
    • 정보처리학회논문지D
    • /
    • 제17D권1호
    • /
    • pp.59-66
    • /
    • 2010
  • 기존의 OCR 엔진은 보정된 환경에서 읽혀진 서류 영상에 맞게 설계되어있다. 스마트 폰을 비롯한 검정 화면 거리가 보정되지 않은 기기에서 읽혀진 영상에서는 삼차원 원근 투시에 의한 찌그러짐 또는 곡면상에서의 찌그러짐 등이 핵심적인 문제점들로 여겨진다. 휴대용 단말기에서 읽혀진 영상들에서의 OCR 기능에 대한 요구가 증가일로에 있는 시점에서, 본 논문에서는 문제점들을 세 가지로 구분하고 - 회전에 무관한 문자 영역 추출, 폰트 등의 크기에 무관한 문자 선 영역 추출, 3차원 매핑 이론 - 이를 해결하기위한 방법을 제시하였다. 이러한 방법론을 통합하여 카메라 영상 위에서의 OCR을 개발하였다.