• 제목/요약/키워드: Text Region Extraction

검색결과 47건 처리시간 0.019초

Touch TT: Scene Text Extractor Using Touchscreen Interface

  • Jung, Je-Hyun;Lee, Seong-Hun;Cho, Min-Su;Kim, Jin-Hyung
    • ETRI Journal
    • /
    • 제33권1호
    • /
    • pp.78-88
    • /
    • 2011
  • In this paper, we present the Touch Text exTractor (Touch TT), an interactive text segmentation tool for the extraction of scene text from camera-based images. Touch TT provides a natural interface for a user to simply indicate the location of text regions with a simple touchline. Touch TT then automatically estimates the text color and roughly locates the text regions. By inferring text characteristics from the estimated text color and text region, Touch TT can extract text components. Touch TT can also handle partially drawn lines which cover only a small section of text area. The proposed system achieves reasonable accuracy for text extraction from moderately difficult examples from the ICDAR 2003 database and our own database.

주파수 특성과 역전파 신경망 알고리즘을 이용한 문자 영역 분할 방법 (A method for Character Segmentation using Frequence Characteristics and Back Propagation Neural Network)

  • 전병태;송치양
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권4호
    • /
    • pp.55-60
    • /
    • 2006
  • 문자 영역 추출을 위해서 FFT와 신경망을 이용한 방법을 본 논문에서 제안하고자 한다. 일반적으로 문자 영역은 고주파 영역에서 발견되므로 FFT를 이용하여 이 특징을 추출할 수 있다. 문자(고 주파) 영역과 비 문자(저 주파) 영역을 신경망에 학습을 시킨다. 신경망에 고주파 영역을 입력으로써 후보 영역을 추출한다. 그리고 최종 문자 영역은 후보 영역 검증을 통하여 추출된다. 실험 결과 후보 영역 추출은 학습된 경우 100% 추출율을 보여주고 있으며, 검증을 통한 후보 영역 추출율은 95%임을 알 수 있었다. 제안된 알고리즘의 장점은 알고리즘의 단순성과 실시간 처리에 있다.

  • PDF

카메라 영상 위에서의 문자 영역 추출 및 OCR (Text Region Extraction and OCR on Camera Based Images)

  • 신현경
    • 정보처리학회논문지D
    • /
    • 제17D권1호
    • /
    • pp.59-66
    • /
    • 2010
  • 기존의 OCR 엔진은 보정된 환경에서 읽혀진 서류 영상에 맞게 설계되어있다. 스마트 폰을 비롯한 검정 화면 거리가 보정되지 않은 기기에서 읽혀진 영상에서는 삼차원 원근 투시에 의한 찌그러짐 또는 곡면상에서의 찌그러짐 등이 핵심적인 문제점들로 여겨진다. 휴대용 단말기에서 읽혀진 영상들에서의 OCR 기능에 대한 요구가 증가일로에 있는 시점에서, 본 논문에서는 문제점들을 세 가지로 구분하고 - 회전에 무관한 문자 영역 추출, 폰트 등의 크기에 무관한 문자 선 영역 추출, 3차원 매핑 이론 - 이를 해결하기위한 방법을 제시하였다. 이러한 방법론을 통합하여 카메라 영상 위에서의 OCR을 개발하였다.

자연영상에서 교통 표지판의 기울기 보정 및 덱스트 추출 (Skew Compensation and Text Extraction of The Traffic Sign in Natural Scenes)

  • 최규담;김성동;최기호
    • 한국ITS학회 논문지
    • /
    • 제3권2호
    • /
    • pp.19-28
    • /
    • 2004
  • 본 논문은 자연영상에서 얻은 교통표지판의 기울기를 보정하고 텍스트를 추출하는 방법을 제안한다. 본 연구는 명도 이미지를 대상으로 모든 과정이 4단계로 이루어진다. 첫째, 자연 영상에서 에지 검출을 위한 전처리 및 Canny 에지 추출을 수행하며, 둘째, 영상의 기울기를 추출하기 위해 허프 변환에 대한 전처리와 후처리를 한 후, 셋째로 잡음영상과 선을 제거하고 텍스트가 가지고 있는 특징을 이용하여 후보영역 검출을 한다 마지막으로 검출된 텍스트 후보영역 안에서 지역적 이진화를 수행한 후, 불필요한 비텍스트 연결 요소를 추려내기 위해 텍스트와 비텍스트 간의 연결요소에 나타나는 특징 차이를 이용하여 텍스트 추출을 수행한다 100장의 샘플영상을 대상으로 실험한 결과 82.54$\%$ 텍스트 추출률과 79.69$\%$ 추출 정확도를 가짐으로써 기존의 런 길이 평활화 방법이나 퓨리어 변환을 이용한 방법보다 더 정확한 텍스트 추출 향상을 보였다. 또한 기울어진 각도 추출에서도 94.3$\%$의 추출률로 기존의 Hough 변환만을 이용한 방법보다 약 26$\%$의 향상을 보였다. 본 연구는 시각 장애인 보행 보조 시스템이나 무인 자동차 운행에 있어 위치 정보를 제공하는데 활용할수 있을 것이다.

  • PDF

디지털 비디오에서 문자 영역 이진화를 위한 색상 극화 기법 (The Color Polarity Method for Binarization of Text Region in Digital Video)

  • 정종면
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권9호
    • /
    • pp.21-28
    • /
    • 2009
  • 색상 극화란 주어진 텍스트 영역에서 글자색이 무엇인지를 결정하는 과정으로서 텍스트 추출을 위해서 선행되야 하는 작업이다. 본 논문에서는 텍스트 영역이 주어졌을 때 글자 영역을 추출하기 위한 색상 극화 기법을 제안한다. 제안된 방법은 글자 영역과 배경 영역에 대한 관찰을 바탕으로 두 영역 사이의 면적 비율과 표준편차비율의 관계를 색상 극화에 이용한다. 이를 위하여 그레이 스케일로 주어진 텍스트 영역을 Otsu의 방법으로 이진화하고 이진화된 두 영역을 각각 4-CC 레이블링한다. 레이블링된 두 그룹의 영역에 대해 각각 면적과 영역 중심으로부터의 거리에 대한 표준편차를 계산한 다음 두 그룹에서 면적이 가장 넓은 영역을 갖는 영역 사이의 면적 비와 표준편차가 가장 작은 영역들 사이의 표준편차 비를 이용하여 색상 극화를 수행한다. 다양한 폰트와 크기를 갖는 텍스트 영역에 대한 실험을 통해 제안된 방법이 강건하게 색상 극화를 수행함을 확인하였다.

뉴스 비디오 자막 추출 및 인식 기법에 관한 연구 (Study on News Video Character Extraction and Recognition)

  • 김종열;김성섭;문영식
    • 대한전자공학회논문지SP
    • /
    • 제40권1호
    • /
    • pp.10-19
    • /
    • 2003
  • 비디오 영상에 포함되어 있는 자막은 비디오의 내용을 함축적으로 표현하고 있기 때문에 비디오 색인 및 검색에 중요하게 사용될 수 시다. 본 논문에서는 뉴스 비디오로부터 폰트, 색상, 자막의 크기 등과 같은 사전 지식 없이도 자막을 효율적으로 추출하여 인식하는 방법을 제안한다. 문자 영역의 추출과정에서 문자영역은 뉴스 비디오의 여러 프레임에 걸쳐나 나오기 때문에 인길 프레임의 차영상을 통해서 동일한 자막 영역이 존재하는 프레임을 자동적으로 추출한 후, 이들의 시간적 평균영상을 만들어 인식에 사용함으로써 인식률을 향상한다. 또한, 평균 영상의 외각선 영상을 수평, 수직방향으로 투영한 값을 통해 문자 영역을 찾아 Region filling, K-means clustering을 적용하여 배경들을 완벽하게 제거함으로써 최종적인 자막 영상을 추출한다. 자막 인식과정에서는 문사 영역 추출과정에서 추출된 글자영상을 사용하여 white run, zero-one transition과 같은 비교적 간단한 특징 값을 추출하여 이를 비교함으로써 인식과정을 수행한다. 제한된 방법을 다양한 뉴스 비디오에 적용하여 문자영역 추출 능력과 인식률을 측정한 결과 우수함을 확인하였다.

복잡한 영상 내의 문자영역 추출을 위한 텍스춰와 연결성분 방법의 결합 (Hybrid Approach of Texture and Connected Component Methods for Text Extraction in Complex Images)

  • 정기철
    • 대한전자공학회논문지SP
    • /
    • 제41권6호
    • /
    • pp.175-186
    • /
    • 2004
  • 본 논문은 복잡한 컬러 영상에서의 문자 추출을 위한 텍스춰와 연결성분 방법의 결합된 방법을 제안한다. 자동 학습 방법으로 구축된 다층 신경망(multilayer perceptron)은 부트스트랩 학습 방법을 사용함으로써 별도의 특징값 추출 단계 없이 다양한 환경의 입력 영상에 대한 검출률(recall rate)을 향상시키며, 검출률을 향상함으로써 발생되는 정확도(precision rate) 저하 문제는, NMF(Non-negative matrix factorization)를 이용한 연결 성분 방법을 사용함으로써 극복한다. 문자의 존재 비율이 낮은 입력영상에 대하여 CAMShift 알고리즘을 이용한 영역 마킹 방법을 사용함으로써, 두 방법을 결합함으로써 야기되는 속도 저하 문제의 해결을 시도하였다. 이와 같이 텍스춰와 연결성분 방법을 결합함으로써 강건하고 효율적인 시스템을 구성할 수 있었다.

다해상도 웨이블릿 변환과 써포트 벡터 머신을 이용한 자연영상에서의 문자 영역 검증 (Text Region Verification in Natural Scene Images using Multi-resolution Wavelet Transform and Support Vector Machine)

  • 배경숙;최영우
    • 정보처리학회논문지B
    • /
    • 제11B권6호
    • /
    • pp.667-674
    • /
    • 2004
  • 이미지에서 문자 추출은 영상을 이해하기 위한 가장 기초적이고 중요한 문제이다. 본 논문에서는 문자의 획 특징을 이용하는 통계적인 방법으로 문자 영역을 검증하는 방법을 제안한다. 제안하는 방법은 $16\times16$ 크기의 텍스트와 비텍스트 이미지를 웨이블릿(wavelet) 변환하여 문자의 획과 방향성을 표현하는 35차원의 특징을 추출한다. 추출된 특징 중 변별력이 높은 특징만을 선택하여 SVM(Support Vector Machine) 분류기를 구성한다. 분류기론 이용하여 $16\times16$크기의 윈도우로 검증 영역을 스캔하면서, 각각의 윈도우를 텍스트와 비텍스트로 분류하고 최종적으로 검증 영역의 텍스트 여부를 결정한다. 제안한 방법을 적용함으로써 텍스트와 유사하여 구별하기 어려운 비텍스트 영역을 검증할 수 있었다.

에지 및 컬러 양자화를 이용한 모바일 폰 카메라 기반장면 텍스트 검출 (Mobile Phone Camera Based Scene Text Detection Using Edge and Color Quantization)

  • 박종천;이근왕
    • 한국산학기술학회논문지
    • /
    • 제11권3호
    • /
    • pp.847-852
    • /
    • 2010
  • 자연 영상 내에 포함된 텍스트는 영상의 다양하고 중요한 특징을 갖는다. 그러므로 텍스트를 검출하고 추출하여 인식하는 것이 중요한 연구대상으로 연구되고 있다. 최근 모바일 폰 카메라를 기반으로 다양한 분야에서 많은 응용 기술이 연구 개발되고 있다. 본 논문은 에지 및 연결요소를 이용한 장면 텍스트 검출 방법을 제안한다. 그레이스케일 영상으로부터 에지 성분 검출과 지역적 표준편차를 이용하여 텍스트 영역의 경계선을 검출하고, RGB 컬러공간의 유클리디안 거리를 기준으로 연결요소를 검출한다. 검출된 에지 및 연결요소를 레이블링하고 각각 영역의 외곽사각형을 구한다. 텍스트의 휴리스틱 이용하여 후보 텍스트를 추출한다. 후보 텍스트 영역을 병합하여 하나의 후보 텍스트 영역을 생성하고, 후보 텍스트의 지역적 인접성과 구조적 유사성으로 후보 텍스트를 검증함으로서 최종적인 텍스트 영역을 검출하였다. 실험결과 에지 및 컬러 연결요소 특징을 상호 보완함으로서 텍스트 영역의 검출률을 향상시켰다.

An End-to-End Sequence Learning Approach for Text Extraction and Recognition from Scene Image

  • Lalitha, G.;Lavanya, B.
    • International Journal of Computer Science & Network Security
    • /
    • 제22권7호
    • /
    • pp.220-228
    • /
    • 2022
  • Image always carry useful information, detecting a text from scene images is imperative. The proposed work's purpose is to recognize scene text image, example boarding image kept on highways. Scene text detection on highways boarding's plays a vital role in road safety measures. At initial stage applying preprocessing techniques to the image is to sharpen and improve the features exist in the image. Likely, morphological operator were applied on images to remove the close gaps exists between objects. Here we proposed a two phase algorithm for extracting and recognizing text from scene images. In phase I text from scenery image is extracted by applying various image preprocessing techniques like blurring, erosion, tophat followed by applying thresholding, morphological gradient and by fixing kernel sizes, then canny edge detector is applied to detect the text contained in the scene images. In phase II text from scenery image recognized using MSER (Maximally Stable Extremal Region) and OCR; Proposed work aimed to detect the text contained in the scenery images from popular dataset repositories SVT, ICDAR 2003, MSRA-TD 500; these images were captured at various illumination and angles. Proposed algorithm produces higher accuracy in minimal execution time compared with state-of-the-art methodologies.