• 제목/요약/키워드: Text Region Detection

검색결과 56건 처리시간 0.021초

공간 정보와 투영 프로파일을 이용한 문서 영상에서의 타이틀 영역 추출 (Automatic Title Detection by Spatial Feature and Projection Profile for Document Images)

  • 박효진;김보람;김욱현
    • 융합신호처리학회논문지
    • /
    • 제11권3호
    • /
    • pp.209-214
    • /
    • 2010
  • 본 논문은 형태 처리기법과 연결요소 분석을 이용한 문서 영상의 분할과 구조적인 특징과 투영 프로파일 분석을 이용하여 문서영상에서 제목영역 추출방안을 제안한다. 문서 영상의 처리는 영상 분할과 제목 추출, 두 단계로 이루어진다. 영상 분할의 단계에서는 문서 영상을 구성요소 영역들로 나눈다. 영상 분할이 끝나면 분할된 영역들을 대상으로 구조적인 정보를 이용하여 제목이 될 후보 영역을 추출한다. 제목이 아닌 영역을 제거하여 제목 후보영역을 추출하고 난 후 투영 프로파일을 분석하여 제목 영역을 최종적으로 추출한다. 본 논문에서 제시된 투영 프로파일 분석을 이용한 제목 추출 방법은 다양한 문서 영상의 분할 및 제목 추출 결과를 보였으며, 문서 제목 인식, 멀티미디어 데이터 검색, 실시간 영상처리와 같은 다양한 응용분야에 활용될 것으로 기대된다.

DCT계수와 천이지도 분석을 이용한 개선된 영상 내 자막영역 검출방법 (An Improved Method for Detecting Caption in image using DCT-coefficient and Transition-map Analysis)

  • 안권재;주성일;김계영;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권4호
    • /
    • pp.61-71
    • /
    • 2011
  • 본 논문은 DCT계수와 천이지도 분석을 이용하여 영상 내 자막영역을 검출하는 방법에 대해 제안한다. 기존 DCT계수 분석방법을 이용한 문자영역탐지 방법은 검출률은 높으나 오검출률이 매우 높은 단점이 있고, 천이지도를 이용한문자영역 탐지 방법은 임계값이 정적이기때문에 문자영역 검증단계에서 실제문자영역이 기각되는 일이 빈번히 발생한다. 이러한 문제점을 해결하기 위해 DCT계수 분석방법을 이용하여 유망문자영역맵을 작성하고 이를 천이지도를 이용한 문자영역탐지 방법에 적용하여 임계값을 단계별로 정한다. 그 결과로서 DCT계수 분석을 이용한 문자영역검출방법에 비해 오검출률이 크게 감소하였으며, 기존 천이지도를 이용한 문자영역검출 방법보다 검출률이 크게 향상되었다.

휴대전화 동영상에서의 문자 영역 검출 방법 (Text Region Detection Method in Mobile Phone Video)

  • 이훈재;설상훈
    • 대한전자공학회논문지SP
    • /
    • 제47권5호
    • /
    • pp.192-198
    • /
    • 2010
  • 최근 카메라가 탑재된 휴대전화가 널리 보급되면서 휴대전화로 촬영한 동영상에서 문자영역을 검출하고 인식하여 사용자에게 유용한 정보를 제공하는 기능에 대한 연구가 활발히 이루어지고 있다. 따라서 휴대전화로 촬영된 동영상에서 문자 영역을 검출하기 위한 방법이 필요하다. 이를 위해 형태학적 연산을 이용하여 전처리를 수행한 다음, 전처리를 수행한 영상에 대해 변형된 k-means 군집화를 이용하여 이진영상을 얻어낸 후, 연결 요소 (Connected component) 분석 및 문자 특성을 이용한 방법들을 적용하여 문자후보 영역을 검출하고, 일정 시간 내 문자 후보 영역의 검출 빈도를 조사하여 문자 영역 검출의 정확도를 높이는 방법을 제안한다. 휴대전화 동영상을 대상으로 한 실험 결과를 통해 제안하는 방법은 정확도와 회수율이 모두 뛰어난 효과적인 문자 영역 검출 방법임을 확인할 수 있다.

해리스 코너 검출기를 이용한 비디오 자막 영역 추출 (Text Region Extraction from Videos using the Harris Corner Detector)

  • 김원준;김창익
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권7호
    • /
    • pp.646-654
    • /
    • 2007
  • 최근 많은 TV 영상에서 시청자의 시각적 편의와 이해를 고려하여 자막을 삽입하는 경우가 늘어나고 있다. 본 논문에서는 자막을 비디오 내 하단부에 위치하는 인위적으로 추가된 글자 영역으로 정의한다. 이러한 자막 영역의 추출은 비디오 정보 검색(video information retrieval)이나 비디오 색인(video indexing)과 같은 응용에서 글자 추출을 위한 첫 단계로 널리 쓰인다. 기존의 자막 영역 추출은 자막의 색, 자막과 배경의 자기 대비, 에지(edge), 글자 필터 등을 이용한 방법을 사용하였다. 그러나 비디오 영상내 자막이 갖는 낮은 해상도와 복잡한 배경으로 인해 자막 추출에 어려움이 있다. 이에 본 논문은 코너검출기(corner detector)를 이용한 효율적인 비디오 자막 영역 추출 방법을 제안하고자 한다. 제안하는 알고리즘은 해리스 코너 검출기를 이용한 코너 맵 생성, 코너 밀도를 이용한 자막 영역 후보군 추출, 레이블링(labeling)을 이용한 최종 자막 영역 결정, 노이즈(noise) 제거 및 영역 채우기의 네 단계로 구성된다. 제안하는 알고리즘은 색 정보를 이용하지 않기 때문에 여러 가지 색으로 표현되는 자막 영역 추출에 적용가능하며 글자 모양이 아닌 글자의 코너를 이용하기 때문에 언어의 종류에 관계없이 사용 될 수 있다. 또한 프레임간 자막 영역 업데이트를 통해 자막 영역 추출의 효율을 높였다. 다양한 영상에 대한 실험을 통해 제안하는 알고리즘이 효율적인 비디오 자막 영역 추출 방법임을 보이고자 한다.

색상 단순화와 윤곽선 패턴 분석을 통한 이미지에서의 글자추출 (Text extraction in images using simplify color and edges pattern analysis)

  • 양재호;박영수;이상훈
    • 한국융합학회논문지
    • /
    • 제8권8호
    • /
    • pp.33-40
    • /
    • 2017
  • 본 논문은 이미지에서 효과적인 문자검출을 위해 색상단순화 및 윤곽선에서의 패턴 분석을 통한 문자 검출방법을 제안한다. 윤곽선 기반방법을 사용하는 문자검출 알고리즘은 단순한 배경의 이미지에서는 우수한 성능을 보이지만, 복잡한 배경의 이미지에서는 성능이 떨어지는 단점이 있다. 따라서 제안하는 방법은 복잡한 배경에서의 비문자영역을 최소화하기 위해 이미지 단순화 및 패턴분석을 통한 문자 검출 알고리즘을 제안한다. 먼저 이미지에서의 문자영역 부분을 검출하기 위하여 전처리 과정으로 K-means 군집화를 사용하여 이미지의 색상을 단순화하고, 색상 단순화 과정에서의 물체의 경계의 흐릿해짐을 개선하기 위해 고주파통과필터를 통해 물체의 경계를 강화한다. 그 후 모폴로지 기법의 팽창과 침식의 차이를 이용하여 물체의 윤곽선을 검출하고, 획득한 영역의 윤곽선 부분의 정보(높이, 너비 면적)를 구한 후 패턴분석을 통해 조건을 줌으로써 문자 후보영역을 판별하여 문자가 아닌 불필요한 영역(그림, 배경)을 제거한다. 최종 결과로 라벨링을 통해 불필요한 영역이 제거된 결과를 보여준다.

영상에서 철강 제품 번호 검출을 위한 전처리 알고리즘 (Pre-processing Algorithm for Detection of Steel Product Number in Images)

  • 구근휘;윤종필;최성후;최종현;김상우
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.117-118
    • /
    • 2008
  • 제철소에서 생산된 Slab에는 서로를 구분하기 위해 관리번호가 기재되어 있다. 호스트 컴퓨터에서 보내 온 Slab 관기번호와 제품에 마킹되어 있는 Slab 관리번호의 일치 여부를 확인하기 위하여 자동 인식 시스템이 설치되어 있다. 자동 인식 시스템은 실시간으로 Slab가 없을 때의 영상과 Slab가 있을 때의 영상을 촬영하고 이를 이용하여 Slab 관리 번호를 인식하는 방법으로 구성되어 있다. 제철소 배경 영상이 복잡하고 조명이 계속 바뀌기 때문에 Text Region을 찾는 방법은 Slab 관리 번호를 인식하는데 가장 큰 문제점이다. 본 논문에서는 복잡한 배경을 실시간으로 Training하여 Text Region을 찾기 위한 전처리 과정을 나타내었다. 복잡한 배경 영상을 이용하여 Slab가 위치한 Region을 찾을 수 있고 실시간으로 Training하기 때문에 조명의 영향을 줄일 수 있다.

  • PDF

Arabic Words Extraction and Character Recognition from Picturesque Image Macros with Enhanced VGG-16 based Model Functionality Using Neural Networks

  • Ayed Ahmad Hamdan Al-Radaideh;Mohd Shafry bin Mohd Rahim;Wad Ghaban;Majdi Bsoul;Shahid Kamal;Naveed Abbas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1807-1822
    • /
    • 2023
  • Innovation and rapid increased functionality in user friendly smartphones has encouraged shutterbugs to have picturesque image macros while in work environment or during travel. Formal signboards are placed with marketing objectives and are enriched with text for attracting people. Extracting and recognition of the text from natural images is an emerging research issue and needs consideration. When compared to conventional optical character recognition (OCR), the complex background, implicit noise, lighting, and orientation of these scenic text photos make this problem more difficult. Arabic language text scene extraction and recognition adds a number of complications and difficulties. The method described in this paper uses a two-phase methodology to extract Arabic text and word boundaries awareness from scenic images with varying text orientations. The first stage uses a convolution autoencoder, and the second uses Arabic Character Segmentation (ACS), which is followed by traditional two-layer neural networks for recognition. This study presents the way that how can an Arabic training and synthetic dataset be created for exemplify the superimposed text in different scene images. For this purpose a dataset of size 10K of cropped images has been created in the detection phase wherein Arabic text was found and 127k Arabic character dataset for the recognition phase. The phase-1 labels were generated from an Arabic corpus of quotes and sentences, which consists of 15kquotes and sentences. This study ensures that Arabic Word Awareness Region Detection (AWARD) approach with high flexibility in identifying complex Arabic text scene images, such as texts that are arbitrarily oriented, curved, or deformed, is used to detect these texts. Our research after experimentations shows that the system has a 91.8% word segmentation accuracy and a 94.2% character recognition accuracy. We believe in the future that the researchers will excel in the field of image processing while treating text images to improve or reduce noise by processing scene images in any language by enhancing the functionality of VGG-16 based model using Neural Networks.

딥러닝에 의한 한글 필기체 교정 어플 구현 (An Implementation of Hangul Handwriting Correction Application Based on Deep Learning)

  • 이재형;조민영;김진수
    • 한국산업정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.13-22
    • /
    • 2024
  • 현재 디지털 기기의 확산과 함께 일상에서 손으로 쓰는 글씨의 비중은 점점 줄어들고 있다. 키보드와 터치스크린의 활용도 증가에 따라 한글 필기체의 품질 저하는 어린 학생부터 성인까지 넓은 범위의 한글 문서에서 관찰되고 있다. 그러나 한글 필기체는 여전히 개인적인 고유한 특징을 포함하면서 가독성을 제공하는 많은 문서 작성에 필요하다. 이를 위해 본 논문에서는 손으로 쓴 한글 필기체의 품질을 개선하고, 교정하기 위한 목적의 어플 구현을 목적으로 한다. 제안된 어플은 CRAFT(Character-Region Awareness For Text Detection) 모델을 사용하여 필기체 영역을 검출하고, 딥러닝으로서 VGG-Feature-Extraction 모델을 사용하여 필기체의 특징을 학습한다. 이때 사용자가 작성한 한글 필기체의 음절 단위로 신뢰도를 인식률로 제시하고, 또한, 후보 폰트들중에서 가장 유사한 글자체를 추천하도록 구현한다. 다양한 실험을 통해 제안한 어플은 기존의 상용화된 문자 인식 소프트웨어와 비교할만한 우수한 인식률을 제공함을 확인할 수 있다.

모바일 디바이스 화면의 클릭 가능한 객체 탐지를 위한 싱글 샷 디텍터 (Single Shot Detector for Detecting Clickable Object in Mobile Device Screen)

  • 조민석;전혜원;한성수;정창성
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권1호
    • /
    • pp.29-34
    • /
    • 2022
  • 모바일 디바이스 화면상의 클릭 가능한 객체를 인지하기 위한 데이터셋을 구축하고 새로운 네트워크 구조를 제안한다. 모바일 디바이스 화면에서 클릭 가능한 객체를 기준으로 다양한 해상도를 가진 디바이스에서 여러 애플리케이션을 대상으로 데이터를 수집하였다. 총 24,937개의 annotation data를 text, edit text, image, button, region, status bar, navigation bar의 7개 카테고리로 세분화하였다. 해당 데이터셋을 학습하기 위한 모델 구조는 Deconvolution Single Shot Detector를 베이스라인으로, backbone network는 기존 ResNet에 Squeeze-and-Excitation block을 추가한 Squeeze-and-Excitation networks를 사용하고, Single shot detector layers와 Deconvolution module을 Feature pyramid networks 형태로 쌓아 올려 header와 연결한다. 또한, 기존 input resolution의 1:1 비율에서 오는 특징의 손실을 최소화하기 위해 모바일 디바이스 화면과 유사한 1:2 비율로 변경하였다. 해당 모델을 구축한 데이터셋에 대하여 실험한 결과 베이스라인에 대비하여 mean average precision이 최대 101% 개선되었다.

Text Extraction from Complex Natural Images

  • Kumar, Manoj;Lee, Guee-Sang
    • International Journal of Contents
    • /
    • 제6권2호
    • /
    • pp.1-5
    • /
    • 2010
  • The rapid growth in communication technology has led to the development of effective ways of sharing ideas and information in the form of speech and images. Understanding this information has become an important research issue and drawn the attention of many researchers. Text in a digital image contains much important information regarding the scene. Detecting and extracting this text is a difficult task and has many challenging issues. The main challenges in extracting text from natural scene images are the variation in the font size, alignment of text, font colors, illumination changes, and reflections in the images. In this paper, we propose a connected component based method to automatically detect the text region in natural images. Since text regions in mages contain mostly repetitions of vertical strokes, we try to find a pattern of closely packed vertical edges. Once the group of edges is found, the neighboring vertical edges are connected to each other. Connected regions whose geometric features lie outside of the valid specifications are considered as outliers and eliminated. The proposed method is more effective than the existing methods for slanted or curved characters. The experimental results are given for the validation of our approach.