• 제목/요약/키워드: Scene text

검색결과 118건 처리시간 0.024초

실세계 영상에서 경계선과 영상 분할을 이용한 기울기 검출 및 보정 (Extracting the Slope and Compensating the Image Using Edges and Image Segmentation in Real World Image)

  • 백재경;서영건
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권5호
    • /
    • pp.441-448
    • /
    • 2016
  • 본 논문에서는 문자열과 배경이 혼합된 장면에서 영상을 분할하여 기울기를 추출하고 보정하는 방법을 제안한다. 제안된 방법은 모폴로지를 이용하여 전처리를 하고 캐니 연산자를 이용하여 경계선을 검출한다. 그리고 경계선이 검출된 영상을 분할하여 경계선이 포함되어 있지 않는 영역은 배제하고 경계선이 포함되어 있는 영역만을 이용하여 여러 방향의 기울기에 따른 투영 히스토그램을 생성한다. 이를 이용하여 각 영역의 최대 경계선 집중도를 갖는 기울기를 구하고 장면의 기울기를 보정한다. 문자열과 배경이 혼합된 장면의 기울기 검출에서 제안된 방법은 경계선이 없는 무의미한 부분을 배제하기 때문에 기존의 방법보다 0.7% 더 좋은 결과를 얻을 수 있었다.

에지 및 컬러 양자화를 이용한 모바일 폰 카메라 기반장면 텍스트 검출 (Mobile Phone Camera Based Scene Text Detection Using Edge and Color Quantization)

  • 박종천;이근왕
    • 한국산학기술학회논문지
    • /
    • 제11권3호
    • /
    • pp.847-852
    • /
    • 2010
  • 자연 영상 내에 포함된 텍스트는 영상의 다양하고 중요한 특징을 갖는다. 그러므로 텍스트를 검출하고 추출하여 인식하는 것이 중요한 연구대상으로 연구되고 있다. 최근 모바일 폰 카메라를 기반으로 다양한 분야에서 많은 응용 기술이 연구 개발되고 있다. 본 논문은 에지 및 연결요소를 이용한 장면 텍스트 검출 방법을 제안한다. 그레이스케일 영상으로부터 에지 성분 검출과 지역적 표준편차를 이용하여 텍스트 영역의 경계선을 검출하고, RGB 컬러공간의 유클리디안 거리를 기준으로 연결요소를 검출한다. 검출된 에지 및 연결요소를 레이블링하고 각각 영역의 외곽사각형을 구한다. 텍스트의 휴리스틱 이용하여 후보 텍스트를 추출한다. 후보 텍스트 영역을 병합하여 하나의 후보 텍스트 영역을 생성하고, 후보 텍스트의 지역적 인접성과 구조적 유사성으로 후보 텍스트를 검증함으로서 최종적인 텍스트 영역을 검출하였다. 실험결과 에지 및 컬러 연결요소 특징을 상호 보완함으로서 텍스트 영역의 검출률을 향상시켰다.

A Gaussian Mixture Model for Binarization of Natural Scene Text

  • Tran, Anh Khoa;Lee, Gueesang
    • 스마트미디어저널
    • /
    • 제2권2호
    • /
    • pp.14-19
    • /
    • 2013
  • Recently, due to the increase of the use of scanned images, the text segmentation techniques, which play critical role to optimize the quality of the scanned images, are required to be updated and advanced. In this study, an algorithm has been developed based on the modification of Gaussian mixture model (GMM) by integrating the calculation of Gaussian detection gradient and the estimation of the number clusters. The experimental results show an efficient method for text segmentation in natural scenes such as storefronts, street signs, scanned journals and newspapers at different size, shape or color of texts in condition of lighting changes and complex background. These indicate that our model algorithm and research approach can address various issues, which are still limitations of other senior algorithms and methods.

  • PDF

한국어 역사 소설에서 공간적 배경 인식 기법 (A Recognition Method for Korean Spatial Background in Historical Novels)

  • 김서희;김승훈
    • 한국IT서비스학회지
    • /
    • 제15권1호
    • /
    • pp.245-253
    • /
    • 2016
  • Background in a novel is most important elements with characters and events, and means time, place and situation that characters appeared. Among the background, spatial background can help conveys topic of a novel. So, it may be helpful for choosing a novel that readers want to read. In this paper, we are targeting Korean historical novels. In case of English text, It can be recognize spatial background easily because it use upper and lower case and words used with the spatial information such as Bank, University and City. But, in case Korean text, it is difficult to recognize that spatial background because there is few information about usage of letter. In the previous studies, they use machine learning or dictionaries and rules to recognize about spatial information in text such as news and text messages. In this paper, we build a nation dictionaries that refer to information such as 'Korean history' and 'Google maps.' We Also propose a method for recognizing spatial background based on patterns of postposition in Korean sentences comparing to previous works. We are grasp using of postposition with spatial background because Korean characteristics. And we propose a method based on result of morpheme analyze and frequency in a novel text for raising accuracy about recognizing spatial background. The recognized spatial background can help readers to grasp the atmosphere of a novel and to understand the events and atmosphere through recognition of the spatial background of the scene that characters appeared.

카메라 획득 영상에서의 색 분산 및 개선된 K-means 색 병합을 이용한 텍스트 영역 추출 및 이진화 (Text Detection and Binarization using Color Variance and an Improved K-means Color Clustering in Camera-captured Images)

  • 송영자;최영우
    • 정보처리학회논문지B
    • /
    • 제13B권3호
    • /
    • pp.205-214
    • /
    • 2006
  • 이미지에 포함된 텍스트는 이미지의 내용을 함축적이고 구체적으로 표현하는 정보로서 이러한 정보를 실시간에 찾아내서 인식한다면 다양한 응용에 활용할 수 있다. 본 논문에서는 카메라로 취득한 다양한 종류의 이미지로부터 텍스트를 추출하는 방법과 추출된 영역에서 텍스트를 분리하는 방법을 새롭게 제안한다. 텍스트 영역 추출을 위해서 RGB 색 공간에서 색 분산을 특징으로 제안하며, 텍스트 영역 분리를 위해서 RGB 색 공간에서 개선된 K-means 병합을 제안한다. 실험은 디지털 카메라와 핸드폰 카메라로 취득한 다양한 종류의 문서유형 이미지와 실내외의 일반적인 자연이미지를 사용하였으며, ICDAR 콘테스트[1] 이미지의 일부도 사용하였다.

Ship Number Recognition Method Based on An improved CRNN Model

  • Wenqi Xu;Yuesheng Liu;Ziyang Zhong;Yang Chen;Jinfeng Xia;Yunjie Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.740-753
    • /
    • 2023
  • Text recognition in natural scene images is a challenging problem in computer vision. The accurate identification of ship number characters can effectively improve the level of ship traffic management. However, due to the blurring caused by motion and text occlusion, the accuracy of ship number recognition is difficult to meet the actual requirements. To solve these problems, this paper proposes a dual-branch network based on the CRNN identification network. The network couples image restoration and character recognition. The CycleGAN module is used for blur restoration branch, and the Pix2pix module is used for character occlusion branch. The two are coupled to reduce the impact of image blur and occlusion. Input the recovered image into the text recognition branch to improve the recognition accuracy. After a lot of experiments, the model is robust and easy to train. Experiments on CTW datasets and real ship maps illustrate that our method can get more accurate results.

다해상도 웨이블릿 변환과 써포트 벡터 머신을 이용한 자연영상에서의 문자 영역 검증 (Text Region Verification in Natural Scene Images using Multi-resolution Wavelet Transform and Support Vector Machine)

  • 배경숙;최영우
    • 정보처리학회논문지B
    • /
    • 제11B권6호
    • /
    • pp.667-674
    • /
    • 2004
  • 이미지에서 문자 추출은 영상을 이해하기 위한 가장 기초적이고 중요한 문제이다. 본 논문에서는 문자의 획 특징을 이용하는 통계적인 방법으로 문자 영역을 검증하는 방법을 제안한다. 제안하는 방법은 $16\times16$ 크기의 텍스트와 비텍스트 이미지를 웨이블릿(wavelet) 변환하여 문자의 획과 방향성을 표현하는 35차원의 특징을 추출한다. 추출된 특징 중 변별력이 높은 특징만을 선택하여 SVM(Support Vector Machine) 분류기를 구성한다. 분류기론 이용하여 $16\times16$크기의 윈도우로 검증 영역을 스캔하면서, 각각의 윈도우를 텍스트와 비텍스트로 분류하고 최종적으로 검증 영역의 텍스트 여부를 결정한다. 제안한 방법을 적용함으로써 텍스트와 유사하여 구별하기 어려운 비텍스트 영역을 검증할 수 있었다.

실세계 영상에서 적응적 에지 강화 기반의 MSER을 이용한 글자 영역 추출 기법 (An Extracting Text Area Using Adaptive Edge Enhanced MSER in Real World Image)

  • 박영목;박순화;서영건
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권4호
    • /
    • pp.219-226
    • /
    • 2016
  • 일반 생활 속에서 우리 인간의 눈으로 정보를 인식하고 그 정보를 이용하는 것에는 한계가 없을 만큼 다양하고 방대하다. 그러나 인공지능이 발달한 현재의 기술로도, 인간의 시각 처리 능력에 비하면 턱없이 능력이 부족하다. 그럼에도 불구하고 많은 연구자들은 실생활 속에서 정보를 얻고자 하고 있고, 특히 글자로 된 정보를 인식하는데 많은 노력을 기울이고 있다. 글자를 인식하는 분야에서 일반적인 문서에서 글자를 추출하는 것은 일부 정보처리 분야에서 이용되고 있지만, 실영상에서 문자를 추출하고 인식하는 부분은 아직도 많이 부족하다. 그 이유는 실영상에서는 색깔, 크기, 방향, 공통점 등에서 다양한 특징을 갖고 있기 때문이다. 본 논문에서는 이런 다양한 환경에서 문자 영역을 추출하기 위하여 적응적 에지 강화 기반의 MSER을 적용하여 장면 텍스트 추출을 시도하고, 비교적 좋은 방법임을 실험으로 보인다.

컬러 영상의 조명성분 분석을 통한 문자인식 성능 향상 (Improved Text Recognition using Analysis of Illumination Component in Color Images)

  • 치미영;김계영;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.131-136
    • /
    • 2007
  • 본 논문에서는 컬러영상에 존재하는 문자들을 효율적으로 추출하기 위한 새로운 접근 방법을 제안한다. 빛 또는 조명성분의 영향에 의해 획득된 영상 내에 존재하는 반사성분은 문자 또는 관심객체들의 경계가 모호해 지거나 관심객체와 배경이 서로 혼합 되었을 경우, 문자추출 및 인식을 함에 있어서 오류를 포함시킬 수 있다. 따라서 영상 내에 존재하는 반사성분을 제거하기 위해 먼저. 컬러영상으로부터 Red컬러 성분에 해당하는 히스토그램에서 두개의 pick점을 검출한다. 이후 검출된 두 개의 pick점들 간의 분포를 사용하여 노말 또는 편광 영상에 해당하는지를 판별한다. 노말 영상의 경우 부가적인 처리를 거치지 않고 문자에 해당하는 영역을 검출하며, 편광 영상에 해당하는 경우 반사성분을 제거하기 위해 호모모픽필터링 방법을 적용하여 반사성분에 해당하는 영역을 제거한다. 이후 문자영역을 검출하기 위해 최적전역임계화방식을 적용하여 전경과 배경을 분리하였으며 문자영역 추출 및 인식의 성능을 향상시켰다. 널리 사용되고 있는 문자 인식기를 사용하여 제안한 방식 적용 전과 후의 인식결과를 비교하였다. 편광영상에서 제안된 방법 적용 후, 문자인식을 한 경우 인식률이 향상되었다.

  • PDF