• 제목/요약/키워드: text extraction

검색결과 452건 처리시간 0.034초

Coiflet Wavelet과 LoG 연산자를 이용한 자연이미지에서의 텍스트 검출 알고리즘 (Text Extraction Algorithm in Natural Image using LoG Operator and Coiflet Wavelet)

  • 신성;백영현;문성룡;신홍규
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.979-982
    • /
    • 2005
  • This paper is to be pre-processing that decides the text recognizability and quality contained in natural image. Differentiated with the existing studies, In this paper, it suggests the application of partially unified color models, Coiflet Wavelet and text extraction algorithm that uses the closed curve edge features of LoG (laplacian of gaussian)operator. The text image included in natural image such as signboard has the same hue, saturation and value, and there is a certain thickness as for their feature. Each color element is restructured into closed area by LoG operator, the 2nd differential operator. The text area is contracted by Hough Transform, logical AND-OR operator of each color model and Minimum-Distance classifier. This paper targets natural image into which text area is added regardless of the size and resolution of the image, and it is confirmed to have more excellent performance than other algorithms with many restrictions.

  • PDF

빈도 분석을 이용한 HTML 텍스트 추출 (HTML Text Extraction Using Frequency Analysis)

  • 김진환;김은경
    • 한국정보통신학회논문지
    • /
    • 제25권9호
    • /
    • pp.1135-1143
    • /
    • 2021
  • 최근 빅데이터 분석을 위해 웹 크롤러를 이용한 텍스트 수집이 빈번하게 이루어지고 있다. 하지만 수많은 태그와 텍스트로 복잡하게 구성된 웹 페이지에서 필요한 텍스트만을 수집하기 위해서는 웹 크롤러에 빅데이터 분석에 필요한 본문이 포함된 HTML태그와 스타일 속성을 명시해야 하는 번거로움이 있다. 본 논문에서는 HTML태그와 스타일 속성을 명시하지 않고 웹 페이지에서 출현하는 텍스트의 빈도를 이용하여 본문을 추출하는 방법을 제안하였다. 제안한 방법에서는 수집된 모든 웹 페이지의 DOM 트리에서 텍스트를 추출하여 텍스트의 출현 빈도를 분석한 후, 출현 빈도가 높은 텍스트를 제외시킴으로써 본문을 추출하였으며, 본 연구에서 제안한 방법과 기존 방법의 정확도 비교를 통해서 본 연구에서 제안한 방법의 우수성을 검증하였다.

색 변화 특징을 이용한 자연이미지에서의 장면 텍스트 추출 (Scene Text Extraction in Natural Images Using Color Variance Feature)

  • 송영자;최영우
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.1835-1838
    • /
    • 2003
  • 이미지에 포함되어 있는 텍스트들은 이미지의 내용을 함축적이며 구체적으로 표현하는 정보를 갖고 있다. 본 논문에서는 이러한 정보를 정확히 추출하기 위해서 색 변화 특징을 이용한 텍스트 영역 추출 방법을 제안한다. 관찰에 의하면 이미지 내의 텍스트들은 주변 배경과의 색 변화가 존재하며, 이러한 색 변화를 3차원 RGB공간에서 표현한다면, 명도이미지에서의 밝기 변화에서 표현하기 어려운 영역들을 강조시킬 수 있으며, 조명 변화에도 민감하지 않은 결과를 만들어 낼 수 있다. 색 변화 정도는 3차원 RBG 공간에서의 색 분산(Variance)으로 측정한다 처리 과정으로서 우선 수평 및 수직 방향의 분산 이미지를 구하는데, 텍스트 영역은 두 방향의 분산 값이 모두 높은 특징이 있다. 다음으로 두 결과의 논리적 AND 연산을 수행하여 불필요한 잡영들을 제거한 후 연결요소를 분석, 검증하여 영역을 최종 확정한다. 다양한 종류의 자연이미지로 제안한 방법을 검증한 결과 밝기 변화 또는 색 연속성 특징들을 이용한 방법에서 찾기 어려운 텍스트 영역들을 찾을 수 있는 것을 확인할 수 있었다.

  • PDF

비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 (Overlay Text Graphic Region Extraction for Video Quality Enhancement Application)

  • 이상희;박한성;안정일;온영상;조강현
    • 방송공학회논문지
    • /
    • 제18권4호
    • /
    • pp.559-571
    • /
    • 2013
  • 2차원 비디오를 3차원 스테레오 비디오로 변환할 때 기존 비디오에 삽입되어 있는 오버레이 텍스트(overlay text) 그래픽 영역으로 인해 발생하는 문제점을 이 논문에서 제시한다. 이를 해결하기 위한 방법으로 2차원 비디오를 오버레이 텍스트 그래픽 영역만 있는 영상과 오버레이 그래픽 영역이 추출되어 홀(hole)이 있는 영상으로 분리하여 처리하는 시나리오를 제안한다. 그리고 이 시나리오의 첫 번째 단계로 오버레이 텍스트 영역을 검색하고 추출하는 방법에 대해서만 이 논문에서 논한다. 비디오 시퀀스(sequence)가 입력되면 불필요한 연산 과정을 줄이기 위해 해리스 코너(Harris corner)로 얻어진 코너 밀도 맵을 이용하여 프레임 내 오버레이 텍스트의 존재 유무를 먼저 판단한다. 오버레이 텍스트가 있다면, 색(color) 정보와 움직임(motion) 정보를 결합하여 오버레이 텍스트 그래픽 영역을 검색하고 추출한다. 실험에서는 여러 가지 장르의 방송용 비디오에 대한 처리 결과를 보여주고 분석했다.

Arabic Words Extraction and Character Recognition from Picturesque Image Macros with Enhanced VGG-16 based Model Functionality Using Neural Networks

  • Ayed Ahmad Hamdan Al-Radaideh;Mohd Shafry bin Mohd Rahim;Wad Ghaban;Majdi Bsoul;Shahid Kamal;Naveed Abbas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1807-1822
    • /
    • 2023
  • Innovation and rapid increased functionality in user friendly smartphones has encouraged shutterbugs to have picturesque image macros while in work environment or during travel. Formal signboards are placed with marketing objectives and are enriched with text for attracting people. Extracting and recognition of the text from natural images is an emerging research issue and needs consideration. When compared to conventional optical character recognition (OCR), the complex background, implicit noise, lighting, and orientation of these scenic text photos make this problem more difficult. Arabic language text scene extraction and recognition adds a number of complications and difficulties. The method described in this paper uses a two-phase methodology to extract Arabic text and word boundaries awareness from scenic images with varying text orientations. The first stage uses a convolution autoencoder, and the second uses Arabic Character Segmentation (ACS), which is followed by traditional two-layer neural networks for recognition. This study presents the way that how can an Arabic training and synthetic dataset be created for exemplify the superimposed text in different scene images. For this purpose a dataset of size 10K of cropped images has been created in the detection phase wherein Arabic text was found and 127k Arabic character dataset for the recognition phase. The phase-1 labels were generated from an Arabic corpus of quotes and sentences, which consists of 15kquotes and sentences. This study ensures that Arabic Word Awareness Region Detection (AWARD) approach with high flexibility in identifying complex Arabic text scene images, such as texts that are arbitrarily oriented, curved, or deformed, is used to detect these texts. Our research after experimentations shows that the system has a 91.8% word segmentation accuracy and a 94.2% character recognition accuracy. We believe in the future that the researchers will excel in the field of image processing while treating text images to improve or reduce noise by processing scene images in any language by enhancing the functionality of VGG-16 based model using Neural Networks.

텍스트마이닝 기법을 이용한 모바일 피트니스 애플리케이션 주요 요인 분석 : 사용자 경험 관점 (An Analysis on Key Factors of Mobile Fitness Application by Using Text Mining Techniques : User Experience Perspective)

  • 이소현;김진솔;윤상혁;김희웅
    • 한국IT서비스학회지
    • /
    • 제19권3호
    • /
    • pp.117-137
    • /
    • 2020
  • The development of information technology leads to changes in various industries. In particular, the health care industry is more influenced so that it is focused on. With the widening of the health care market, the market of smart device based personal health care also draws attention. Since a variety of fitness applications for smartphone based exercise were introduced, more interest has been in the health care industry. But although an amount of use of mobile fitness applications increase, it fails to lead to a sustained use. It is necessary to find and understand what matters for mobile fitness application users. Therefore, this study analyze the reviews of mobile fitness application users, to draw key factors, and thereby to propose detailed strategies for promoting mobile fitness applications. We utilize text mining techniques - LDA topic modeling, term frequency analysis, and keyword extraction - to draw and analyze the issues related to mobile fitness applications. In particular, the key factors drawn by text mining techniques are explained through the concept of user experience. This study is academically meaningful in the point that the key factors of mobile fitness applications are drawn by the user experience based text mining techniques, and practically this study proposes detailed strategies for promoting mobile fitness applications in the health care area.

카메라 영상 위에서의 문자 영역 추출 및 OCR (Text Region Extraction and OCR on Camera Based Images)

  • 신현경
    • 정보처리학회논문지D
    • /
    • 제17D권1호
    • /
    • pp.59-66
    • /
    • 2010
  • 기존의 OCR 엔진은 보정된 환경에서 읽혀진 서류 영상에 맞게 설계되어있다. 스마트 폰을 비롯한 검정 화면 거리가 보정되지 않은 기기에서 읽혀진 영상에서는 삼차원 원근 투시에 의한 찌그러짐 또는 곡면상에서의 찌그러짐 등이 핵심적인 문제점들로 여겨진다. 휴대용 단말기에서 읽혀진 영상들에서의 OCR 기능에 대한 요구가 증가일로에 있는 시점에서, 본 논문에서는 문제점들을 세 가지로 구분하고 - 회전에 무관한 문자 영역 추출, 폰트 등의 크기에 무관한 문자 선 영역 추출, 3차원 매핑 이론 - 이를 해결하기위한 방법을 제시하였다. 이러한 방법론을 통합하여 카메라 영상 위에서의 OCR을 개발하였다.

Research on Chinese Microblog Sentiment Classification Based on TextCNN-BiLSTM Model

  • Haiqin Tang;Ruirui Zhang
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.842-857
    • /
    • 2023
  • Currently, most sentiment classification models on microblogging platforms analyze sentence parts of speech and emoticons without comprehending users' emotional inclinations and grasping moral nuances. This study proposes a hybrid sentiment analysis model. Given the distinct nature of microblog comments, the model employs a combined stop-word list and word2vec for word vectorization. To mitigate local information loss, the TextCNN model, devoid of pooling layers, is employed for local feature extraction, while BiLSTM is utilized for contextual feature extraction in deep learning. Subsequently, microblog comment sentiments are categorized using a classification layer. Given the binary classification task at the output layer and the numerous hidden layers within BiLSTM, the Tanh activation function is adopted in this model. Experimental findings demonstrate that the enhanced TextCNN-BiLSTM model attains a precision of 94.75%. This represents a 1.21%, 1.25%, and 1.25% enhancement in precision, recall, and F1 values, respectively, in comparison to the individual deep learning models TextCNN. Furthermore, it outperforms BiLSTM by 0.78%, 0.9%, and 0.9% in precision, recall, and F1 values.

문자-에지 맵의 패턴 히스토그램을 이용한 자연이미지에서의 텍스트 영역 추출 (Text Region Extraction using Pattern Histogram of Character-Edge Map in Natural Images)

  • 박종천;황동국;이우람;권교현;전병민
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2006년도 추계학술발표논문집
    • /
    • pp.220-224
    • /
    • 2006
  • 자연이미지에 포함된 텍스트는 많은 중요한 정보를 포함하고 있다. 그러므로 자연이미지에서 텍스트를 추출할 수 있다면 다양한 분야에서 활용될 수 있다. 본 논문에서는 문자-에지 맵 패턴 히스토그램 분석함으로서 텍스트 영역을 추출하는 방법을 제안한다. 캐니-에지 검출기로 에지를 추출하여 16가지 에지 맵을 생성하고, 에지 맵을 조합하여 문자 특징을 갖는 8가지 문자-에지 맵을 생성한다. 8가지 문자-에지 맵과 16가지 에지 맵을 이용하여 텍스트 후보 영역을 추출하고, 문자-에지 맵의 패턴 히스토그램 및 텍스트 영역의 구조적 특징을 이용하여 텍스트 후보 영역에 대한 검증을 수행하였다. 제안한 방법은 다양한 종류의 자연이미지를 대상으로 실험하였고, 복잡한 배경, 다양한 글꼴, 다양한 텍스트 컬러로 구성된 자연이미지에서 텍스트 영역을 효과적으로 추출하였다.

  • PDF

디지털 비디오에서 문자 영역 이진화를 위한 색상 극화 기법 (The Color Polarity Method for Binarization of Text Region in Digital Video)

  • 정종면
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권9호
    • /
    • pp.21-28
    • /
    • 2009
  • 색상 극화란 주어진 텍스트 영역에서 글자색이 무엇인지를 결정하는 과정으로서 텍스트 추출을 위해서 선행되야 하는 작업이다. 본 논문에서는 텍스트 영역이 주어졌을 때 글자 영역을 추출하기 위한 색상 극화 기법을 제안한다. 제안된 방법은 글자 영역과 배경 영역에 대한 관찰을 바탕으로 두 영역 사이의 면적 비율과 표준편차비율의 관계를 색상 극화에 이용한다. 이를 위하여 그레이 스케일로 주어진 텍스트 영역을 Otsu의 방법으로 이진화하고 이진화된 두 영역을 각각 4-CC 레이블링한다. 레이블링된 두 그룹의 영역에 대해 각각 면적과 영역 중심으로부터의 거리에 대한 표준편차를 계산한 다음 두 그룹에서 면적이 가장 넓은 영역을 갖는 영역 사이의 면적 비와 표준편차가 가장 작은 영역들 사이의 표준편차 비를 이용하여 색상 극화를 수행한다. 다양한 폰트와 크기를 갖는 텍스트 영역에 대한 실험을 통해 제안된 방법이 강건하게 색상 극화를 수행함을 확인하였다.