• Title/Summary/Keyword: 텍스트라인 추출

Search Result 24, Processing Time 0.023 seconds

Extracting curved text lines using the chain composition and the expanded grouping method (체인 정합과 확장된 그룹핑 방법을 사용한 곡선형 텍스트 라인 추출)

  • Bai, Nguyen Noi;Yoon, Jin-Seon;Song, Young-Jun;Kim, Nam;Kim, Yong-Gi
    • The KIPS Transactions:PartB
    • /
    • v.14B no.6
    • /
    • pp.453-460
    • /
    • 2007
  • In this paper, we present a method to extract the text lines in poorly structured documents. The text lines may have different orientations, considerably curved shapes, and there are possibly a few wide inter-word gaps in a text line. Those text lines can be found in posters, blocks of addresses, artistic documents. Our method based on the traditional perceptual grouping but we develop novel solutions to overcome the problems of insufficient seed points and vaned orientations un a single line. In this paper, we assume that text lines contained tone connected components, in which each connected components is a set of black pixels within a letter, or some touched letters. In our scheme, the connected components closer than an iteratively incremented threshold will make together a chain. Elongate chains are identified as the seed chains of lines. Then the seed chains are extended to the left and the right regarding the local orientations. The local orientations will be reevaluated at each side of the chains when it is extended. By this process, all text lines are finally constructed. The proposed method is good for extraction of the considerably curved text lines from logos and slogans in our experiment; 98% and 94% for the straight-line extraction and the curved-line extraction, respectively.

Text line extraction based on filtering and peak detection (필터링 및 피크검출을 이용한 텍스트 추출)

  • Jin, Bora;Cho, Nam-Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.41-42
    • /
    • 2013
  • 본 논문에서는 문서 영상 처리의 중요한 전처리 과정인 텍스트 라인 추출을 위하여 가우시안 필터링 및 피크 검출을 이용하는 방법을 제안한다. 이는 문서 영상 내의 글자 영역의 픽셀 강도와 텍스트 라인 사이의 간격에 해당하는 강도의 차이로 인해 문서 영상의 각 열마다 높은 피크와 낮은 피크가 번갈아 가며 나타나는 것에 기반으로, 제안하는 알고리즘은 필터 스케일 추정, 필터량 및 피크 검출, 라인 성분 그룹화의 세 단계로 구성된다. 필터 스케일 추정 단계에서는 여러 초기 값으로 필터링하여 피크 차이 간의 히스토그램을 만듦으로써 글자 크기를 대략적으로 예축하며, 필터링 및 피크 검출 단계에서 앞서 예측된 스케일의 가우시안 필터를 이용하여 필터링 한 후, 각각의 열마다 피크를 검출한다. 마지막으로 라인 성분 그룹화를 통하여 검출된 피크를 서로 연결하여 하나의 텍스트 라인을 구성하는 성분들로 그룹화시켜 텍스트 라인을 추출한다. 실험 결과를 통하여, 제안하는 알고리즘은 이진화 과정을 거치지 않음으로써 균일하지 못한 조명환경 등으로 이진화 성능이 좋지 못할 경우에도 텍스트 라인을 추출할 수 있으며, 텍스트 라인 간격이 인정하지 않고 휘어진 라인을 포함하는 경우에도 적용할 수 있음을 확인 할 수 있다.

  • PDF

A System for the Decomposition of Text Block into Words (텍스트 영역에 대한 단어 단위 분할 시스템)

  • Jeong, Chang-Boo;Kwag, Hee-Kue;Jeong, Seon-Hwa;Kim, Soo-Hyung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.293-296
    • /
    • 2000
  • 본 논문에서는 주제어 인식에 기반한 문서영상의 검색 및 색인 시스템에 적용하기 위한 단어 단위 분한 시스템을 제안한다. 제안 시스템은 영상 전처리, 문서 구조 분석을 통해 추출된 텍스트 영역을 입력으로 단어 단위 분할을 수행하는데, 텍스트 영역에 대해 텍스트 라인을 분할하고 분할된 텍스트 라인을 단어 단위로 분할하는 계층적 접근 방법을 사용한다. 텍스트라인 분할은 수평 방향 투영 프로파일을 적용하여 분할 지점을 구한다. 그리고 단어 분할은 연결요소들을 추출한 후 연결요소간의 gap 정보를 구하고, gap 군집화 기법을 사용하여 단어 단위 분한 지점을 구한다. 이때 단어 단위 분할의 성능을 저하시키는 특수기호에 대해서는 휴리스틱 정보를 이용하여 검출한다. 제안 시스템의 성능 평가는 50개의 텍스트 영역에 적용하여 99.83%의 정확도를 얻을 수 있었다.

  • PDF

Hangul Text Detection using Text Corner Edge Feature Analysis in Natural Scene Images (자연영상에서 코너 에지 특징 분석방법을 이용한 한글 텍스트 검출기법에 관한 연구)

  • Park Jong-Cheon;Kwon Kyo-Hyun;Jun Byung-Min
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2005.11a
    • /
    • pp.379-383
    • /
    • 2005
  • 본 연구에서는 자연 이미지에서 한글 텍스트가 갖고 있는 에지 코너 특징을 이용한 한글 텍스트 검출방법을 제안한다. 자연영상으로부터 에지를 검출하고, 검출된 에지를 20종류의 에지 구조 성분을 갖는 에지 맵을 생성한다. 생성된 에지 맵에서 한글 텍스트 특징 갖는 특징들을 조합하여 모두 8가지의 텍스트 영역 후보 특징을 추출한다. 추출된 텍스트 영역의 특징을 수평 및 수직방향으로 검사하여 텍스트의 시작 라인과 끝라인을 검출하여 텍스트 영역의 수평좌표를 구한다. 추출된 텍스트 후보 영역에서 최종적으로 텍스트 영역을 결정한다. 제안한 방법은 다양한 종류의 자연 이미지에서 텍스트 영역을 검출에서 좋은 성능을 나타냈다.

  • PDF

A Study on Proposal of Emotional expression for Online instant Messenger (온라인 인스턴트 메신저의 감정표현 방법 제안에 관한 연구)

  • Kim, Ju-Yong;Soh, Yeon-Jung
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02b
    • /
    • pp.48-54
    • /
    • 2007
  • 컴퓨터 네트워크의 발달로 인터넷이 실생활이 되면서, 온라인에서 인스턴트 메신저를 이용한 커뮤니케이션 방식이 확대되고 있다. 이러한 메신저에서는 이모티콘 및 플래시콘 혹은 윙크 등 과 같은 다양한 방식을 통해 감정을 표현할 수 있도록 제안하고 있다. 하지만, 아직까지 온라인의 감정표현은 흥미위주이며, 오프라인의 다양한 감정표현에 비해서 제한적이다 따라서 오프라인에서의 다양한 사용자 감정표현을 온라인에서 표현해 줄 수 있는 새로운 형태의 감성 커뮤니케이션 방법이 필요하다. 본 연구에서는 온라인 인스턴트 메신저의 사용행태 이해를 통해서 사용자들의 요구사항을 파악하고 이를 통해 제안할 수 있는 커뮤니케이션 방법을 모색하고자 한다. 실생활에서 사용자의 감정표현 방법을 바탕으로 온라인 메신저에 적용하여 새로운 감성 커뮤니케이션 방법을 제안하는 연구로, 감정어휘와 표현방법의 사용자 조사를 통해 감정표현 방법에 대한 컨셉을 제안하였다. 우선 메신저 사용 행태와 요구사항 도출을 위한 사용자 FGI를 진행하였다. 사용자 FGI로 얻어진 사용자들의 메신저 사용행태를 통해, 텍스트와 모션을 활용하는 '텍스트콘'을 컨셉 아이디어로 도출하였다. 아이디어에 적용하기 위해 모션을 감정으로 인해 파생되는 행동과 체감각 요소로 구분하였다. 구체적인 표현방법 및 적용 요소를 추출하기 위한 방법으로 온라인 설문조사를 실시하였으며 감정어휘와 표현방법(행동, 체감각)을 추출하였다. 추출된 내용은 '사용자 참여 관찰' 기법을 활용하여, 사용어휘와 행동을 정리하고 구제화하여 그 결과를 '텍스트콘'에 적용하였다. 본 연구는 사용자들이 메신저를 이용한 감정표현에 있어 텍스트를 선호하고 텍스트에 대한 요구사형에 있음을 확인하였으며, 감정표현 컨셉 아이디어 '텍스트콘'을 도출하였다. '사용자 참여 관찰' 기법을 활용하여 기존의 이모티콘으로 대표되는 그래픽 아이콘 중심의 사용자 감정표현 방법을 보조해줄 수 있는 방법으로 실생활에서 사용자가 표현하고 받아들이는 신체언와 행동을 적용하였다는 것에 그 의의가 있다. 또한, 감정에 의한 생리적 반응 요소를 외적인 반응과 내적인 반응으로 구분하여, '체감각'이라고 하는 내적반응을 중심표현방법으로 삼아, 기존과는 다른 시각으로 접근할 수 있었다.

  • PDF

Chunking Annotation Corpus Construction for Keyword Extraction in News Domain (뉴스 기사 키워드 추출을 위한 구묶음 주석 말뭉치 구축)

  • Kim, Tae-Young;Kim, Jeong Ah;Kim, Bo Hui;Oh, Hyo Jung
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.595-597
    • /
    • 2020
  • 빅데이터 시대에서 대용량 문서의 의미를 자동으로 파악하기 위해서는 문서 내에서 주제 및 내용을 포괄하는 핵심 단어가 키워드 단위로 추출되어야 한다. 문서에서 키워드가 될 수 있는 단위는 복합명사를 포함한 단어가 될 수도, 그 이상의 묶음이 될 수도 있다. 한국어는 언어적 특성상 구묶음 개념이 적용되는 데, 이를 통해 주요 키워드가 될 수 있는 말덩이 추출이 가능하다. 따라서 본 연구에서는 문서에서 단어뿐만 아니라 다양한 단위의 키워드 묶음을 태깅하는 가이드라인 정의를 비롯해 태깅도구를 활용한 코퍼스 구축 방법론을 고도화하고, 그 방법론을 실제로 뉴스 도메인에 적용하여 주석 말뭉치를 구축함으로써 검증하였다. 본 연구의 결과물은 텍스트 문서의 내용을 파악하고 분석이 필요한 모든 텍스트마이닝 관련 기술의 기초 작업으로 활용 가능하다.

  • PDF

Feature Selection for a Hangul Text Document Classification System (한글 텍스트 문서 분류시스템을 위한 속성선택)

  • Lee, Jae-Sik;Cho, You-Jung
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2003.05a
    • /
    • pp.435-442
    • /
    • 2003
  • 정보 추출(Information Retrieval) 시스템은 거대한 양의 정보들 가운데 필요한 정보의 적절한 탐색을 도와주기 위한 도구이다. 이는 사용자가 요구하는 정보를 보다 정확하고 보다 효과적이면서 보다 효율적으로 전달해주어야만 한다. 그러기 위해서는 문서내의 무수히 많은 속성들 가운데 해당 문서의 특성을 잘 반영하는 속성만을 선별해서 적절히 활용하는 것이 절실히 요구된다. 이에 본 연구는 기존의 한글 문서 분류시스템(CB_TFIDF)[1]의 정확도와 신속성 두 가지 측면의 성능향상에 초점을 두고 있다. 기존의 영문 텍스트 문서 분류시스템에 적용되었던 다양한 속성선택 기법들 가운데 잘 알려진 세가지 즉, Information Gain, Odds Ratio, Document Frequency Thresholding을 통해 선별적인 사례베이스를 구성한 다음에 한글 텍스트 문서 분류시스템에 적용시켜서 성능을 비교 평가한 후, 한글 문서 분류시스템에 가장 적절한 속성선택 기법과 속성 선택에 대한 가이드라인을 제시하고자 한다.

  • PDF

Offering system for major article Using Text Mining and Data Mining (텍스트마이닝과 데이터마이닝을 이용한 주요기사 제공 시스템)

  • Song, Sung-Mook;Ryu, Joon-Suk;Kim, Ung-Mo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.733-734
    • /
    • 2009
  • 현대사회에서 인터넷의 비약적인 발전과 빠른 보급으로 우리가 접할 수 있는 정보의 양이 늘어나고 이들 중에서 필요한 정보만을 얻어내기에는 쉽지 않다. 특히 비구조적이고 정형화되지 않은 텍스트 데이터인 기사들을 텍스트마이닝을 이용하여 기사 헤드라인을 용어 단위로 구분하여 추출하고 데이터마이닝의 연관 규칙을 적용하여 빈발항목의 지지도와 용어간의 연관성을 통해 기사의 내용에 효과적으로 접근하는 시스템을 제안하고자 한다.

Multi-modal Image Processing for Improving Recognition Accuracy of Text Data in Images (이미지 내의 텍스트 데이터 인식 정확도 향상을 위한 멀티 모달 이미지 처리 프로세스)

  • Park, Jungeun;Joo, Gyeongdon;Kim, Chulyun
    • Database Research
    • /
    • v.34 no.3
    • /
    • pp.148-158
    • /
    • 2018
  • The optical character recognition (OCR) is a technique to extract and recognize texts from images. It is an important preprocessing step in data analysis since most actual text information is embedded in images. Many OCR engines have high recognition accuracy for images where texts are clearly separable from background, such as white background and black lettering. However, they have low recognition accuracy for images where texts are not easily separable from complex background. To improve this low accuracy problem with complex images, it is necessary to transform the input image to make texts more noticeable. In this paper, we propose a method to segment an input image into text lines to enable OCR engines to recognize each line more efficiently, and to determine the final output by comparing the recognition rates of CLAHE module and Two-step module which distinguish texts from background regions based on image processing techniques. Through thorough experiments comparing with well-known OCR engines, Tesseract and Abbyy, we show that our proposed method have the best recognition accuracy with complex background images.

A Comparative Research on End-to-End Clinical Entity and Relation Extraction using Deep Neural Networks: Pipeline vs. Joint Models (심층 신경망을 활용한 진료 기록 문헌에서의 종단형 개체명 및 관계 추출 비교 연구 - 파이프라인 모델과 결합 모델을 중심으로 -)

  • Sung-Pil Choi
    • Journal of the Korean Society for Library and Information Science
    • /
    • v.57 no.1
    • /
    • pp.93-114
    • /
    • 2023
  • Information extraction can facilitate the intensive analysis of documents by providing semantic triples which consist of named entities and their relations recognized in the texts. However, most of the research so far has been carried out separately for named entity recognition and relation extraction as individual studies, and as a result, the effective performance evaluation of the entire information extraction systems was not performed properly. This paper introduces two models of end-to-end information extraction that can extract various entity names in clinical records and their relationships in the form of semantic triples, namely pipeline and joint models and compares their performances in depth. The pipeline model consists of an entity recognition sub-system based on bidirectional GRU-CRFs and a relation extraction module using multiple encoding scheme, whereas the joint model was implemented with a single bidirectional GRU-CRFs equipped with multi-head labeling method. In the experiments using i2b2/VA 2010, the performance of the pipeline model was 5.5% (F-measure) higher. In addition, through a comparative experiment with existing state-of-the-art systems using large-scale neural language models and manually constructed features, the objective performance level of the end-to-end models implemented in this paper could be identified properly.