• 제목/요약/키워드: Text segmentation

검색결과 140건 처리시간 0.029초

분야연상어를 이용한 화제의 계속성과 전환성을 추적하는 단락분할 방법 (Passage Retrieval based on Tracing Topic Continuity and Transition by Using Field-Associated Term)

  • 이상곤
    • 정보처리학회논문지B
    • /
    • 제10B권1호
    • /
    • pp.57-66
    • /
    • 2003
  • 복수의 화제가 혼합되어 있는 문서에서 각 화제의 경계부분을 구분하여 결정하는 기술을 단락분할이라 한다. 이 기술은 정보검색의 분야에만 한정되지 않고 다양한 분야에서 중요한 역할을 담당할 기술이다. 잘 정의된 분야체계에 따라 구축된 분야연상어를 이용하여 단락분할을 시도한다. 분야연상어란 특정한 분야를 정확하게 연상할 수 있는 단어로서 잘 분류된 문서 컬렉션에서 구축할 수 있다. 이 분야연상어를 이용하여 문서를 관련된 분야별로 추출하여 의미기반 단락추출 방법을 제안한다. 화제의 계속성에 주목하여 분야연상어의 수준(범위)이나 연속출현성에 의해 계산된 계속도에 의해 화제의 실마리를 추적하고, 화제의 전환성을 고려한 방법을 제안한다. 문서 내 각 화제의 단락구분을 명확히 하여, 단락을 화제분야별로 추출하는 방법을 제안한다. 일본어 50문서를 실험한 결과 82%의 정확율과 63%의 재현율을 얻어 실용성을 기대할 수 있었고, 한국어에 적용하여도 좋을 것으로 예상한다.

체인 정합과 확장된 그룹핑 방법을 사용한 곡선형 텍스트 라인 추출 (Extracting curved text lines using the chain composition and the expanded grouping method)

  • ;윤진선;송영준;김남;김용기
    • 정보처리학회논문지B
    • /
    • 제14B권6호
    • /
    • pp.453-460
    • /
    • 2007
  • 본 논문은 정형화되지 않은 텍스트 라인들을 추출하기 위한 방법을 보여주고 있다. 텍스트 라인들은 각기 다른 각도로 구성되고, 심하게 굴곡이 있는 모양, 그리고 텍스트 라인내의 약간의 단어 사이의 공간이 생기게 된다. 그러한 텍스트 라인들은 포스터, 주소, 그리고 예술 문서 등에서 발견된다. 제안하는 방법은 기존의 직관적인 그룹핑 방법에 기반을 두고 있지만, 하나의 라인에서 발생하는 불충분한 특징점들과 모호한 회전 등을 극복하기 위한 방법을 개발하였다. 본 논문에서 텍스트 라인들은 몇 개의 연결된 성분들로 구성되고, 이 성분들은 하나의 문자 또는 연결된 문자들의 검은색 화소들의 집합이라고 가정하였다. 제안하는 방법은 반복적으로 증가되는 임계값과 가까운 성분들은 하나의 체인으로 병합하게 되고 확장되어 길어진 체인들은 라인의 원시 체인으로서 인지된다. 그때 원시 체인들은 텍스트 라인의 부분적 회전에 따라 좌우로 확장되어 진다. 텍스트 라인의 부분적인 회전은 원시 체인이 확장될 때, 체인들의 각 면에서 재구성될 것이다. 이러한 과정을 통해서 모든 텍스트 라인들이 구성되어 진다. 제안 방법은 로고와 슬로건에서 사용된 곡면으로 쓰여진 텍스트 라인들에 대해서 실험한 결과 직선 텍스트 라인은 98%, 곡선 텍스트 라인은 94%로서 높은 추출율을 보여주고 있다.

토픽 분석을 활용한 웹 카테고리별 방문자 관심 이슈 식별 방안 (Identifying the Interests of Web Category Visitors Using Topic Analysis)

  • 최성이;김남규
    • Journal of Information Technology Applications and Management
    • /
    • 제21권4_spc호
    • /
    • pp.415-429
    • /
    • 2014
  • With the advent of smart devices, users are able to connect to each other through the Internet without the constraints of time and space. Because the Internet has become increasingly important to users in their everyday lives, reliance on it has grown. As a result, the number of web sites constantly increases and the competition between these sites becomes more intense. Even those sites that operate successfully struggle to establish new strategies for customer retention and customer development in order to survive. Many companies use various customer information in order to establish marketing strategies based on customer group segmentation A method commonly used to determine the customer groups of individual sites is to infer customer characteristics based on the customers' demographic information. However, such information cannot sufficiently represent the real characteristics of customers. For example, users who have similar demographic characteristics could nonetheless have different interests and, therefore, different buying needs. Hence, in this study, customers' interests are first identified through an analysis of their Internet news inquiry records. This information is then integrated in order to identify each web category. The study then analyzes the possibilities for the practical use of the proposed methodology through its application to actual Internet news inquiry records and web site browsing histories.

자소 클래스 인식에 의한 off-line 필기체 한글 문자 분할 (Consonant-Vowel Classification Based Segmentation Technique for Handwritten Off-Line Hangul)

  • 황순자;김문현
    • 한국정보처리학회논문지
    • /
    • 제3권4호
    • /
    • pp.1002-1013
    • /
    • 1996
  • 문자 분할은 필기체 문서 서식의 자동 인식 과정에서 중요한 부분이다. 본 연구는 off-line 필기체 한글로부터 문자를 분할하기 위한 방법을 제안한다. 제안한 방법은 한글의 구조적 특성에 기반을 두고 있다. 먼저 투영에 의하여 입력 단어로 부터 분할 을 위한 특징과 연결 화소, 획을 추출한다. 두 번째 단계에서 획의 모양과 위치, 획과 획과의 관계를 이용하여 한글의 기본 자소 클래스 영역을 찾는다. 세 번째 단계는 분할 과정으로 WRC(While Run Column)다음에 초성이나 수평 모음이 오는 경우 이 WRC에서 수직으로 분할하며, 분할된 세그먼트의 길이가 임계값 이상아면 자소 클래 스와 문자의 칼럼에 대한 특징을 이용하여 예상 분할 영역을 찾고, 이 영역에 있는 획을 따라 요철 형태로 분할한다.

  • PDF

효과적인 글자 분리 방법을 사용한 네이버 캡차 공격 (Analysis of Naver CAPTCHA with Effective Segmentation)

  • 양대헌;최용헌;홍석준;이경희
    • 정보보호학회논문지
    • /
    • 제23권5호
    • /
    • pp.909-917
    • /
    • 2013
  • 웹 서비스를 이용하는 대상이 사람인지 아닌지를 구분하기 위해 주로 사용되는 캡차는 초기 단순한 문자열을 보고 입력하는 것을 시작으로 계속하여 발전해왔다. 지금까지 다양한 종류의 캡차가 제안되었으나 아직까지는 대부분의 사이트에서 편의상 간단한 문자 기반의 캡차가 널리 쓰이고 있다. 이 논문에서는 한국에서 검색을 하는 사용자 중 70%이상이 이용하는 네이버에서 사용하고 있는 캡차를 새로운 글자 분리 방법을 이용해 공격함으로써 해당 캡차의 취약성을 검증해 보았다. 실험 결과, 총 1000번 중 938번을 성공해서, 네이버의 캡차 방식이 논문에서 제시된 공격에 의해 안전하지 않음을 입증하였다.

비디오 영상 정보 검색을 위한 문자 추출 및 인식 (Caption Detection and Recognition for Video Image Information Retrieval)

  • 구건서
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권7호
    • /
    • pp.901-914
    • /
    • 2002
  • 본 논문에서는 비디오에서 입력된 영상으로부터 내용기반 검색을 위해 자동으로 자막을 추출하여 특징 추출을 기반의 단층 연결 신경망 인식기(FE-MCBP)에 의해 자막 문자를 인식하여 영상 자막의 내용을 검출하는 방법을 제시하였다. 비디오에서 자막 추출은 먼저, 비디오에서 일정한 시간 간격으로 획득한 프레임 중에서 히스토그램 분석을 통하여 키 프레임을 찾는 과정을 수행하며, 그 다음에 각각의 키 프레임에 대하여 칼라 세그먼테이션 후 라인 검사 방법 통하여 자막 영역을 추출하도록 하였다. 마지막으로 추출된 자막영역에서 개별문자를 분리하였다. 본 연구에서는 칼라 히스토그램을 분석 후 지역 최대값을 이용하여 세그먼테이션 후 라인 검사를 수행함으로써 처리 속도와 자막영역 검출의 정확도를 개선하였다. 비디오에서 자막 추출은 비디오 정보를 멀티미디어 데이터베이스화하는 초기 단계로 추출된 자막은 바로 문자 인식기의 입력이 된다. 또한 인식된 자막정보는 데이터베이스로 구축되며 내용기반 검색 기법에 의해 검색되도록 하였다.

  • PDF

문서의 영역분리와 레이아웃 정보의 추출 (The Block Segmentation and Extraction of Layout Information In Document)

  • 조용주;남궁재찬
    • 한국통신학회논문지
    • /
    • 제17권10호
    • /
    • pp.1131-1146
    • /
    • 1992
  • 본 논문은 이미 출판된 문서를 대상으로 문서의 영역을 분리하고, 문서의 구성요소와 레이아웃 정보를 추출하는데 새로운 알고리즘을 제안한다. 먼저 300 dpi로 입력된 문서에서 문서를 이루는 각 요소를 영역화 하기 위하여 레이 블링과 블럭화 작업을 행한다. 둘째로 블럭화된 문서의 각 요소를 대상으로 부분영역으로 분리를 수행한다. 셋째로 추출된 부분영역에서 그림영역을 추출하고 문자영역에 대해서는 문자열 추출 및 개변 문자 추출을 한다. 마지막으로 이렇게 추출된 정보로 문서의 레이아웃 인식을 위한 정보를 추출하였다. 실험은 어느정도의 형식을 가진 학회 논문지를 대상으로 하였으며, 문자와 그림 영역의 분류 및 문자열 추출에 대해서 98.5%의 성공율을 얻고, 레이아웃 인식을 위한 정보의 추출에서도 98%의 성과를 보였다.

  • PDF

간판영상에서 한글 인식 성능향상을 위한 가중치 기반 음소 단위 분할 교정 (Weighted Disassemble-based Correction Method to Improve Recognition Rates of Korean Text in Signboard Images)

  • 이명훈;양형정;김수형;이귀상;김선희
    • 한국콘텐츠학회논문지
    • /
    • 제12권2호
    • /
    • pp.105-115
    • /
    • 2012
  • 본 논문에서는 휴대폰 카메라를 통해 간판영상의 한글문자를 인식한 후 오인식 된 결과를 교정하는 방법으로 인식 후보를 음소단위 분할하고 연산 가중치를 적용한 weighted Disassemble Levenshtein Distance(wDLD)를 제안한다. 제안된 방법은 인식된 문자열을 음소 단위로 분할한 후 입력 형태의 거리값을 산출하여, 가장 유사한 상호명을 데이터베이스에서 검출 한다. 제안된 방법의 효율성을 검증하기 위해, 전국의 상호명 중 중복되는 상호명을 제거한 130만개의 상호명을 이용하여 데이터베이스 사전을 구축하였다. 또한 대표적인 문자열 비교 알고리즘인 Levenshtein Distance와 음소를 분할하여 적용한 Disassemble Levenshtein Distance 방법, 그리고 본 논문에서 제안한 인식 후보의 음소 단위 분할 방법과 연산 가중치를 적용한 weighted Disassemble Levenshtein Distance의 교정율을 비교 분석 하였다. 그 결과 제안된 weighted Disassemble Levenshtein Distance(wDLD)은 Levenshtein Distance와 Disassemble Levenshtein Distance방법에 비해 각각 평균 29.85%와 6%의 인식률의 향상을 보였다.

지역적 엔트로피와 텍스처의 주성분 분석을 이용한 문서영상의 분할 및 구성요소 분류 (Segmentation and Contents Classification of Document Images Using Local Entropy and Texture-based PCA Algorithm)

  • 김보람;오준택;김욱현
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.377-384
    • /
    • 2009
  • 본 논문은 지역적 엔트로피 기반의 히스토그램을 이용한 문서영상의 분할과 텍스처 기반의 주성분 분석을 이용한 구성요소인 글자, 그림, 그래프 등의 구성요소 분류방안을 제안한다. 지역적 엔트로피와 히스토그램을 이용함으로써 문서영상의 다양한 변형이나 잡음에 강건하며 빠르고 손쉬운 이진화가 가능하다. 그리고 문서영상 내 존재하는 구성요소들이 각기 다른 텍스처 정보를 가지고 있다는 것에 착안하여 각 분할 영역의 텍스처 정보를 기반으로 주성분분석을 수행하였으며 이를 통해 사전에 구성요소들에 대한 구조정보를 설정할 필요가 없다는 장점을 가진다. 실험결과에서 다양한 문서영상의 분할 및 분류결과를 보였으며, 기존 방법보다 우수한 성능을 가져 그 유효함을 보였다.

한국인 화자의 외래어 발음 변이 양상과 음절 기반 외래어 자소-음소 변환 (Pronunciation Variation Patterns of Loanwords Produced by Korean and Grapheme-to-Phoneme Conversion Using Syllable-based Segmentation and Phonological Knowledge)

  • 류혁수;나민수;정민화
    • 말소리와 음성과학
    • /
    • 제7권3호
    • /
    • pp.139-149
    • /
    • 2015
  • This paper aims to analyze pronunciation variations of loanwords produced by Korean and improve the performance of pronunciation modeling of loanwords in Korean by using syllable-based segmentation and phonological knowledge. The loanword text corpus used for our experiment consists of 14.5k words extracted from the frequently used words in set-top box, music, and point-of-interest (POI) domains. At first, pronunciations of loanwords in Korean are obtained by manual transcriptions, which are used as target pronunciations. The target pronunciations are compared with the standard pronunciation using confusion matrices for analysis of pronunciation variation patterns of loanwords. Based on the confusion matrices, three salient pronunciation variations of loanwords are identified such as tensification of fricative [s] and derounding of rounded vowel [ɥi] and [$w{\varepsilon}$]. In addition, a syllable-based segmentation method considering phonological knowledge is proposed for loanword pronunciation modeling. Performance of the baseline and the proposed method is measured using phone error rate (PER)/word error rate (WER) and F-score at various context spans. Experimental results show that the proposed method outperforms the baseline. We also observe that performance degrades when training and test sets come from different domains, which implies that loanword pronunciations are influenced by data domains. It is noteworthy that pronunciation modeling for loanwords is enhanced by reflecting phonological knowledge. The loanword pronunciation modeling in Korean proposed in this paper can be used for automatic speech recognition of application interface such as navigation systems and set-top boxes and for computer-assisted pronunciation training for Korean learners of English.