• Title/Summary/Keyword: Length of Document

검색결과 76건 처리시간 0.026초

1차원 메디안 필터 기반 문서영상 영역해석 (The Region Analysis of Document Images Based on One Dimensional Median Filter)

  • 박승호;장대근;황찬식
    • 대한전자공학회논문지SP
    • /
    • 제40권3호
    • /
    • pp.194-202
    • /
    • 2003
  • 인쇄문서를 전자문서로 자동변환하기 위해서는 문서영상 영역해석과 문자인식 기술이 필요하다. 이들 중 영역해석은 문서영상을 세부 영역으로 분할하고, 분할한 영역을 문자, 그림, 표 등의 형태로 분류한파. 그러나 문자와 그림의 일부는 크기, 밀도, 화소분포의 복잡도가 비슷하여 정확한 분류가 어렵다. 따라서 영역해석에서의 오 분류는 자동변환을 어렵게 만드는 주된 원인이 된다. 본 논문에서는 분서영상을 문자와 그림영역으로 분할하는 영역해석 방법을 제안한다. 문자와 그림의 분류는 1차원 메디안 필터링을 기반으로 한 방법을 이용하여 언급한 문제점을 해결한다. 또한 메디안 필터링에 의해 발생하는 볼드체 문자와 그래프나 표와 같은 그림영역의 오 분류 문제를 표피 제거 필터와 문자의 최대크기를 이용하여 해결한다. 따라서 상용제품을 포함한 기존의 영역해석 방법보다 그 성능이 우수하다.

문서화상에 대한 RDM 합성 알고리즘 및 디지틀 서명에의 응용 (A study on RDM algorithm for document image and application to digital signature)

  • 박일남;이대영
    • 한국통신학회논문지
    • /
    • 제21권12호
    • /
    • pp.3056-3068
    • /
    • 1996
  • 본 논문에서는 문서 화상에 비트를 합성하는 방법으로 RDM 알고리즘을 제안한 후 이를 이용하여 FAX 문서에 직접 서명을 실행하는 디지틀 서명 방식을 제안한다. 본 알고리즘은 비트를 합성하기 위해 기주사된 복수개의 참조 주사선중 키에 의해 선택된 주사선의 변화화소와 부호화 주사선의 변화화소의 거리의 우기성과 부호화 주사선의 부호장의 우기성을 이용하여 합성 비트열에 따라 거리와 부호장을 신축조작하는 방법으로 한 번에 2 비트씩 합성을 실행한다. 이는 앞서 제시한 방식에 비해 서명의 확산이 가능하므로 부분 서명에 의해 문서 전체에 대한 서명이 구현되어 서명 속도가 개선되며 합성 전제조건의 제거로 합성 가능량이 증가한다. 또한 제안하는 디지틀 서명구조에 의해 디지틀 서명의 제 3조건인 송신자 부인 봉쇄를 구현한다. 디지틀 서명된 송신 문서는 원 문서와 시각적으로 구분이 어려워 제 3자에게는 통상의 문서교환으로 인식될 것이다.

  • PDF

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

문단 단위 가중치 함수와 문단 타입을 이용한 문서 범주화 (Automatic Text Categorization Using Passage-based Weight Function and Passage Type)

  • 주원균;김진숙;최기석
    • 정보처리학회논문지B
    • /
    • 제12B권6호
    • /
    • pp.703-714
    • /
    • 2005
  • 문서 범주화 분야에 대한 연구들은 전체 문서 단위에 한정되어 왔으나, 오늘날 대부분의 전문들이 주요 주제를을 표현하기 위해서 조직화 된 특정 구조로 기술되고 있어, 텍스트 범주화에 대한 새로운 인식이 필요하게 되었다. 이러한 구조는 부주제(Sub-topic)의 텍스트 블록이나 문단(Passage) 단위의 나열로서 표현되는데, 이러한 구조 문서에 대한 부주제 구조를 반영하기 위해서 문단 단위(Passage-based) 문서 범주화 모델을 제안한다. 제안한 모델에서는 문서를 문단들로 분리하여 각각의 문단에 범주(Category)를 할당하고, 각 문단의 범주를 전체 문서의 범주로 병합하는 방법을 사용한다. 전형적인 문서 범주화와 비교할 때, 두 가지 부가적인 절차가 필요한데, 문단 분리와 문단 병합이 그것이다. 로이터(Reuter)의 4가지 하위 집합과 수십에서 수백 KB에 이르는 전문 테스트 컬렉션(KISTl-Theses)을 이용하여 실험하였는데, 다양한 문단 타입들의 효과와 범주 병합 과정에서의 문단 위치의 중요성에 초점을 맞추었다 실험한 결과 산술적(Window) 문단이 모든 테스트 컬렉션에 대해서 가장 좋은 성능을 보였다. 또한 문단은 문서 안의 위치에 따라 주요 주제에 기여하는 바가 다른 것으로 나타났다.

읽기 형태, 줄 길이, 줄 간격이 한글 웹 문서의 가독성에 미치는 영향 (The Influences of Reading Type, Line Length, and Interlinear Spacing on the Legibility of Korean Web Documents)

  • 신종현;박민용
    • 대한산업공학회지
    • /
    • 제29권3호
    • /
    • pp.197-205
    • /
    • 2003
  • Many people get plenty of information from World Wide Web, and the study of the factors that affect on reading task on web browser is presenting important issue. But domestic studies on legibility of Korean on web environment were relatively poor and the study about suitable text layout for skimming wasn't carried out also. At this point, this study was performed to investigate the effects of two types of reading, three levels of line length, and three levels of interlinear spacing on comprehension and reading rate when subjects read the materials on web browser. Reading speed, error rate, subjective preference and SACL(Stress and Arousal Checklist) evaluation were measured to evaluate the effects. Eighteen volunteer subjects participated in eighteen web document sessions with two different reading types, three different line lengths, and three different interlinear spacings. Statistical results from objective and subjective evaluations indicate that 50 characters per line of line length and 100 percents of interlinear spacing improved reading rate, overall error rates were reduced when reading normally, and SACL measures were increased at fast reading type. Consequently, in order to design text layout to retrieve information in WWW environment effectively, just applying guidelines of traditional printed material is not proper. Therefore, it is effective to consider reading type, line length, and interlinear spacing. Implications of these results and suggestions for the further study are also addressed.

SVM을 이용한 디렉토리 기반 기술정보 문서 자동 분류시스템 설계 (Design of Automatic Document Classifier for IT documents based on SVM)

  • 강윤희;박용범
    • 전기전자학회논문지
    • /
    • 제8권2호
    • /
    • pp.186-194
    • /
    • 2004
  • 인터넷 상의 정보가 급증하여 필요한 정보를 찾고 관련된 정보를 조직화하는데 많은 시간이 소요된다. 따라서 정보접근 부하를 줄일 수 있는 자동적인 문서 분류의 중요성과 필요성이 증가하고 있다. 본 논문에서는 웹 문서의 자동 분류 시스템의 설계와 구현을 기술한다. 디렉터리 내의 학습 문서 집합을 기반으로 구성된 대표 단어 집합을 이용하여 문서 분류 모델을 학습하기 위해 SVM을 사용하였다. 본 시스템에서는 정보통신 웹 디렉터리 내의 문서로부터 추출된 단어 집합을 기반으로 SVM을 학습 시킨 후 신규 문서에 대해 문서 분류를 수행한다. 또한 TFiDF를 기반으로 특성을 표현하기 위해 벡터공간 모델을 사용하였고 학습 데이터는 가중치를 갖는 특성 집합으로 표현되어진 긍정 및 부정 집합으로 구성하였다. 실험에서는 문서분류의 결과 및 벡터길이의 관련성을 보인다.

  • PDF

화력발전소 보일러 수퍼히트부 안전발판 개발 연구 (A Development of Platforms for Boiler of Thermal Power Plant)

  • 이정석;이동락;김희경;정병용;오태근
    • 한국안전학회지
    • /
    • 제32권3호
    • /
    • pp.34-40
    • /
    • 2017
  • The catastrophic collapse of the in-boiler scaffolding system in the two thermal power plants occurred in March and April 2012. After site investigation and document review, it was found that the specialized scaffolding system was imported for overhaul & maintenance and that the system did not get the safety certification at the import. In this regard, this study developed & proposed an access platform and a support for the vertical tube section of the super heat as well as a variable-length platform for the horizontal tube section, satisfying the domestic certification standards. The access platform was developed to be easy to handle by the worker with a weight of about 0.069 kN, which could reduce the risk of falling accidents and workers' musculoskeletal diseases. For the variable-length platform, it is possible to cope with various changes in length between the horizontal tubes associated with the increase of rigidity in the overlapping and the elimination of the protrusion.

InferSent를 활용한 오픈 도메인 기계독해 (Open Domain Machine Reading Comprehension using InferSent)

  • 김정훈;김준영;박준;박성욱;정세훈;심춘보
    • 스마트미디어저널
    • /
    • 제11권10호
    • /
    • pp.89-96
    • /
    • 2022
  • 오픈 도메인 기계독해는 질문과 연관된 단락이 존재하지 않아 단락을 검색하는 검색 기능을 추가한 모델이다. 문서 검색은 단어 빈도 기반인 TF-IDF로 많은 연구가 진행됐으나 문서의 양이 많아지면 낮은 성능을 보이는 문제가 있다. 아울러 단락 선별은 단어 기반 임베딩으로 많은 연구가 진행됐으나 문장의 특징을 가지는 단락의 문맥을 정확히 추출하지 못하는 문제가 있다. 그리고 문서 독해는 BERT로 많은 연구가 진행됐으나 방대한 파라미터로 느린 학습 문제를 보였다. 본 논문에서는 언급한 3가지 문제를 해결하기 위해 문서의 길이까지 고려한 BM25를 이용하며 문장 문맥을 얻기 위해 InferSent를 사용하고, 파라미터 수를 줄이기 위해 ALBERT를 이용한 오픈 도메인 기계독해를 제안한다. SQuAD1.1 데이터셋으로 실험을 진행했다. 문서 검색은 BM25의 성능이 TF-IDF보다 3.2% 높았다. 단락 선별은 InferSent가 Transformer보다 0.9% 높았다. 마지막으로 문서 독해에서 단락의 수가 증가하면 ALBERT가 EM에서 0.4%, F1에서 0.2% 더 높았다.

전자 계약시스템에서의 디지털 다중서명 방식 (Digital Multisignature Schemes in Electronic Contract Systems)

  • 강창구;김대영
    • 전자공학회논문지A
    • /
    • 제31A권1호
    • /
    • pp.17-25
    • /
    • 1994
  • We analyze risks andd present the requirements of digital multisignature in electronic contract systems where several persons contract a digital document electronically. We also apply a few digital multisignature schemes that have been developed so far, to the electronic contract system and propose a new digital multisignature scheme based on the Fiat-Shamir scheme. We investigate how these schemes satisfy with the requirements and evaluate their efficiency in terms of processing speed. communication complexity, and message length Owing to the high processing speed and the high degree of satisfaction to the requirements, the proposed scheme is suitable for electronic contract systems.

  • PDF

문서 길이 정규화를 이용한 문서 요약 자동화에 관한 연구 (A Study on Text Summarize Automation Using Document Length Normalization)

  • 이재훈;김영천;이성주
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 춘계학술대회 학술발표 논문집
    • /
    • pp.228-230
    • /
    • 2001
  • WWW(World Wide Web)와 온라인 정보 서비스의 급속한 성장으로 인해, 보다 많은 정보가 온라인으로 이용 혹은 접근 가능해 졌다. 이런 정보홍수로 접근 가능한 정보들이 과잉되는 문제가 발생했다. 이러한 과잉 정보 현상으로 인하여 시간적 제약이 뒤따르며 이용 가능한 모든 정보를 근거로 중요한 의사 결정을 내려야 한다. 문서 요약 자동화(Text Summarize Automation)는 이 문제를 처리하는데 필수적이다. 본 논문에서는 정보 검색을 통해 획득한 문서들을 일차적으로 문서 길이 정규화를 이용하여 질의에 적합하고 신뢰도가 더욱 높은 문서 정보를 얻을 수 있음을 보인다.

  • PDF