• 제목/요약/키워드: Document Analysis

검색결과 1,174건 처리시간 0.034초

Forgery Detection Mechanism with Abnormal Structure Analysis on Office Open XML based MS-Word File

  • Lee, HanSeong;Lee, Hyung-Woo
    • International journal of advanced smart convergence
    • /
    • 제8권4호
    • /
    • pp.47-57
    • /
    • 2019
  • We examine the weaknesses of the existing OOXML-based MS-Word file structure, and analyze how data concealment and forgery are performed in MS-Word digital documents. In case of forgery by including hidden information in MS-Word digital document, there is no difference in opening the file with the MS-Word Processor. However, the computer system may be malfunctioned by malware or shell code hidden in the digital document. If a malicious image file or ZIP file is hidden in the document by using the structural vulnerability of the MS-Word document, it may be infected by ransomware that encrypts the entire file on the disk even if the MS-Word file is normally executed. Therefore, it is necessary to analyze forgery and alteration of digital document through internal structure analysis of MS-Word file. In this paper, we designed and implemented a mechanism to detect this efficiently and automatic detection software, and presented a method to proactively respond to attacks such as ransomware exploiting MS-Word security vulnerabilities.

Deep Learning Document Analysis System Based on Keyword Frequency and Section Centrality Analysis

  • Lee, Jongwon;Wu, Guanchen;Jung, Hoekyung
    • Journal of information and communication convergence engineering
    • /
    • 제19권1호
    • /
    • pp.48-53
    • /
    • 2021
  • Herein, we propose a document analysis system that analyzes papers or reports transformed into XML(Extensible Markup Language) format. It reads the document specified by the user, extracts keywords from the document, and compares the frequency of keywords to extract the top-three keywords. It maintains the order of the paragraphs containing the keywords and removes duplicated paragraphs. The frequency of the top-three keywords in the extracted paragraphs is re-verified, and the paragraphs are partitioned into 10 sections. Subsequently, the importance of the relevant areas is calculated and compared. By notifying the user of areas with the highest frequency and areas with higher importance than the average frequency, the user can read only the main content without reading all the contents. In addition, the number of paragraphs extracted through the deep learning model and the number of paragraphs in a section of high importance are predicted.

Investigation on the Effect of Multi-Vector Document Embedding for Interdisciplinary Knowledge Representation

  • 박종인;김남규
    • 지식경영연구
    • /
    • 제21권1호
    • /
    • pp.99-116
    • /
    • 2020
  • Text is the most widely used means of exchanging or expressing knowledge and information in the real world. Recently, researches on structuring unstructured text data for text analysis have been actively performed. One of the most representative document embedding method (i.e. doc2Vec) generates a single vector for each document using the whole corpus included in the document. This causes a limitation that the document vector is affected by not only core words but also other miscellaneous words. Additionally, the traditional document embedding algorithms map each document into only one vector. Therefore, it is not easy to represent a complex document with interdisciplinary subjects into a single vector properly by the traditional approach. In this paper, we introduce a multi-vector document embedding method to overcome these limitations of the traditional document embedding methods. After introducing the previous study on multi-vector document embedding, we visually analyze the effects of the multi-vector document embedding method. Firstly, the new method vectorizes the document using only predefined keywords instead of the entire words. Secondly, the new method decomposes various subjects included in the document and generates multiple vectors for each document. The experiments for about three thousands of academic papers revealed that the single vector-based traditional approach cannot properly map complex documents because of interference among subjects in each vector. With the multi-vector based method, we ascertained that the information and knowledge in complex documents can be represented more accurately by eliminating the interference among subjects.

Personalization of Document Warehouses: Formalization, Design and Implementation

  • Khrouf, Kais;Turki, Hela
    • International Journal of Computer Science & Network Security
    • /
    • 제22권10호
    • /
    • pp.369-373
    • /
    • 2022
  • In the decision-making domain, a document warehouse is designed to meet the analysis needs of users who may have a wide variety of analysis purposes. In this paper, we propose to integrate the preferences and interactions of users based on profiles to the concept of document warehouses. These profiles guarantee the integration of personalized documents and the collaborative recommendation of documents between different users sharing common interests.

XML 문서 키워드 가중치 분석 기반 문단 추출 모델 (XML Document Keyword Weight Analysis based Paragraph Extraction Model)

  • 이종원;강인식;정회경
    • 한국정보통신학회논문지
    • /
    • 제21권11호
    • /
    • pp.2133-2138
    • /
    • 2017
  • 기존의 XML 문서나 다른 문서는 단어를 중심으로 분석이 진행되었다. 이는 형태소 분석기를 활용하여 구현이 가능하나 문서 내에 기재되어 있는 많은 단어를 분류할 뿐 문서의 핵심 내용을 파악하기에는 어려움이 있다. 사용자가 문서를 효율적으로 이해하기 위해서는 주요 단어가 포함되어 있는 문단을 추출하여 사용자에게 보여주어야 한다. 본 논문에서 제안하는 시스템은 정규화 된 XML 문서 내에 키워드를 검색하고 사용자가 입력한 키워드들이 포함되어 있는 문단을 추출하여 사용자에게 보여준다. 그리고 검색에 사용된 키워드들의 빈도수와 가중치를 사용자에게 알려주고 추출한 문단의 순서와 중복 제거 기능을 통해 사용자가 문서를 이해하는데 발생할 수 있는 오류를 최소화하였다. 제안하는 시스템은 사용자가 문서 전체를 읽지 않고 문서를 이해할 수 있게 하여 문서를 이해하는데 필요한 시간과 노력을 최소화할 수 있을 것으로 사료된다.

정보보호 시스템의 CC기반 평가를 위한 문서 스키마 (Document Schema for the CC-based evaluation of information technology security system)

  • 김점구
    • 융합보안논문지
    • /
    • 제12권3호
    • /
    • pp.45-52
    • /
    • 2012
  • 정보보호시스템의 국제공통평가기준인 CC(또는 ISO/IEC 15408)에서는 평가용 문서(즉, 제출물)에 대한 세부지침을 포함하지 않고 있으므로, CC기반 평가체계를 구축하기 위해서는 문서 스키마(즉, 목차와 내용요구사항)를 개발해야 한다. 본 논문에서는 CC기반 평가체계에서 활용할 수 있는 문서 스키마를 개발하였다. CC내의 보증클래스로부터 Weakest precondition함수, 문서량 축소규칙, 문서 종속성 분석방법을 적용하여 문서스키마와 DTD를 개발하였다. 본 연구의 접근방법은 소프트웨어 품질의 평가체계에서 사용할 문서스키마 또는 DTD를 개발하는데 응용될 수 있다.

공간 정보와 투영 프로파일을 이용한 문서 영상에서의 타이틀 영역 추출 (Automatic Title Detection by Spatial Feature and Projection Profile for Document Images)

  • 박효진;김보람;김욱현
    • 융합신호처리학회논문지
    • /
    • 제11권3호
    • /
    • pp.209-214
    • /
    • 2010
  • 본 논문은 형태 처리기법과 연결요소 분석을 이용한 문서 영상의 분할과 구조적인 특징과 투영 프로파일 분석을 이용하여 문서영상에서 제목영역 추출방안을 제안한다. 문서 영상의 처리는 영상 분할과 제목 추출, 두 단계로 이루어진다. 영상 분할의 단계에서는 문서 영상을 구성요소 영역들로 나눈다. 영상 분할이 끝나면 분할된 영역들을 대상으로 구조적인 정보를 이용하여 제목이 될 후보 영역을 추출한다. 제목이 아닌 영역을 제거하여 제목 후보영역을 추출하고 난 후 투영 프로파일을 분석하여 제목 영역을 최종적으로 추출한다. 본 논문에서 제시된 투영 프로파일 분석을 이용한 제목 추출 방법은 다양한 문서 영상의 분할 및 제목 추출 결과를 보였으며, 문서 제목 인식, 멀티미디어 데이터 검색, 실시간 영상처리와 같은 다양한 응용분야에 활용될 것으로 기대된다.

북한 서광문서처리체계 분석을 위한 Document Object Model(DOM) 기반 퍼징 기법 (A DOM-Based Fuzzing Method for Analyzing Seogwang Document Processing System in North Korea)

  • 박찬주;강동수
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제8권5호
    • /
    • pp.119-126
    • /
    • 2019
  • 자체 개발하여 사용하고 있는 대표적인 소프트웨어는 붉은별(Red Star)과 내부 응용 소프트웨어이다. 하지만 이러한 북한 소프트웨어에 대한 기존 연구는 소프트웨어 설치방법 및 일반적인 실행화면 분석이 대부분이다. 소프트웨어 보안 취약점을 확인하는 방법 중 하나인 파일 퍼징은 보안 취약점을 식별하는 대표적인 방법이며, 본 연구에서는 북한에서 개발하여 사용 중인 소프트웨어 중 서광문서처리체계에 대한 보안 취약점을 분석하기 위해 파일 퍼징을 사용한다. 이때 서광문서처리체계에서 생산되는 Open Document Text(ODT) 파일 분석 및 테스팅 대상을 정하기 위한 Document Object Model(DOM) 기반 노드 추출, 그리고 삽입과 대체를 통한 변이 파일 생성을 제안하며, 이를 통해 동일한 테스팅 시간에 크래시 발견 횟수를 증가시킨다.

주성분 분석을 이용한 문서 주제어 추출 (Document Thematic words Extraction using Principal Component Analysis)

  • 이창범;김민수;이기호;이귀상;박혁로
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권10호
    • /
    • pp.747-754
    • /
    • 2002
  • 본 논문에서는 문서의 내용을 대표할 수 있는 주제어를 추출하는데 있어 다변량 통계 분석 기법 중의 하나인 주성분 분석을 이용하는 모델을 제안한다. 제안한 모델은 고유값과 고유벡터를 이용하여 문서 자체내의 단어의 흐름을 파악한 후 주제어를 추출하는 방법이다. 제안한 모델을 문서 요약에 적용하여 그 성능을 평가하였다. 신문기사를 대상으로 실험한 결과 제안한 모델이 단어의 출현 빈도를 고려하는 방법, 시소러스를 이용하는 방법 모두에 비해 더 좋은 성능을 보였다. 제안한 모델은 정보검색, 정보추출, 문서요약 등에 이용될 수 있으리라 기대된다.

대학도서관의 전자문헌제공 모형구축에 관한 연구 (A Study on Electronic Document Delivery Service in Academic Libraries)

  • 이화연
    • 정보관리연구
    • /
    • 제28권1호
    • /
    • pp.34-61
    • /
    • 1997
  • 본고에서는 국내 대학도서관과 국외 프로젝트 등 전자문헌제공의 현황분석을 기반으로, 대학도서관이 수행해야 할 전자문헌제공의 단계별 모형을 제시하고자 한다. 모형의 단계는 이용자의 신청단계, 전자문헌 구축단계, 전자문헌 전송단계로 구성되며, 대학도서관은 전자문헌제공을 각 단계별로 실시하여 최신 정보를 요구하는 이용자의 정보 욕구를 충족시킬 수 있다.

  • PDF