• 제목/요약/키워드: HTML/XML parsing

검색결과 7건 처리시간 0.022초

정보 검색 및 공유가 가능한 EasyWeb 설계 및 구현 (Design and Implemetation of EasyWeb that searching and sharing to Informations)

  • 강상은;김택환;강민영;주옥찬;김진묵
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.1411-1413
    • /
    • 2011
  • 기존의 인터넷 검색 편리성을 제공하는 브라우저들은 사용자의 요구에 따라 수동적으로 움직이게 된다. 또한 RSS 와 같은 고급 검색 요구 조건을 만족시키고자 하는 노력에 비하여 사용자의 요구에 따라 능동적으로 움직이기에는 어려움이 존재한다. 이에 본 연구에서는 RSS와 같은 능동적인 정보 검색 및 제공이 가능하고, 표준 HTML2.0을 따르는 효과적인 웹 브라우저인 EasyWeb을 설계 및 구현하고자 한다. 본 논문에서 제안한 EasyWeb 브라우저는 기존의 브라우저들과 달리 표준 규격에 따라 구성하도록 HTML과 XML parsing이 가능하다. 또한 사용자의 요구에 능동적으로 정보를 수집하여 제공할 수 있다. 본 논문에서 제안한 EasyWeb의 구현 결과를 살펴보면 향후 웹 브라우저의 나아갈 방향을 모색할 수 있을 것으로 생각된다.

XQuery2SQL 변환기 위한 알고리즘 구현 (Algorithm Embodiment for XQuery2SQL Converter)

  • 서현호;김영국;김덕만
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 춘계 종합학술대회 논문집
    • /
    • pp.335-341
    • /
    • 2004
  • 웹 기술의 급속한 발전으로 인한 인터넷의 사용과 정보의 양이 급증하는 요즘 표현 중심적인 언어인 HTML에서는 웹의 정보를 이용하는데 한계를 가져왔으며 이로 인한 대안으로 웹상에서 자유로운 문서 전송 및 교환을 위한 표준이며 W3C에서 데이터 자체의 의미나 상관관계를 표현하는 n이 등장하였다. 이러한 XML문서를 RDBMS에서 저장해서 사용하기 위한 많은 노력이 있으나 구조적으로 XML문서는 트리구조이어서 관계형 DB에 자료를 질의하기 위한 언어인 SQL과 완벽한 호환을 이루지 못한다. 그래서 W3C의 XML 표준 질의인 XQuery가 등장하게 되었다. 이 논문에서는 XML 문서를 파싱하고 DOM 트리과정을 거쳐 RDBMS에 저장된 XML 정보들을 Xeuery2SQL이라는 변환기를 통해서 SQL질의로 변환한 후 RDBMS에 있는 정보를 추출하는 XQuery2SQL 변환 알고리즘을 구현하고자 한다.

  • PDF

A Study of Main Contents Extraction from Web News Pages based on XPath Analysis

  • Sun, Bok-Keun
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권7호
    • /
    • pp.1-7
    • /
    • 2015
  • Although data on the internet can be used in various fields such as source of data of IR(Information Retrieval), Data mining and knowledge information servece, and contains a lot of unnecessary information. The removal of the unnecessary data is a problem to be solved prior to the study of the knowledge-based information service that is based on the data of the web page, in this paper, we solve the problem through the implementation of XTractor(XPath Extractor). Since XPath is used to navigate the attribute data and the data elements in the XML document, the XPath analysis to be carried out through the XTractor. XTractor Extracts main text by html parsing, XPath grouping and detecting the XPath contains the main data. The result, the recognition and precision rate are showed in 97.9%, 93.9%, except for a few cases in a large amount of experimental data and it was confirmed that it is possible to properly extract the main text of the news.

XML웹서비스를 위한 XML Parser개발 및 구현 (Development and Implementation of the XML Parser for integrated XML Webservice)

  • 권두위;도경훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 춘계학술대회
    • /
    • pp.72-75
    • /
    • 2009
  • XML과 웹서비스의 등장으로 전자문서 관리의 중요성이 대두되었고, 효율적인 관리를 위해 많은 기업들이 기술 개발을 해오고 있다. 그러나 웹언어나 프로토콜에 대한 공개 표준이 제정 되지 않아 기업들은 개별적으로 웹서비스를 구축하고 이는 인터넷 시장과 웹의 분열을 가져왔다. 이에 W3C에서는 웹 상호운용성을 목표로 XML표준안을 공표했다. MusicXML, MathML, CML(Chemistry Markup Language), WML(Wireless Markup Language)등은 모두 특정한 용도를 가지는 XML기반의 마크업 언어들이다. XML은 단지 웹 환경만을 위한 표준이 아니라 인터넷 전반에서 데이터를 생성, 저장, 변환하기 위한 보편적인 표준으로 자리 잡고 있다. 본 논문에서는 모바일환경과 웹 환경에서 동시 서비스가 가능한 XML 웹서비스를 구현하였다. XML 웹서비스는 인터넷 표준기술인 XML과 HTTP를 사용하는데, XML기반의 SOAP메시지를 파싱하기 위하여 WIPI와 HTML기반으로 설계, 개발하였다. 제안하는 XML Parser는 PULL모델을 변형한 이벤트 방식이다. 제안한 Parser는 모바일기기와 웹 환경에서 동시 사용가능한 인터넷 서점에 적용하였고, 제안하는 XML Parser와 기존의 Parser들과의 벤치마킹을 통해 속도비교를 함으로써 Parsing속도의 향상을 나타내었다.

  • PDF

XML을 이용한 웹 문서 수집기 설계 및 구현 (Design and implementation of web-robot using XML)

  • 이새벽;임희석
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2008년도 추계학술발표논문집
    • /
    • pp.49-52
    • /
    • 2008
  • 웹2.0, RIA(Rich Internet Application)의 발전으로 웹 기반 서비스가 다양해지고 기존의 응용프로그램 역시 웹 기반 인터페이스로 제공되면서 사용자 또한 단순 사용자가 아닌 서비스를 제공하는 컨슈머(Consumer)의 형태가 되었다. 따라서 웹 문서는 더욱 방대해 지고 검색, 분류, 색인 등을 위해서 웹문서의 수집이 새로운 형태로 필요하게 되었다. 그러나 기존의 데이터베이스 사용 방법이나, 문서의 전문을 파일형식으로 저장하는 방법은 웹문서를 이용하여 다양한 컨텐츠를 제공하기에 적합하지 않다. 그러므로 본 연구는 웹 문서를 파싱(Parsing)하여 필요한 부분을 XML파일 형태로 저장하여, 재사용성을 높이는데 초점을 맞추어 HTML을 파싱하고 자동으로 임의의 파일을 수집하는 문서수집기를 구현하게 되었다.

  • PDF

웹상에서의 의사결정모형의 객체지향적 표현과 관리를 위한 구조적 마크업 언어 (A Structured Markup Language for the Object-Oriented Representation and Management of Decision Models on the Web)

  • 김형도
    • Asia pacific journal of information systems
    • /
    • 제8권2호
    • /
    • pp.53-67
    • /
    • 1998
  • The explosive growth of the Web is providing end-users access to ever-increasing volumes of information. The resources of legacy systems and relational databases have also been made available to the Web browser, which has become an essential business tool. Recently, model management on the Internet/Web is also proposed with its conceptual design or prototypical system like DecisionNet and DSS Web. However, they are also suffering from the same symptoms as the Web, Although we can identify the elements of a page with HTML tags and (declare) the relationships among the various document elements, they are semantically opaque to computer systems and have no domain-specific meaning. However, HTML is not extensible, so developers are forced to invent convoluted, non-standard solutions for embedding and parsing data. Extensible Markup Language (XML) is a simplified subset of SGML that has many benefits for folks who want to improve structure, maintainability, searchability, presentation, and other aspects of their document management. This paper proposes a structured markup language for model representation and management on the Web as an XML application. The language is based on a conceptual modeling framework, Object-Oriented Structured Modeling (OOSM), which is an extension of the structured modeling.

  • PDF

콘텐츠 신디케이션을 이용한 웹 데이터 수집 및 활용 (Web Data Collection and Utilization using Content Syndication)

  • 황상현;김희완
    • 서비스연구
    • /
    • 제5권2호
    • /
    • pp.83-92
    • /
    • 2015
  • 웹 상에는 수 많은 데이터가 존재하고 있지만 원하는 데이터를 수집하여 서비스 제공을 위한 콘텐츠로 가공해 내는 것은 쉽지 않다. 그 이유 중 하나가 바로 표준화된 데이터 제공 방식이 없기 때문이다. 따라서 사이트 콘텐츠의 일부 또는 전체를 다른 서비스에서 이용할 수 있도록 해주는 콘텐츠 신디케이션은 매우 중요하다고 볼 수 있다. 콘텐츠 신디케이션의 대표적 포맷으로 XML에 기반한 RSS와 Atom, OPML 등이 있다. 이러한 신디케이션 포맷에서 제공하는 링크를 통틀어 피드 주소라고 한다. 피드 주소를 이용하면 기존 HTML을 파싱하는 것 보다 빠르게 데이터를 수집할 수 있고 데이터 제공자는 간편하게 데이터를 외부로 제공할 수 있다는 장점이 있다. 본 논문에서는 피드 주소를 기반으로 하는 웹 데이터 수집 시스템을 구현하여 수집하여 얻은 데이터를 바탕으로 해당 데이터를 가공하고 활용하는 방법을 제안하였다.