• Title/Summary/Keyword: 웹 로봇 엔진

Search Result 25, Processing Time 0.047 seconds

A Document Collection Method for More Accurate Search Engine (정확도 높은 검색 엔진을 위한 문서 수집 방법)

  • 하은용;최선완
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10c
    • /
    • pp.471-473
    • /
    • 1999
  • 인터넷상의 정보 검색 엔진들은 웹 로봇을 실행해서 인터넷에 연결되어 있는 수많은 웹 서버들을 방문해서 웹 문서를 획득하고, 인덱싱 기법을 써서 자료를 추출하고 분류해서 검색 엔진의 기초가 되는 데이터 베이스를 구축한다. 정보 추출을 위해 웹 로봇을 운영할 때 웹 서버에 대한 사전 지식 없이 진행된다면 수많은 불필요한 요구가 전송돼서 인터넷 트래픽을 증가시키는 요인이 된다. 하지만 웹 서버가 사전에 자신이 공개할 문서에 대한 요약 정보를 웹 로봇에게 통보하고, 웹 로봇은 이 정보를 이용해서 웹 서버의 해당 문서에 대한 정보 수집 작업을 처리한다면 불필요한 인터넷 트래픽을 줄일 수 있을 뿐만 아니라 검색 엔진의 정보의 정확도를 높이고, 웹 서버상의 웹 문서 파일의 변동 사항을 자동으로 검사하고 변동된 사항들을 종합 정리해서 등록된 각 웹 로봇에게 전송하는 문서 감시 통보 시스템과 통보된 요약 정보를 토대로 웹 서버로부터 해당 문서를 전송받아 필요한 인덱스 정보를 추출하는 효율적인 웹 로봇을 제안한다.

  • PDF

Efficient Information Retrieval of A Web Robot Agent on the Internet (웹 로봇 에이전트의 효율적인 인터넷 정보검색)

  • 김동범;곽병정;김연옥;오용철;이재영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10e
    • /
    • pp.574-576
    • /
    • 2002
  • 인터넷상에서의 정보검색은 검색엔진을 이용하여 이루어지는데, 방대한 사이트들을 검색하여야 하므로 검색효율이나 검색된 정보의 유용성에 문제가 있게 된다. 만약 이러한 정보들을 미리 자동적으로 검색, 분류해서 저장한다면 위의 두 가지 문제들을 해결할 수 있을 것이다. 자동적으로 이런 일을 처리하도록 고안된 것이 웹 로봇 에이전트라고 하며 현재국내에도 여러 개의 웹 로봇 에이전트를 이용한 검색엔진이 사용되고 있다. 본 논문에서는 검색엔진을 구현하기 위해 하이퍼텍스트 전송규약에 대한 연구와 웹 로봇 에이전트에 대한 연구를 하여 올바른 로봇 에이전트를 구현하여, 구현된 검색엔진을 통한 효율적인 정보검색을 실현하는데 목적이 있다.

  • PDF

An Extension of Hangul MG System for Web Document Retrival (웹 문서 검색을 위한 한글 MG 시스템의 확장)

  • 김범수;나연묵
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.290-292
    • /
    • 2000
  • 최근 국대 인터넷 발전과 더불어 검색엔진들의 수요가 많아지고 있어 크고 작은 검색엔진들이 많이 개발되고 있다. 기존의 디지털 라이브러리에 사용되고 있는 정보 검색 엔진인 한글 MG 시스템을 웹 문서 검색에 적용하는데는 어려움이 있었다. 본 논문은 한글 MG 시스템을 기반으로 웹 사이트의 내부 문서 검색이 가능한 소형검색엔진으로 확장하는데 필요한 웹 로봇에 의한 문서 수집, 수집된 문서의 가공, 메타 데이터의 데이터베이스와, 단락 대 문서 사상, 문서 검색을 위한 질의 루틴의 수정과 웹 검색 및 시스템 관리 인터페이스에 대한 방안들을 제안하여 확장 시스템을 설계하고 구현하였다.

  • PDF

A Document Collection Method for More Accurate Search Engine (정확도 높은 검색 엔진을 위한 문서 수집 방법)

  • Ha, Eun-Yong;Gwon, Hui-Yong;Hwang, Ho-Yeong
    • The KIPS Transactions:PartA
    • /
    • v.10A no.5
    • /
    • pp.469-478
    • /
    • 2003
  • Internet information search engines using web robots visit servers conneted to the Internet periodically or non-periodically. They extract and classify data collected according to their own method and construct their database, which are the basis of web information search engines. There procedure are repeated very frequently on the Web. Many search engine sites operate this processing strategically to become popular interneet portal sites which provede users ways how to information on the web. Web search engine contacts to thousands of thousands web servers and maintains its existed databases and navigates to get data about newly connected web servers. But these jobs are decided and conducted by search engines. They run web robots to collect data from web servers without knowledge on the states of web servers. Each search engine issues lots of requests and receives responses from web servers. This is one cause to increase internet traffic on the web. If each web server notify web robots about summary on its public documents and then each web robot runs collecting operations using this summary to the corresponding documents on the web servers, the unnecessary internet traffic is eliminated and also the accuracy of data on search engines will become higher. And the processing overhead concerned with web related jobs on web servers and search engines will become lower. In this paper, a monitoring system on the web server is designed and implemented, which monitors states of documents on the web server and summarizes changes of modified documents and sends the summary information to web robots which want to get documents from the web server. And an efficient web robot on the web search engine is also designed and implemented, which uses the notified summary and gets corresponding documents from the web servers and extracts index and updates its databases.

Web Information Search Using Reinforcement Learning (강화학습을 이용한 웹 정보 검색)

  • 정태진;장병탁
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.94-96
    • /
    • 2001
  • 현재 인터넷상에서 제공되고 있는 대부분의 서치엔진들은 정보소스에 접근해서 이를 가져오는 웹 로봇(webbot)이라고 불리우는 에이전트를 이용한다. 그런데 이런 웹 로봇들이 웹 문서를 검색하는 방법은 극히 단순하다. 물론 많은 정보를 가지고 오는 것에 초점이 맞추어져 있어서 정확도를 중시하지 않는 것에도 한 원인이 있다. 범용 검색엔진과는 달리 검색하는 영역을 축소하여 특정 주제에 관련된 정보만을 더 정확히 찾아주는 검색엔진의 필요성이 증가하고 있다. 이에 본 논문에서는 강화 학습 방법을 이용하여 웹 상에 존재하는 정보 중에서 특정 주제의 웹 페이지를 보다 더 정확히 찾는 방법을 제시한다. 강화 학습은 웹 상의 하이퍼링크를 따라가는 문제에 있어서 미래에 이로움을 주는 행동의 효용성을 측정하는데 있어서 이점을 보인다. 강화 학습을 이용하여 제시된 방법을 통한 실험에서는 일반적인 방법보다 더 적은 링크를 따라가고도 더 정확한 결과를 보였다.

  • PDF

Implementation and Design of Robot Engine for Web Collection (웹 수집 로봇 엔진의 설계 및 구현)

  • Kim, Dae-You;Kim, Jung-Tae
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2007.10a
    • /
    • pp.313-317
    • /
    • 2007
  • 인터넷의 이용이 활발해짐에 따라 수많은 정보들이 웹을 통하여 공개되고 있으며, 이용자는 웹 검색 서비스를 이용하여 이러한 정보들에 효과적으로 접근할 수 있다. 웹 검색 서비스의 구축을 위해서는 웹 로봇을 사용한 웹 문서 수집이 선행되어야 하며, 웹 문서들의 수가 급격히 증가하면서 양질의 웹 문서들을 효과적으로 수집할 수 있는 웹 로봇에 대한 필요성이 증가되고 있으며, 그에 따른 많은 웹 수집 로봇이 탄생되고 있다. 본 논문에서는 효과적인 웹 수집 로봇의 설계와 동적인 웹페이지에서 사용하는 자바스크립트의 링크 추출방안에 대하여 제시하고자 한다.

  • PDF

A Study on Implementation for Web Search Program in Specific Web Site (특정 사이트내의 검색 프로그램 구현에 관한 연구)

  • Jang, Doc-Sung;Gu, Se-Wan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04b
    • /
    • pp.1243-1246
    • /
    • 2002
  • 본 논문은 검색엔진을 이용하여 대상 웹사이트의 링크 사이트 전체를 수집하고, 각 링크 사이트의 페이지를 인덱싱하여 데이터베이스화하는데, 특히 가장 최신의 페이지를 분류하여 시간에 의해 검색단어의 정확도가 가려지는 경우, 이를 이용할 수 있도록 하였다. 본 논문은 검색엔진에 의해 검색 서비스를 제공하는 기본적인 웹 로봇의 구현에 대한 연구이며, 웹 로봇의 역할은 크게 링크 사이트를 수집하는 것 이외에 제목, 메타태그, 멀티미디어 다운로드등의 역할들을 수행하며 이를 인덱싱 하여 데이터베이스화한다.

  • PDF

Efficient Design of Web Searching Robot Engine Using Distributed Processing Method with Javascript Function (자바스크립트 함수처리 기능을 포함한 분산처리 방식의 웹 수집 로봇의 설계)

  • Kim, Dae-Yu;Kim, Jung-Tae
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.13 no.12
    • /
    • pp.2595-2602
    • /
    • 2009
  • In this paper, we proposed and implemented web robot using active script engine with internet explore to process javascript function link, which is not processing in conventional web searching robot. This web searching robot is developed to measure collecting amount of web searching robot with processing of javascript function link. We analysed the architecture of web searching robot with google and naybot to develope web searching robot, implemented element of configuration applicable to searching robot and designed with distributed processing type. In addition to, we estimated the proposed web robot employing javascript processing model and analysed the comparison of collecting amount of web site board using javascript. We obtained the result of 1,000 web page collecting compared to conventional method in case of 1,000 web site board.

Efficient RDQL Query Processing based on RDQL2SQL (RDQL2SQL 기반의 효율적인 RDQL 질의 처리)

  • Kim, Hak-Soo;Son, Jin-Hyun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.43-45
    • /
    • 2005
  • 최근 시맨틱 웹에 대한 관심이 증가하면서 W3C표준으로 규정된 시맨틱 웹 온톨로지 언어(RDF, RDFS, OWL 등) 기반의 관련 기술에 대한 연구가 활발히 진행되고 일다. 그 중에서 시맨틱 웹 온톨로지 언어로 기술된 문서의 저장, 관리, 질의처리 기법에 대한 연구가 주목을 받고 있다. 이에 본 논문에서는 온톨로지 데이터에 대한 표준 질의 언어인 RDQL 을 기반으로 RDQL 질의를 효율적으로 처리하는 고성능 RDQL 질의 처리 엔진을 개발한다. 본 논문에서 제안하는 RDQL 질의 처리 엔진은 RDQL 질의를 대응하는 SQL 질의로 변환함으로써 기존의 관계형 데이터베이스 질의 처리 엔진(SQL 질의 처리 엔진)을 그대로 사용할 수 있다. 이 과정에서 메모리 사용량과 데이터베이스 접근을 최소화하는 고성능 RDQL 질의 처리 엔진을 개발한다. 궁극적으로 이러한 RDQL 질의 처리는 실시간 처리가 요구되는 로봇 환경뿐만 아니라 시맨틱 웹 애플리케이션에서 널리 활용될 수 있다.

  • PDF

Intelligential Search Engine Considering the Load of Web Servers and Networks (네트워크 및 웹 서버의 부하를 고려한 지능적인 검색시스템의 설계 및 구현)

  • 김창근;탁한호
    • Journal of the Korea Computer Industry Society
    • /
    • v.2 no.8
    • /
    • pp.1035-1044
    • /
    • 2001
  • The existing search engine cause heavy loads on web servers and networks, because they operate robots not considering the loads of many distributed diverse web servers and networks. As the information update period is 3~4 weeks, information is not updated at proper time. Although there is no contents to be updated on web servers, the robot collects and updates the contents of the web servers. This study proposes a intelligential search engine considering the load of web servers and networks, designs a real-time controlled search engine and intelligent robots, and implements them. The intelligent robot updates distributed information real-time. Robot control policies are also proposed, which can upgrade the overall performance of the system by monitoring the loads of web servers and networks.

  • PDF