• Title/Summary/Keyword: Crawler

Search Result 200, Processing Time 0.032 seconds

A Design of Web History Archive System Using RCS in Large Scale Web (대용량 웹에서 RCS를 이용한 웹 히스토리 저장 시스템 설계)

  • 이무훈;이민희;조성훈;장창복;김동혁;최의인
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.211-213
    • /
    • 2004
  • 웹의 급속한 성장에 따라 웹 정보는 시간적 . 공간적 제약을 받지 않고 널리 활용되어지고 있다. 하지만 기존에 유용하게 사용되던 정보가 어느 순간 삭제가 된다면 더 이상 켈 정보를 이용할 수 없게 된다는 문제점이 존재한다. 이러한 문제를 해결하기 위해 웹 아카이브 시스템에 대한 연구와 좀더 효율적으로 삭제된 웹 정보를 저장하기 위한 기법들이 제안되었다. 그러나 기존의 기법들은 단순히 웹 정보를 저장하는 것에만 초점을 두었기 때문에 저장 공간의 효율성 및 제약성을 전혀 고려하지 않는 단점을 가지고 있다. 따라서 본 논문에서는 WebBase를 기반으로 하여 레포지토리에서 갱신되는 웹 정보들을 효율적으로 저장하고 검색할 수 있는 웹 히스토리 저장 시스템을 설계하였다. 본 논문에서 제안한 기법은 웹 히스토리 저장 시스템 설계를 위해 별도의 Crawler를 두지 않고 WebBase를 활용함으로써 웹 정보 수집에 대한 오버헤드를 줄일 수 일고, 삭제되는 웹 정보를 RCS를 통하여 체계적이고 효율적으로 저장함으로써 중요한 웹 정보를 공유할 수 있도록 하였다.

  • PDF

An Implementation of Python Web Crawler Using Thread (쓰레드를 이용한 파이썬 웹 크롤러 구현)

  • Yang, Hee-Chan;Kim, Cheong Ghil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.70-72
    • /
    • 2019
  • 최근 ICT의 발전으로 인해 웹사이트 수가 폭발적으로 증가하고 있으며 인터넷상에는 여러 가지 다양하고 방대한 데이터들이 존재한다. 이러한 데이터를 효과적으로 검색하고 이용하기 위하여 웹 검색 기능은 주요한 역할을 담당한다. 본 논문에서는 웹 데이터를 자동으로 스크랩하여 파일로 저장하는 웹 크롤러를 구현하고 처리 속도 향상을 위하여 쓰레드 기능을 추가하였다. 웹 크롤러 구현을 위한 프로그래밍 언어는 파이썬을 사용하였으며 다양한 크기의 레퍼런스 사이트의 크롤링 속도 비교는 쓰레드 수를 변경함으로 측정하여 성능향상을 확인하였다.

For creating a Dataset Image URI and Metadata Collection Web Crawler (데이터셋 생성을 위한 이미지 URI 및 메타데이터 수집 크롤러)

  • Park, June-Hong;Kim, Seok-Jin;Jung, Yeon-Uk;Lee, Dong-Uk;Jeong, YoungJu;Seo, Dong-Mahn
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.1082-1084
    • /
    • 2019
  • 인공지능 학습에 대한 관심이 증가하면서 학습에 필요한 데이터셋 구축에 필요한 많은 양의 데이터가 필요하다. 데이터셋 구축에 필요한 데이터들을 효과적으로 수집하기 위한 키워드 기반 웹크롤러를 제안한다. 구글 검색 API 를 기반으로 웹 크롤러를 설계하였으며 사용자가 입력한 키워드를 바탕으로 이미지의 URI 와 메타데이터를 지속적으로 수집하는 크롤러이다. 수집한 URI 와 메타데이터는 데이터베이스를 통해 관리한다. 향후 다른 검색 API 에서도 동작하고 다중 쓰레드를 활용하여 크롤링하는 속도를 높일 예정이다.

Web Image Crawler for Copyright Protection (저작권 보호를 위한 웹 이미지 크롤러)

  • Kwon, Oh-Jung;Lim, Seung-Won;Oh, Min-Seok;Yang, Bo-Won;Jung, Jin-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1527-1529
    • /
    • 2015
  • 디지털 콘텐츠가 넘쳐나는 가운데, 최근 이미지 저작권에 대한 중요성이 대두되고 있다. 블로그 및 SNS에 쉽게 게시물을 업로드가 가능한 점으로 인해, 이미지 저작권의 침해가 광범위하게 이루어지나, 저작권의 소유자는 침해된 자료를 찾기 위해 일일이 검색하고 적발하는 방식을 사용하고 있어 비용이 많이 들며 저작권 침해 속도에 크게 못 미친다. 이러한 문제를 해결하고 궁극적으로 저작권의 권리 보장과 저작권 침해 예방을 위해 본 연구에서는 키워드 검색으로 얻은 게시물에 게재된 이미지를 저작권 침해 적발 방법을 자동화하는 시스템을 제안하고 실험결과를 제시하였다.

Design of a High-Performance Web Crawler Considering the Round Trip Time (왕복시간(Round Trip Time)을 고려한 고성능 웹크롤러 설계)

  • Jeong, Chun-Ho;Cho, Hyun-Tae;Beak, Yun-Ju
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.601-604
    • /
    • 2004
  • 인터넷과 정보기술의 급속적인 발전으로 수천 또는 수억에 달하는 방대하고 다양한 정보들이 웹 상에서 존재하게 되었다. 이러한 다양한 정보들 중에서 이용자가 원하는 정보를 제공하기 위해 다양한 검색시스템들이 개발되었다. 웹 크롤러는 검색시스템의 중요한 부분 중의 하나로, 웹 서버를 순회하며 각 페이지에 있는 수많은 정보를 수집하는 프로그램이다. 본 논문에서는 웹 크롤러의 기본요건 중의 하나인 빠른 수집속도를 보장하기 위해 RTT(Round Trip Time) Scheduling 기법을 적용한 URL 스케줄러를 제시하고, 이러한 RTT Scheduling 기법을 이용한 웹 크롤러를 설계한다.

  • PDF

Development of Web Crawler and Network Analysis Technology for Occurrence and Prediction of Flooding (수난 발생 및 규모 예측을 위한 웹 크롤러 및 네트워크 분석기술 개발)

  • Seo, Dongmin;Kim, Hoyong;Lee, Jeongha;Hwang, Seokhwan
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2019.05a
    • /
    • pp.5-6
    • /
    • 2019
  • 빅데이터 분석을 위해 활용되는 데이터로는 뉴스, 블로그, SNS, 논문, 특허 그리고 센서로부터 수집된 데이터 등 매우 다양한 유형의 데이터가 있다. 특히, 신뢰성 있는 데이터를 실시간 제공하는 웹 데이터의 활용이 점차 확산되고 있다. 그리고 빅데이터의 활용이 다양한 분야로 점차 확산되고 웹 데이터가 매년 기하급수적으로 증가하면서, 최근 웹 데이터는 재난대응 미디어로써 매우 중요한 역할을 하고 있다. 또한, 빅데이터 분석에 활용되는 원천 데이터는 네트워크 형태이며, 최근 소셜 네트워크 분석을 통한 효과적인 상품 광고, 핵심 유전자 발굴, 신약 재창출 등 다양한 영역에서 네트워크 분석 기술이 사회와 인류에게 가치 있는 정보를 제공할 수 있는 가능성을 제시하면서 네트워크 분석 기술의 중요성이 부각되고 있다. 본 논문에서는 웹에서 제공하는 뉴스와 SNS 데이터를 이용해 수난 발생 및 규모 예측을 지원하는 웹 크롤러 및 네트워크 분석기술을 제안한다.

  • PDF

Efficient URL Prioritizing Method for Web Crawlers (웹 크롤러를 위한 효율적인 URL 우선순위 할당 기법)

  • Md. Hijbul Alam;Jong-Woo Ha;Yoon-Ho Cho;SangKeun Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.383-385
    • /
    • 2008
  • With the amazing growth of web faster important page crawlers poses great challenge. In this research we proposed fractional PageRank, a variation of PageRank computed during crawl that can able to prioritize the downloading order. Experimental results shows that it outperforms the prior crawler in terms of running time yet provide a well download ordering.

Evaluation Method of Structural Safety using Gated Recurrent Unit (Gated Recurrent Unit 기법을 활용한 구조 안전성 평가 방법)

  • Jung-Ho Kang
    • Journal of the Korean Society of Industry Convergence
    • /
    • v.27 no.1
    • /
    • pp.183-193
    • /
    • 2024
  • Recurrent Neural Network technology that learns past patterns and predicts future patterns using technology for recognizing and classifying objects is being applied to various industries, economies, and languages. And research for practical use is making a lot of progress. However, research on the application of Recurrent Neural Networks for evaluating and predicting the safety of mechanical structures is insufficient. Accurate detection of external load applied to the outside is required to evaluate the safety of mechanical structures. Learning of Recurrent Neural Networks for this requires a large amount of load data. This study applied the Gated Recurrent Unit technique to examine the possibility of load learning and investigated the possibility of applying a stacked Auto Encoder as a way to secure load data. In addition, the usefulness of learning mechanical loads was analyzed with the Gated Recurrent Unit technique, and the basic setting of related functions and parameters was proposed to secure accuracy in the recognition and prediction of loads.

Insecticidal Susceptibility and Emergence of First Instar Larvae of Pseudaulacaspis pentagona (뽕나무깍지벌레 1세대 부화 약충의 발생과 살충제 감수성)

  • Lee, Sun Young;Lee, Seong Chan;Yang, Chang Yeol;Seo, Mi Hye;Choi, Byeong Ryeol;Yoon, Jung Beom
    • Korean journal of applied entomology
    • /
    • v.58 no.4
    • /
    • pp.335-339
    • /
    • 2019
  • The white peach scale (Pseudaulacaspis pentagona) is a significant pest of trees belonging to the Rosaceae family. We investigated the effect of ten insecticides on hatching rate of first instar white peach scale larvae (crawlers). The insecticides are Dinotefuran WG, Benfuracarb WG, Pyrifluquinazon WG, Clothianidin SG, Buprofezin WP, Buprofezin+Imidacloprid SC, Buprofezin+Etofenprox WG, Buprofezin+Thiacloprid SC, Benfuracarb+Buprofezin WG, Acetamiprid+Buprofezin EC. We observed that several crawlers emerged in early May, with the average number being 45.7. Hatching period was approximately 14 days, and the hatching success rate was approximately 77.7%. Overwintering females produced an average of 58.7 eggs. All insecticides achieved 100% mortality in crawlers. Our results suggest that these insecticides can effectively control white peach scale when used at the crawler stage.

Selection Criteria of Harvesting and Logging Methods in Consideration of Forest Terrain Characteristics (산림지형특성(山林地形特性)을 고려한 산림수확방법(山林收穫方法) 및 집재방법(集材方法)의 선정기준)

  • Kim, Ki Weon
    • Journal of Korean Society of Forest Science
    • /
    • v.82 no.2
    • /
    • pp.195-206
    • /
    • 1993
  • The purpose of this study is to provide a basis for establishing regional harvesting systems that ist the prerequisites for the forest mechanization. The factors restricting to the forest harvesting and logging methods from topographical aspects are studied for this purpose. Three main harvesting methods studied in this paper are : shortwood method, longwood method and full tree method. This study shows : the shortwood method is suitable for low, the longwood method for medium, the full tree method for high topographical conditions. For the logging methods, the focus of the study is on various ground based logging systems by animalpower, manpower, gravitation, wheeled & crawler vehicle and cable. The factors limiting the coverage of logging operation are slope and logging distance. The cable crane logging methods are classified by logging distance into short distance(to 300 or 400m), middle distance(to 700 or 800m) and long distance cable crane methods (over 700 or 800m). The wheeled vehicle method shows serious damages to forest resources, whereas the logging by log-line of the gravitation logging method and cable crane method tend to minimize such damages. The wheeled & crawler vehicle method also shows difficult to apply in the high slope conditions, whereas cable crane method can be applied to maximum 120% steep slope and uphill conditions.

  • PDF