• 제목/요약/키워드: 페이지 분석

검색결과 839건 처리시간 0.029초

페이지 실행시간 동기화를 이용한 다중 해쉬 결합에서 결합률에 따른 효율적인 프로세서 할당 기법 (Efficient Processor Allocation based on Join Selectivity in Multiple Hash Joins using Synchronization of Page Execution Time)

  • 이규옥;홍만표
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제28권3호
    • /
    • pp.144-154
    • /
    • 2001
  • 다중 결합 질의에 포함된 다수의 결합 연산지를 효율적으로 처리하기 위해 서는 효율적인 병렬 알고리즘이 필요하다. 최근 다중 해쉬 결합 질의의 처리를 위해 할당 트리를 이용한 방법이 가장 우수한 것으로 알려져 있다. 그러나 이 방법은 실제 결합 시에 할당 트리의 각 노드에서 필연적인 지연이 발생되는 데 이는 튜플-시험 단계에서 외부 릴레이션을 디스크로부터 페이지 단위로 읽는 비용과 이미 읽는 페이지에 대한 해쉬 결합 비용간의 차이에 의해 발생하게 된다. 이들 사이의 실행시간을 가급적 일치시키기 위한 '페이지 실행시간 동기화'기법이 제안되었고 이를 통해 할당 트리 한 노드 실행에 있어서의 지연 시간을 줄일 수 있었다. 하지만 지연 시간을 최소화하기 위해 할당되어질 프로세서의 수 즉, 페이지 실행시간 동기화 계수(k)는 실제 결합 시의 결합률에 따라 상당한 차이를 보이게 되고 결국, 이 차이를 고려하지 않은 다중 해쉬 결합은 성능 면에서 크게 저하될 수밖에 없다. 본 논문에서는 결합 이전에 어느 정도의 결합률을 예측할 수 있다는 전제하에 다중 해쉬 결합 실행 시에 발생할 수 있는 지연 시간을 최소화 할 수 있도록 결합률에 따라 최적의 프로세서들을 노드에 할당함으로서 다중 해쉬 결합의 실행 성능을 개선하였다. 그리고 분석적 비용 모형을 세워 기존 방식과의 다양한 성능 분석을 통해 비용 모형의 타당성을 입증하였다.

  • PDF

링크 분석을 통한 비동기 웹 페이지 크롤링 알고리즘 (Asynchronous Web Crawling Algorithm)

  • 원동현;박혁규;강윤정;이민혜
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.364-366
    • /
    • 2022
  • 웹은 처리 속도가 다른 다양한 정보들을 함께 제공하기 위해 비동기식 웹 기술을 이용한다. 비동기 방식에서는 작업 완료 전에도 다른 이벤트에 응답할 수 있다는 장점이 있으나 일반적인 크롤러는 웹페이지의 방문 시점 정보를 수집함으로 비동기 방식으로 제공되는 정보를 수집하는 데 어려움이 있다. 또한 비동기식 웹 페이지는 페이지 내용이 변경되어도 웹 주소가 변하지 않는 경우도 많아 크롤링하는 데 어려움이 있다. 본 논문에서는 웹의 링크를 분석하여 비동기 방식 페이지 이동을 고려한 웹 크롤링 알고리즘을 제안한다. 제안한 알고리즘으로 비동기 방식으로 정보를 제공하는 TTA의 정보통신용어사전 정보를 수집할 수 있었다.

  • PDF

서울시 의학도서관의 웹페이지에 관한 연구 (A Study on the Webpage of Medical Libraries in Seoul)

  • 한혜영;조찬식
    • 한국정보관리학회:학술대회논문집
    • /
    • 한국정보관리학회 2004년도 제11회 학술대회 논문집
    • /
    • pp.87-94
    • /
    • 2004
  • 정보통신의 발달과 인터넷의 대중화로 인해 웹페이지 구축이 생활화됨에 따라 의학도서관에서도 웹페이지를 통한 효과적인 정보제공이 요구되고 있다. 이에 본 연구는 서울시 의학도서관 웹페이지를 대상으로 웹페이지 설계기준에 따라 구조와 내용을 분석하여 문제점을 살펴보고 활성화 방안을 마련하여, 웹페이지를 통한 효과적인 의학도서관의 정보서비스 제공에 기여하고자 한다.

  • PDF

콘텐츠 제작방식, 지각된 위험, 미디어 풍부성이 고객만족에 미치는 영향 분석 (Empirical Analysis on the Effect of Design Pattern of Web Page, Perceived Risk and Media Richness to Customer Satisfaction)

  • 박봉원;이중만;이종원
    • 한국콘텐츠학회논문지
    • /
    • 제11권6호
    • /
    • pp.385-396
    • /
    • 2011
  • 인터넷의 웹페이지는 다양한 형태로 존재하지만, 크게 텍스트 중심의 웹페이지, 텍스트와 이미지로 구성된 웹페이지, 그리고 텍스트와 동영상으로 구성된 웹페이지로 구분할 수 있다. 본 연구에서는 콘텐츠 제작방식에 따라서 변하는 소비자들의 지각된 위험 수준과 미디어 풍부성이 미치는 영향을 분석하며, 이들 요인이 고객만족에 미치는 영향을 분석한다. 분석결과, 텍스트 형식의 웹페이지가 텍스트와 이미지 혹은 동영상으로 구성된 웹페이지에 비해서 지각된 위험 중 성능위험, 심리적 위험, 시간 위험 등으로 구성된 개인적 위험을 더 크게 느끼는 것으로 나타났다. 또한, 미디어 풍부성 측면에서는 텍스트와 이미지 혹은 동영상으로 구성된 웹페이지가 텍스트 위주의 웹페이지에 비해서 상징성 및 사회적 실재감이 높은 것으로 조사되었다. 그리고 개인적 위험 및 텍스트 형식의 웹페이지는 고객 만족에 음의 영향을 미치며, 상징성 및 사회적 실재감은 양의 효과를 가진다. 본 연구는 지각된 위험과 미디어 풍부성의 개념을 콘텐츠 제작방식과 연결시킴으로써 기대와는 달리 동영상 콘텐츠가 폭발적으로 성장하지 못한 점에 대해서 규명한데 의의를 둔다.

혼합 워크로드 처리를 위한 컬럼 그룹 기반 동적 페이지 저장 관리 설계 (A Design of Column-Group based Dynamic Page Storage Model for Mixed Workloads)

  • 박경현;원희선;류근호
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권2호
    • /
    • pp.335-341
    • /
    • 2018
  • 기존의 데이터베이스시스템은 정적 페이지 저장 모델을 사용하기 때문에 최근 데이터베이스 시장에서 요구하는 혼합 워크로드를 효율적으로 처리하기에는 한계를 가진다. 이에 본 논문에서는 혼합 워크로드의 특성을 반영할 수 있는 동적 페이지 저장 모델을 소개한다. 또한 혼합 워크로드를 분석하여 최적화된 컬럼 그룹을 추출한 후 동적으로 페이지를 구성하는 방법을 소개한다. 마지막으로 실험을 통해 본 논문에서 제안한 컬럼 그룹 기반의 동적 페이지 저장 모델이 기존의 페이지 저장 모델과 비교할 때 혼합 워크로드를 처리하는데 보다 효율적임을 보인다.

PDF 파일의 페이지단위 복구 기법 (A Recovery Technique of PDF File in the Unit of Page)

  • 장지원;방승규;한재혁;이상진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제6권1호
    • /
    • pp.25-30
    • /
    • 2017
  • 안티 포렌식 기법 중 하나인 데이터 삭제 기법은 그 행위의 단순함에 비해 포렌식 분석 관점에서의 그 영향력은 상당하다. 학계에서는 데이터 삭제 기법에 대응하여 지속적으로 삭제된 파일 복구 기법에 대해 연구하였으며, 대표적으로 파일시스템 기반 파일 복구 기법과 파일 포맷 기반 복구 기법이 존재한다. 파일이 삭제되고 난 후 해당 파일의 메타데이터가 파일시스템 상에 존재한다면, 이를 이용하여 손쉽게 파일을 복구할 수 있으나, 메타데이터가 존재하지 않는 경우엔 시그니처 기반 카빙 기법을 이용하여 파일을 복구하거나 파일 포맷에 기반한 복구기법을 적용해야 한다. 이때 파일 포맷에 기반한 복구기법은 파일 구조에 대한 분석과 복구 가능한 기법이 제시되어야 한다. 본 논문은 PDF 파일의 구조적 특성에 기반한 삭제된 PDF 파일의 페이지 단위 복구 기법을 제시한다. 해당 기법은 PDF 파일의 1개 페이지를 구성하는 Page Object의 태그 값을 이용한다. 각 태그 값을 일종의 시그니쳐로서 활용하여 Object를 추출하며, 추출된 Object들을 분석하여 PDF파일의 메타데이터를 재조합한 후 페이지 단위로 재구성한다. 페이지 단위로 복구한다는 것은 삭제된 PDF 파일이 온전하지 않더라도 PDF 파일을 구성했던 일부 페이지라도 복구할 수 있음을 의미한다. 해당 기법을 이용하면 온전하지 않은 상태의 PDF파일에 대한 복구가 가능하다. 이는 디지털 포렌식 분석 관점에서 기존보다 더 많은 데이터를 복구하는데 활용될 수 있다.

금융정보를 탈취하는 파밍 악성코드 분석 및 대응방안

  • 이세빈;이지오;염흥열
    • 정보보호학회지
    • /
    • 제27권3호
    • /
    • pp.48-53
    • /
    • 2017
  • 최근 많은 사용자가 인터넷을 통해 수많은 웹페이지에 접속하고 정보를 수집하면서 인터넷의 사용량이 증가한 만큼 악성코드에 감염될 확률은 증가하고 있다. 공격자들은 웹을 통해 사용자들의 정보탈취를 목적으로 악성코드를 유포하는데 그 중 파밍 (pharming) 악성코드를 통해 금융정보 탈취를 하고 있다. 파밍 악성코드에 감염된 사용자들은 웹페이지에 접속시 원래 페이지가 아닌 공격자가 만든 파밍 페이지로 유도되어 금융정보 및 공인인증서가 유출된다. 유출된 금융정보를 통해 사용자들은 심각한 금전적인 피해가 발생할 수 있다. 본 논문에서는 최근 파밍 악성코드를 통해 금융정보를 유출하는 방법에 대해 분석하고 대응방안을 제시한다.

퍼지 이론을 적용한 웹 페이지 화면추출 (Screen Extraction of Web Page Using Fuzzy Theory)

  • 김성택;손창식;정환묵
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 춘계 학술대회 학술발표 논문집
    • /
    • pp.91-94
    • /
    • 2003
  • 본 논문에서는 사용자에게 보다 적합하고 유용한 정보를 제공할 수 있도록 퍼지 $\alpha$-cut을 이용하여 웹 페이지를 부분적으로 표시할 수 있는 방법을 제안한다. 또한, 사용자의 취향과 패턴을 분석하여, 블록화 되어있는 태그들을 중요도에 따라 나타낼 수 있도록 함으로서 사용자의 정보검색에 소요되는 시간과 비용을 절감할 수 있을 것으로 기대된다.

  • PDF

웹 환경에서의 분산 미디어 분석을 위한 Web Media Picker 설계 및 구현 (Design and Implementation of Web Media Picker for Distributed Media Analysis)

  • 이미란;이민수;조동섭
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 춘계학술발표대회논문집
    • /
    • pp.716-719
    • /
    • 2003
  • 웹을 중심으로 인터넷이 발전하면서 웹 기반의 응용 서비스가 계속적으로 개발되고 있고, 사용자의 다양한 욕구가 추진 원동력이 되고 있다. 현재 대부분의 인터넷 서비스는 텍스트뿐만 아니라 그림, 소리, 동영상 등 여러 가지 다양한 미디어를 사용하고 있다. 본 논문에서는 이렇게 다양한 미디어가 어디서, 어떻게 사용되었는지를 분석하기 위하여 웹 환경에서의 분산 미디어 분석을 위한 Web Media Picker를 제안하고자 한다. Web Media Picker를 이용하면 웹 페이지에서 사용된 각각의 태그를 분석할 수 있고, 이렇게 분석한 정보를 통하여 각각의 미디어의 사용 횟수와 미디어가 웹 페이지 상에서 사용된 방법에 대하여 알 수 있다.

  • PDF

SVM을 활용한 악성 웹 페이지 분류 (Classification of Malicious Web Pages by Using SVM)

  • 황영섭;문재찬;조성제
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권3호
    • /
    • pp.77-83
    • /
    • 2012
  • 웹 페이지에서 다양한 서비스를 제공하면서 악성코드가 웹 페이지를 통해 배포되는 것도 늘어났다. 악성코드는 개인정보 유출, 시스템의 성능저하, 시스템의 좀비 피씨화 등의 피해를 입힌다. 이런 피해를 막으려면 악성코드가 있는 웹 페이지의 접근을 막아야 한다. 그런데 웹 페이지에 있는 악성코드는 난독화나 변형기법으로 위장하고 있어 기존 안티바이러스 소프트웨어가 사용하는 시그니처 방식의 접근법으로 찾아내기 어렵다. 이를 해결하기 위하여, 웹 페이지를 분석하여 악성 웹 페이지와 양성 웹 페이지를 구별하기 위한 특징을 추출하고, 기계 학습법으로 널리 사용되는 SVM을 통하여 악성 웹 페이지를 분류하는 방법을 제안한다. 제안하는 방법이 우수함을 실험을 통하여 보인다. 제안한 방법으로 악성 웹 페이지를 정확히 분류하면 웹 페이지를 통한악성코드의 배포를 막는데 이바지할 것이다.