• 제목/요약/키워드: Web page

검색결과 675건 처리시간 0.031초

웹로그 분석을 통한 의약품 정보 검색 주제별 이용 패턴에 관한 연구 (A Study on the Usage Patterns of Medicine Information Through Web Log Analysis)

  • 조경원;우영운
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2005년도 추계 종합학술대회 논문집
    • /
    • pp.269-274
    • /
    • 2005
  • 최근에 인터넷을 통한 의약품 정보가 범람하고 있다. 그러나 지금까지 일반인들이 웹페이지를 통하여 의약품 정보를 검색하는 패턴과 획득하는 방법에 대한 연구 결과가 미비한 실정이다. 따라서 이 논문에서는 의약품 정보를 제공하는 특정 회사의 웹 로그 파일을 WiseLog 툴을 사용하여 분석하였다. 특히 사용자 유형에 따른 웹페이지 사용 형태와 웹페이지 메뉴 사용 형태, 그리고 검색 메뉴 사용 형태의 3가지에 대한 웹 로그 파일 통계 결과 자료를 분석하였다. 그 결과 인터넷에서의 의약품 정보를 제공하는 회사들을 위한 보완 및 개선 방안들을 제시하였다.

  • PDF

Classifying Malicious Web Pages by Using an Adaptive Support Vector Machine

  • Hwang, Young Sup;Kwon, Jin Baek;Moon, Jae Chan;Cho, Seong Je
    • Journal of Information Processing Systems
    • /
    • 제9권3호
    • /
    • pp.395-404
    • /
    • 2013
  • In order to classify a web page as being benign or malicious, we designed 14 basic and 16 extended features. The basic features that we implemented were selected to represent the essential characteristics of a web page. The system heuristically combines two basic features into one extended feature in order to effectively distinguish benign and malicious pages. The support vector machine can be trained to successfully classify pages by using these features. Because more and more malicious web pages are appearing, and they change so rapidly, classifiers that are trained by old data may misclassify some new pages. To overcome this problem, we selected an adaptive support vector machine (aSVM) as a classifier. The aSVM can learn training data and can quickly learn additional training data based on the support vectors it obtained during its previous learning session. Experimental results verified that the aSVM can classify malicious web pages adaptively.

LMF로 수정된 웹 프락시 캐쉬용 LRU페이지 교체 정책 (A Modified LRU Page Replacement Policy with LMF for Web Proxy Cache)

  • 이용임;김주균
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권7_8호
    • /
    • pp.426-433
    • /
    • 2003
  • 웹 사용자들의 QoS를 위해 채택되는 프락시 캐쉬의 관리 정책은 크게 페이지 교체와 일관성 유지 정책으로 볼 수 있다. 현재까지 이 두 가지의 연구는 서로간의 관린 유무를 떠나 독립적으로 진행되어 왔다. 본 논문에서는 LRU 페이지 교체 방식에 일관성 유지 정책에서 사용하는 최종 수정 인수의 특성을 도입함으로써 두 정책간의 상호 보완으로 프락시 캐쉬의 효율적 운영이 가능함을 보였다. 프락시 캐쉬의 관리를 위해 다양한 정책이 논의되고 있는 시점에서 이러한 시도는 캐쉬의 히트율 증가와 서버로의 전송 부하 감소 등과 같은 성능 향상을 위한 의미 있는 방법이 될 수 있을 것이다.

보안 마이크로 웹페이지 기반 전장 스마트 지도 (Security Micro-web Page Based Battlefiled Smart Map)

  • 허준;하선주;차신;은성배
    • 대한임베디드공학회논문지
    • /
    • 제12권4호
    • /
    • pp.259-266
    • /
    • 2017
  • GPS was developed for military purposes. As a result, it is used as a military important means such as guided weapons and strategy / tactics. However, GPS depends on the communication infrastructure and is affected by interference signals. In this paper, we propose a secure micro - web page - based smart map that can enhance security without relying on communication infrastructure on the battlefield. The proposed system consists of general smartphone, security QR, central server and smart map. Only use the network when downloading the security key and SmartMap before the task starts. During operation, the smartphone transmits and receives data using a secure QR. The security QR inserts the security code to prevent forgery and falsification and confirms whether the data is authentic by checking whether the smart phone is forged or not. As a result of implementation, we solved communication security problem of existing technology by using location based service without relying on communication infrastructure.

웹 페이지에서 사용자 입력 값 변조 방지에 관한 연구 (A Study on Protecting for forgery modification of User-input on Webpage)

  • 유창훈;문종섭
    • 정보보호학회논문지
    • /
    • 제24권4호
    • /
    • pp.635-643
    • /
    • 2014
  • 인터넷을 통하여 제공되는 대부분의 웹 서비스들은 웹 브라우저를 통하여 사용자에게 제공된다. 웹 브라우저는 텍스트 형태의 웹 페이지를 서버로부터 수신하여 해석하고 사용자에게 보여준다. 웹 브라우저는 추가적으로 설치 할 수 있는 각종 기능들을 통하여 확장성을 제공한다. 하지만 추가로 설치 할 수 있는 기능들도 웹 페이지에 접근하여 내용을 위/변조 할 수 있다는 점에서 웹 브라우저를 통한 웹 서비스는 보안상 문제점을 내포할 수 있다. 웹 브라우저는 웹 페이지정보를 DOM구조의 형태로 메모리에 저장한다. 웹 페이지의 변조를 방지하기 위한 방법으로는 DOM구조의 특정 부분에 해쉬(hash)값을 적용하는 방법이 있다. 하지만 웹 페이지의 특성상 해쉬를 이용한 대응방안이 효과를 발휘할 수 없는 부분이 있다. 즉, 사용자가 직접 입력하는 부분은 정해진 입력 값이 아니기 때문에 미리 해쉬 값을 계산 해 놓을수도 없고 따라서 임의로 변조되는 것을 막을 수 없다. 본 논문에서는 웹페이지에 입력되는 사용자 입력 값의 위조나 변조를 방지 또는 탐지하는 방안을 제안한다. 제안 방법은 사용자가 키보드를 사용하여 입력하는 입력 값을 저장 해 놓았다가 웹 브라우저가 입력 값을 전송하는 순간 저장된 입력 값과 전송되는 값을 비교하여 변조 여부를 파악한다.

웹페이지를 위한 규모측정에 관한 연구 (An Empirical Study on the Measurement of Size for Web-Page)

  • Kim, In-Suk;Lee, Nam-Yong
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.52-54
    • /
    • 2003
  • Measurement is used to improve software process and to help calculating software quality. It makes software project to be control and help producing software. Measuring software scale becomes important target in software development. LOC is used to measure the size intentioned aspect and function point is used to measure the function intentioned aspect. This paper discusses measurement method using function point, which fullows proposed rule, and degree of GUI (Graphical User Interface) accesses achieved by applying this measurement to web page. Applying proposed rules to web pages (specially that use much GUI such as shopping mall or auction site), there is advantage that calculate site changes on numerical value by measuring GUI degree when do site administration or update.

  • PDF

공간정보사업의 중복사업 검색을 위한 의미기반검색 시스템의 설계 (Design of Semantic Search System for the Search of Duplicated Geospatial Projects)

  • 박상언;임재익;강주영
    • 한국IT서비스학회지
    • /
    • 제12권3호
    • /
    • pp.389-404
    • /
    • 2013
  • Geospatial information, which is one of social overhead capital, is predicted as a core growing industry for the future. The production of geospatial information requires a huge budget, so it is very important objective of the policy for geospatial information to prevent the duplication of geospatial projects. In this paper, we proposed a semantic search system which extracts possible duplication of geospatial projects by using ontology for geospatial project administration. In order to achieve our goal, we suggested how to construct and utilize geospatial project ontology, and designed the architecture and process of the semantic search. Moreover, we showed how the suggested semantic search works with a duplicated projects search scenario. The suggested system enables a nonprofessional can easily search for duplicated projects, therefore we expect that our research contributes to effective and efficient duplication review process for geospatial projects.

A Study of Main Contents Extraction from Web News Pages based on XPath Analysis

  • Sun, Bok-Keun
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권7호
    • /
    • pp.1-7
    • /
    • 2015
  • Although data on the internet can be used in various fields such as source of data of IR(Information Retrieval), Data mining and knowledge information servece, and contains a lot of unnecessary information. The removal of the unnecessary data is a problem to be solved prior to the study of the knowledge-based information service that is based on the data of the web page, in this paper, we solve the problem through the implementation of XTractor(XPath Extractor). Since XPath is used to navigate the attribute data and the data elements in the XML document, the XPath analysis to be carried out through the XTractor. XTractor Extracts main text by html parsing, XPath grouping and detecting the XPath contains the main data. The result, the recognition and precision rate are showed in 97.9%, 93.9%, except for a few cases in a large amount of experimental data and it was confirmed that it is possible to properly extract the main text of the news.

Web Server에서 Web URL Page의 Image Log File (Image Log Files of the URL Page of Web Server)

  • 유승희;조동섭
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.243-244
    • /
    • 2007
  • 웹 서버에서 로그파일은 웹 서버에 대한 접속정보를 저장한다. 이 정보를 분석하면 웹 서비스를 하는데 있어서 서비스의 질을 높이는데 좋은 참고자료가 될 뿐 아니라 웹 서버에 이상이 생겼을 경우 발생한 오류를 조기에 발견하는 데에도 사용되는 중요한 자료이다. 현재 이러한 로그파일은 텍스트 파일로 저장이 되어있으며 오랜 시간이 지나 그 웹 페이지가 삭제되었을 경우 로그파일에 기록된 그 시각의 웹 페이지를 찾아보기가 어렵다. 본 연구에서는 로그파일에 기록된 그 시각의 웹 페이지의 이미지를 저장하는 방법으로 이러한 단점을 보안하고 오랜 시간이 지난 후에도 그 웹 페이지를 볼 수 있는 방법을 제안한다. 이 아이디어가 구현되어 실현되면 또한 Digital Forensic으로써 범죄 수사에도 많은 도움이 될 뿐만 아니라 휴대전화로 풀 인터넷 브라우징이 가능한 풀브라우저에도 적용될 수 있다.

  • PDF

Web URL Page 의 Image Logging 기법 (Image Logging Technique of a Web URL Page on the Tiny Web Server)

  • 유승희;조동섭
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 춘계학술발표대회
    • /
    • pp.679-682
    • /
    • 2008
  • 기존의 웹서버는 텍스트형식의 로그파일을 기록한다. 웹 서버에서 로그파일은 클라이언트의 웹서버에 대한 접속정보와 웹서버의 처리상황 등 모든 상황을 기록하고 저장한다. 이 정보를 분석하면 웹 서비스를 하는데 있어서 웹 서비스의 질을 높이는데 좋은 참고자료가 될 뿐 아니라 웹 서버에 이상이 생겼을 경우 발생한 오류를 조기에 발견하는 데에도 사용되는 중요한 자료이다. 현재 이러한 로그파일은 텍스트 파일로 저장되어있기 때문에 조작의 가능성도 있고 오랜 시간이 지나 해당 웹 페이지가 삭제되었을 경우 로그파일에 기록된 그 시각의 웹 페이지를 볼 수 없다. 본 연구에서는 로그파일에 기록된 그 시간의 웹 URL 페이지 이미지를 저장하여 이미지 로그파일을 만드는 시스템을 구현해 봄으로써 텍스트형식 로그파일의 단점을 보안하고 오랜 시간이 지난 후에도 그 웹 페이지를 볼 수 있는 기법을 연구하였다. 이 기법은 로그파일로써의 역할 뿐만 아니라 Digital Forensics 로 범죄 수사에도 많은 도움이 될 수 있고 휴대전화에서 풀 인터넷 브라우징 연구에도 적용될 수 있다.