• Title/Summary/Keyword: log file

Search Result 161, Processing Time 0.03 seconds

The Service Log Analyser for Blocking Unused Account on Internet Services (인터넷 서비스 미 사용 계정 차단을 위한 서비스 로그 분석기)

  • Jung, Kyu-Cheol;Lee, Jin-Kwan;Lee, Dae-Hyung;Jang, Hae-Suk;Lee, Jong-Chan;Park, Ki-Hong
    • Convergence Security Journal
    • /
    • v.7 no.2
    • /
    • pp.73-80
    • /
    • 2007
  • The fact that since Internet has been spreaded widely to people, Many security problems also have been grown too much. Due to sudden growth, administrator's responsibility for secure network and services has been growing more and more. This paper represents how to prevent account which didn't use for long period on multi domains environment using service log analysis. hence administrator can find security hole on systems and can dealing with it. The Service Log Analyzer is that loading log file which are written by each service and analyzing them. as a result it makes a list named Used User List contains a number of account names which uses specific services. When the time has come - means cron job schedule time, User Usage Shifter is the next runner. it's mission is finding the person who didn't used service for a specific period of time. Then modifying the expire day of the account information.

  • PDF

Sparse Data Cleaning using Multiple Imputations

  • Jun, Sung-Hae;Lee, Seung-Joo;Oh, Kyung-Whan
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • v.4 no.1
    • /
    • pp.119-124
    • /
    • 2004
  • Real data as web log file tend to be incomplete. But we have to find useful knowledge from these for optimal decision. In web log data, many useful things which are hyperlink information and web usages of connected users may be found. The size of web data is too huge to use for effective knowledge discovery. To make matters worse, they are very sparse. We overcome this sparse problem using Markov Chain Monte Carlo method as multiple imputations. This missing value imputation changes spare web data to complete. Our study may be a useful tool for discovering knowledge from data set with sparseness. The more sparseness of data in increased, the better performance of MCMC imputation is good. We verified our work by experiments using UCI machine learning repository data.

Image Log Files of the URL Page of Web Server (Web Server에서 Web URL Page의 Image Log File)

  • Yoo, Seung-Hee;Cho, Dong-Sub
    • Proceedings of the KIEE Conference
    • /
    • 2007.10a
    • /
    • pp.243-244
    • /
    • 2007
  • 웹 서버에서 로그파일은 웹 서버에 대한 접속정보를 저장한다. 이 정보를 분석하면 웹 서비스를 하는데 있어서 서비스의 질을 높이는데 좋은 참고자료가 될 뿐 아니라 웹 서버에 이상이 생겼을 경우 발생한 오류를 조기에 발견하는 데에도 사용되는 중요한 자료이다. 현재 이러한 로그파일은 텍스트 파일로 저장이 되어있으며 오랜 시간이 지나 그 웹 페이지가 삭제되었을 경우 로그파일에 기록된 그 시각의 웹 페이지를 찾아보기가 어렵다. 본 연구에서는 로그파일에 기록된 그 시각의 웹 페이지의 이미지를 저장하는 방법으로 이러한 단점을 보안하고 오랜 시간이 지난 후에도 그 웹 페이지를 볼 수 있는 방법을 제안한다. 이 아이디어가 구현되어 실현되면 또한 Digital Forensic으로써 범죄 수사에도 많은 도움이 될 뿐만 아니라 휴대전화로 풀 인터넷 브라우징이 가능한 풀브라우저에도 적용될 수 있다.

  • PDF

A Study on CDC Analysis Using Redo-Log File (로그 파일을 이용한 CDC 분석에 관한 연구)

  • Kim, Young-Whan;Im, Yeung-Woon;Kim, Sang-Hyong;Kim, Ryong;Choi, Hyun-Ho
    • Annual Conference of KIPS
    • /
    • 2014.04a
    • /
    • pp.692-695
    • /
    • 2014
  • 현재와 같이 처리해야 할 데이터가 폭주하는 상황에서 대부분의 시스템은 자료 저장을 위해 데이터베이스를 사용하지만, 누적되는 데이터 관리를 위해 빈번한 문제가 발생한다. 이때 대부분의 시스템들에서는 상용버전의 데이터 백업 시스템이나 이중화 시스템 등을 두어 여러 곳에 분산 배치함으로써 데이터 보관의 안전성을 도모한다. 실제 모든 데이터베이스 시스템들은 데이터를 레코드에 기록할 때 마다 고유의 로그기록을 남겨놓게 되어있다. 로그기록들은 결국 아카이브 형태로 저장되는데, 그전에 실시간으로 로그를 남기는 과정을 거치게 된다. 본 논문에서는 현재 많은 기관 및 단체에서 사용하는 오라클 데이터베이스를 기본으로 하여, 실시간으로 로그기록을 저장하게 되는 리두 로그(Redo-Log) 파일에 대하여 알아보고, 로그기록의 절차 및 응용 가능성에 대하여 보여준다.

A Log Analysis Study of an Online Catalog User Interface (온라인목록 사용자 인터페이스에 관한 연구 : 탐색실패요인을 중심으로)

  • 유재옥
    • Journal of the Korean Society for information Management
    • /
    • v.17 no.2
    • /
    • pp.139-153
    • /
    • 2000
  • This article focuses on a transaction log analysis of the DISCOVER online catalog user interface at Duksung Women's University Library. The results show that the most preferred access point is the title field with rate of 59.2%. The least used access point is the author field with rate of 11.6%. Keyword searching covers only about 16% of all access points used. General failure rate of searching is 13.9% with the highest failure rate of 19.8% in the subject field and the lowest failure rate of 10.9% in author field.

  • PDF

Fuzzy Web Usage Mining for User Modeling

  • Jang, Jae-Sung;Jun, Sung-Hae;Oh, Kyung-Whan
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • v.2 no.3
    • /
    • pp.204-209
    • /
    • 2002
  • The interest of data mining in artificial intelligence with fuzzy logic has been increased. Data mining is a process of extracting desirable knowledge and interesting pattern ken large data set. Because of expansion of WWW, web data is more and more huge. Besides mining web contents and web structures, another important task for web mining is web usage mining which mines web log data to discover user access pattern. The goal of web usage mining in this paper is to find interesting user pattern in the web with user feedback. It is very important to find user's characteristic fer e-business environment. In Customer Relationship Management, recommending product and sending e-mail to user by extracted users characteristics are needed. Using our method, we extract user profile from the result of web usage mining. In this research, we concentrate on finding association rules and verify validity of them. The proposed procedure can integrate fuzzy set concept and association rule. Fuzzy association rule uses given server log file and performs several preprocessing tasks. Extracted transaction files are used to find rules by fuzzy web usage mining. To verify the validity of user's feedback, the web log data from our laboratory web server.

Trends of Web-based OPAC Search Behavior via Transaction Log Analysis (트랜잭션 로그 분석을 통한 웹기반 온라인목록의 검색행태 추이 분석)

  • Lee, Sung-Sook
    • Journal of the Korean BIBLIA Society for library and Information Science
    • /
    • v.23 no.2
    • /
    • pp.209-233
    • /
    • 2012
  • In this study in order to verify the overall information seeking behavior of the Web-based OPAC users, it was analyzed transaction log file for 7 years. Regarding Web-based OPAC information seeking behavior, it was studied from the perspective of information seeking strategy and information seeking failure. In search strategy, it was analyzed search type, search options, Boolean operator, length of search text, number of uses of word, number of use Web-based OPAC, number of use by time, by week day. Also, in search failure, search failure ratio, search failure ratio by search options, search failure ratio by Boolean operator were analyzed. The result of this study is expected to be utilized for OPAC system and service improvement in the future.

Created Time of File and Log Abusing Unreliable System Time and a Solution (시스템 시간을 악용한 신뢰할 수 없는 파일과 로그의 생성시간과 해결 방안)

  • Yoon, Se-Won;Jun, Moon-Seog
    • Proceedings of the KAIS Fall Conference
    • /
    • 2010.11a
    • /
    • pp.382-385
    • /
    • 2010
  • 컴퓨터가 우리 생활에 밀접하게 관련된 만큼 각종 범죄에서도 컴퓨터와 관련된 사건이 증가하고 있다. 범죄와 관련된 컴퓨터에서 법정에 제출하기 위해 증거를 분석하고 제출하는 과정을 디지털 포렌식이라 한다. 대표적인 포렌식으로는 사용자의 행위를 기록한 로그 분석이 있다. 반대로 증거 분석을 방해하는 과정을 안티 디지털 포렌식이라 한다. 본 논문에서는 시스템 시간을 변경해 로그 기록시간을 허위로 기록할 수 있는 가능성과 해결 방안을 알아본다.

  • PDF

Fuzzy category based transaction analysis for web usage mining (웹 사용 마이닝을 위한 퍼지 카테고리 기반의 트랜잭션 분석 기법)

  • 이시헌;이지형
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.04a
    • /
    • pp.341-344
    • /
    • 2004
  • 웹 사용 마이닝(Web usage mining)은 웹 로그 파일(web log file)이나 웹 사용 데이터(Web usage data)에서 의미 있는 정보를 찾아내는 연구 분야이다. 웹 사용 마이닝에서 일반적으로 많이 사용하는 웹 로그 파일은 사용자들이 참조한 페이지의 단순한 리스트들이다. 따라서 단순히 웹 로그 파일만을 이용하는 방법만으로는 사용자가 참조했던 페이지의 내용을 반영하여 분석하는데에는 한계가 있다. 이러한 점을 개선하고자 본 논문에서는 페이지 위주가 아닌 웹 페이지가 포함하고 있는 내용(아이템)을 고려하는 새로운 퍼지 카테고리 기반의 웹 사용 마이닝 기법을 제시한다. 또한 사용자를 잘 파악하기 위해서 시간에 따라 관심의 변화를 파악하는 방법을 제시한다.

  • PDF