• 제목/요약/키워드: Log file

검색결과 159건 처리시간 0.023초

NTFS 파일시스템의 $LogFile의 로그레코드에 연관된 컴퓨터 포렌식 대상 파일을 찾기 위한 방법 (Method for Finding Related Object File for a Computer Forensics in a Log Record of $LogFile of NTFS File System)

  • 조규상
    • 전자공학회논문지CI
    • /
    • 제49권4호
    • /
    • pp.1-8
    • /
    • 2012
  • 이 연구는 NTFS 파일시스템에서 디스크의 에러를 복구를 위해 사용하는 저널링 파일($LogFile)에 기록되어 있는 로그 레코드들을 컴퓨터포렌식에 활용하는 방법에 관한 것이다. $LogFile에는 파일 연산의 과정을 그대로 담고 있어서 포렌식의 관점에서는 증거의 보고이다. 그러나 이 구조는 완전하게 공개되어 있지 않아서 구조를 정확히 알고 있지 않다는 어려움이 있다. 이 연구에서는 로그레코드들 기록된 주소 영역에 대해서 역공학적 방법으로 주소 데이터의 구조를 명확히 밝히고 로그레코드마다 그에 관련된 대상 파일이 어떤 것인지 분석하여 포렌식 대상 파일을 식별하고 포렌식 정보를 취득에 활용한다.

NTFS 파일 시스템의 저널 파일을 이용한 파일 생성에 대한 디지털 포렌식 방법 (A Digital Forensic Method for File Creation using Journal File of NTFS File System)

  • 김태한;조규상
    • 디지털산업정보학회논문지
    • /
    • 제6권2호
    • /
    • pp.107-118
    • /
    • 2010
  • This paper proposes a digital forensic method to a file creation transaction using a journal file($LogFile) on NTFS File System. The journal file contains lots of information which can help recovering the file system when system failure happens, so knowledge of the structure is very helpful for a forensic analysis. The structure of the journal file, however, is not officially opened. We find out the journal file structure with analyzing the structure of log records by using reverse engineering. We show the digital forensic procedure extracting information from the log records of a sample file created on a NTFS volume. The related log records are as follows: bitmap and segment allocation information of MFT entry, index entry allocation information, resident value update information($FILE_NAME, $STANDARD_INFORMATION, and INDEX_ALLOCATION attribute etc.).

로그기반 플래시 메모리 파일 시스템 성능 향상 기법 (A Technique to Enhance Performance of Log-based Flash Memory File Systems)

  • 류준길;박찬익
    • 대한임베디드공학회논문지
    • /
    • 제2권3호
    • /
    • pp.184-193
    • /
    • 2007
  • Flash memory adoption in the mobile devices is increasing or vanous multimedia services such as audio, videos, and games. Although the traditional research issues such as out-place update, garbage collection, and wear-leveling are important, the performance, memory usage, and fast mount issues of flash memory file system are becoming much more important than ever because flash memory capacity is rapidly increasing. In this paper, we address the problems of the existing log-based flash memory file systems analytically and propose an efficient log-based file system, which produces higher performance, less memory usage and mount time than the existing log-based file systems. Our ideas are applied to a well-known log-based flash memory file system (YAFFS2) and the performance tests are conducted by comparing our prototype with YAFFS2. The experimental results show that our prototype achieves higher performance, less system memory usage, and faster mounting than YAFFS2, which is better than JFFS2.

  • PDF

파일 접근 로그를 위한 FUSE 기반의 Syslog 에이전트 (FUSE-based Syslog Agent for File Access Log)

  • 손태영;임성락
    • 한국산학기술학회논문지
    • /
    • 제17권7호
    • /
    • pp.623-628
    • /
    • 2016
  • 시스템의 로그 정보는 불법적인 시스템 접근에 대한 문제를 해결하는데 결정적인 단서를 제공하기 때문에 로그 데이터의 수집 및 분석은 시스템 관리자에게 매우 중요하다. 리눅스 시스템에서는 다양한 종류의 로그 데이터를 수집하기 위하여 syslog 유틸리티를 이용해 오고 있다. 그러나 시스템 관리자는 syslog 유틸리티에서 지원하는 서비스에 의존해야 하는 한계가 있다. 이러한 한계를 극복하기 위하여 본 논문에서는 시스템 관리자로 하여금 syslog 유틸리티에서 지원하고 있지 않는 파일 접근에 대한 로그 정보를 수집할 수 있도록 하는 syslog 에이전트를 제시하고자 한다. 제시한 syslog 에이전트의 기본 개념은 FUSE를 생성한 후, syslog를 이용하여 FUSE가 마운트된 디렉토리에 존재하는 임의의 파일에 대한 접근 정보를 로그 파일에 저장하는 것이다. 제시한 기법의 기능적 타당성을 검토하기 위하여 리눅스(우분투 14.04)에서 FUSE 기반의 syslog 에이전트를 구현하여 임의의 파일 접근에 대한 정보를 로그 파일에 저장하고 저장된 로그 파일의 정보를 확인한다.

A rule based file management tool for facility log files integration in disaster environments

  • Lee, Young-Geol;Lee, Younlae;Kim, Hyunah;Jang, Yeonyi;Park, Minjae
    • 인터넷정보학회논문지
    • /
    • 제19권6호
    • /
    • pp.73-82
    • /
    • 2018
  • We often experience complex presence of files within the compute environment. It could be an end-user's desktop environment or a professional part of file management. We would like to suggest one way to manage these different cases of duplicate files. It is a rule-based file management tool, and we want to use it as a tool to consolidate facility management log files. In this paper, we will describe the rule-based file management tools and show examples of how files are managed using them. We are interested in the management of the disaster environment and would like to apply this method to the management of log data related to facilities to be considered in the event of a disaster.

HFAT: Log-Based FAT File System Using Dynamic Allocation Method

  • Kim, Nam Ho;Yu, Yun Seop
    • Journal of information and communication convergence engineering
    • /
    • 제10권4호
    • /
    • pp.405-410
    • /
    • 2012
  • Several attempts have been made to add journaling capability to a traditional file allocation table (FAT) file system. However, they encountered issues such as excessive system load or instability of the journaling data itself. If journaling data is saved as a file format, it can be corrupted by a user application. However, if journaling data is saved in a fixed area such as a reserved area, the storage can be physically corrupted because of excessive system load. To solve this problem, a new method that dynamically allocates journaling data is introduced. In this method, the journaling data is not saved as a file format. Using a reserved area and reserved FAT status entry of the FAT file system specification, the journaling data can be dynamically allocated and cannot be accessed by user applications. The experimental results show that this method is more stable and scalable than other log-based FAT file systems. HFAT was tested with more than 12,000 power failures and was stable.

클레멘타인 데이터마이닝 솔루션을 이용한 웹 로그 분석 (Analysis of Web Log Using Clementine Data Mining Solution)

  • 김재경;이건창;정남호;권순재;조윤호
    • 경영정보학연구
    • /
    • 제4권1호
    • /
    • pp.47-67
    • /
    • 2002
  • 1990년대 중반 이후 기업들은 인터넷상에서 사용자의 행동에 대한 관심이 높아짐에 따라, 인터넷상에서 사용자의 웹 사이트 클릭 정보가 남아 있는 웹 로그파일에 대한 관심 역시 높아지고 있다. 웹 로그파일에는 사용자 IP, 사용시간, 방문한 주소, 참조주소, 쿠키 파일 등 다양한 정보가 남기 때문에 이것을 이용하면 사용자의 웹 사이트 행위를 구체적으로 분석할 수 있다. 또한, 특정한 유형의 사용자와 관련된 웹 사이트를 찾아 효과적인 마케팅 전략을 수립할 수도 있다. 본 연구에서는 SPSS사의 데이터마이닝 도구인 클레멘타인을 이용하여 웹 마이닝을 할 수 있는 방법론을 소개하고, 실제 인터넷 허브 사이트의 로그화일을 대상으로 분석을 수행하였다.

통합보안 관리를 위한 침입대응 시스템 설계 (Design of Intrusion Responsible System For Enterprise Security Management)

  • 이창우;손우용;송정길
    • 융합보안논문지
    • /
    • 제5권2호
    • /
    • pp.51-56
    • /
    • 2005
  • 인터넷의 사용자 증가와 네트워크 환경이 점점 복잡해지고 제공되는 서비스 및 사용자의 요구사항들이 다양해짐에 따라 안정적이고 효과적인 환경을 유지하기 위한 서비스 운용관리는 점점 어려워지고 있다. 또한 초창기 보안은 침입차단시스템에 국한되었지만, 최근에는 침입탐지시스템(IDS), 가상 사설망(VPN), 시스템 보안, 인증 등 관련 솔루션이 대거 등장함에 따라 통합관리가 중요시되어 지고 있다. 이런 문제를 해결하기 위해 제안한 본 로그 분석을 통한 침입 대응시스템은 로그 파일을 XML 형식으로 저장함으로써 XML의 장점인 로그 파일의 검색이 용이하고 빠르게 이루어 질 수 있으며, 데이터의 구조화에 따라 시스템의 로그 파일들을 통합 분석, 관리하는데 이점을 가질 수 있다. 또한, 본 논문에서 제안한 생성된 로그파일을 IP 주소에 의해 소트된 로그와 Port 번호에 의해 소트된 로그, 침입 유형에 의해 소트된 로그, 탐지 시간에 의해 소트된 로그 등 다양한 형태로 변환하기 때문에 다른 침입탐지시스템에서 생성된 로그 파일과 비교 분석이 가능하다.

  • PDF

로그 구조 파일 시스템의 파일 단편화 해소를 위한 클리닝 기법 (An Efficient Cleaning Scheme for File Defragmentation on Log-Structured File System)

  • 박종규;강동현;서의성;엄영익
    • 정보과학회 논문지
    • /
    • 제43권6호
    • /
    • pp.627-635
    • /
    • 2016
  • 로그 구조 파일 시스템에서는 쓰기 작업을 처리할 때 새로운 블록들이 순차적으로 할당된다. 그러나, 다수의 프로세스가 번갈아가며 동기적 쓰기 작업을 요청할 경우, 파일 시스템 상에서는 각 프로세스가 생성한 파일이 단편화될 수 있다. 이 파일 단편화는 읽기 요청을 처리할 때 다수의 블록 I/O를 발생시키기 때문에 읽기 성능을 저하시킨다. 게다가, 미리 읽기 기능은 한 번에 요청되는 데이터의 양을 증가시킴으로써 성능 저하를 더욱 심화시킨다. 이에, 본 논문에서는 파일 단편화 문제를 해결하기 위해 로그구조 파일 시스템의 새로운 클리닝 기법을 제안한다. 제안 기법은 로그 구조 파일 시스템의 클리닝 과정 중 유효 데이터 블록을 아이노드 번호 순으로 정렬함으로써 한 파일의 데이터 블록들을 인접하게 재배치한다. 실험 결과, 제안한 클리닝 기법이 클리닝 전에 비해 약 60%의 파일 단편화를 제거하였고, 그 결과로 미리 읽기 기능을 적용했을 때 읽기 성능을 최고 21%까지 향상시키는 것을 확인하였다.

웹 브라우저 다중 사용 환경과 비영어권 국가에서의 인터넷 사용흔적 조사 방법 (A Method for Tracing Internet Usage in Multi-use Web browser Environment and Non-English Speaking Countries)

  • 이승봉;이상진
    • 정보보호학회논문지
    • /
    • 제20권5호
    • /
    • pp.125-132
    • /
    • 2010
  • 웹 브라우저는 인터넷을 사용하기 위한 필수적인 응용 프로그램이다. 만약 용의자가 범죄 행위 시 웹 브라우저를 사용하였다면, 범죄와 관련된 흔적은 웹 브라우저 로그 파일에 저장이 된다. 따라서 용의자의 컴퓨터에 저장되어 웹 브라우저 로그 파일을 조사 한다면, 사건과 관련된 유용한 정보를 얻을 수 있다. 특히 검색어는 범죄 수사 시 매우 유용한 정보를 제공한다. 그러나 영어가 아닌 언어는 인코딩되어 표현되기 때문에 국내 범죄 수사 시 어려움이 존재한다. 본 논문에서는 웹 브라우저 로그 파일 조사에 관련한 사전 연구와 도구들에 대하여 살펴보고 이러한 보그 파일을 포렌식 관점에서 분석하는 방법을 소개한다. 그리고 소개한 방법을 적용한 도구를 실제 사건에 적용한 사례에 대하여 설명한다.