• Title/Summary/Keyword: Log analysis

Search Result 2,179, Processing Time 0.027 seconds

급경사지 산림작업을 위한 차량의 역학분석에 관한 연구 -차륜형 집재작업 트랙터를 중심으로- (A Study on Ground Vehicle Mechanics for Steep Slope Forest Operations - Rubber-Tired Log Skidding Tractor Operations -)

  • 정주상;정우담
    • 한국산림과학회지
    • /
    • 제84권2호
    • /
    • pp.218-225
    • /
    • 1995
  • 이 논문에서는 임업용 트랙터의 집재작업 분석에 요구되는 역학분석모델을 제시하고 사례분석을 통해 적용성을 검토하였다. 역학분석모델은 크게 견인목의 역학구조해석모델, 차량하중분석모델 및 주행중인 차량의 구동력과 저항력 분석모델의 3부분으로 구성되어 있다. 사례분석에서는 가상적인 집재작업 시나리오를 만들어 역학적으로 중요하거나 혹은 집재생산성에 중요한 인자들에 대한 영향력분석을 통해 모델의 적용성을 검토하였다. 사례분석은 1) 당김줄을 견인목에 묶는 방법이 견인력에 미치는 영향, 2)주행속도 및 견인목 하중이 차륜의 동력요구에 미치는 영향, 3) 2륜구동과 4륜구동 트랙터의 견인작업 수행 성능 비교에 관한 내용을 포함한다.

  • PDF

Log Analysis System Design using RTMA

  • 박희창;명호민
    • 한국데이터정보과학회:학술대회논문집
    • /
    • 한국데이터정보과학회 2004년도 춘계학술대회
    • /
    • pp.225-236
    • /
    • 2004
  • Every web server comprises a repository of all actions and events that occur on the server. Server logs can be used to quantify user traffic. Intelligent analysis of this data provides a statistical baseline that can be used to determine server load, failed requests and other events that throw light on site usage patterns. This information provides valuable leads on marketing and site management activities. In this paper, we propose a method of design for log analysis system using RTMA(realtime monitoring and analysis) technique.

  • PDF

개인정보통합관제 로그품질 분석 및 개선에 관한 연구: 보건복지 분야 사례를 중심으로 (A Study on Improvement of Personal Information Protection Control Log Quality: A Case of the Health and Welfare Division)

  • 이야리;홍경표;김정숙
    • 한국멀티미디어학회논문지
    • /
    • 제18권1호
    • /
    • pp.42-51
    • /
    • 2015
  • In this paper, we analyze the quality status of Health and Welfare division's standardized log and asses the characteristics of the institutions' logs analysis to establish the criteria to minimize hazards and control the quality of log's institutional details to limit extraction. As a result, extraction condition's proposed development direction to adequately assess and control health and welfare abuses privacy control target log. This improvement over the status and quality of information shared with relation to institutional work of the log quality characteristics is made possible. In addition, quality control and inspection standards were prepared in accordance with the institutional log characteristics. Future research will include performing continuous analysis and improvement activities on the quality of logs with integrated control of sharing personal information and distributing information about logs' quality to proactively target organ. Therefore, we expect that correcting proactive personal information misuse and leakage is possible to achieve.

Compositional data analysis by the square-root transformation: Application to NBA USG% data

  • Jeseok Lee;Byungwon Kim
    • Communications for Statistical Applications and Methods
    • /
    • 제31권3호
    • /
    • pp.349-363
    • /
    • 2024
  • Compositional data refers to data where the sum of the values of the components is a constant, hence the sample space is defined as a simplex making it impossible to apply statistical methods developed in the usual Euclidean vector space. A natural approach to overcome this restriction is to consider an appropriate transformation which moves the sample space onto the Euclidean space, and log-ratio typed transformations, such as the additive log-ratio (ALR), the centered log-ratio (CLR) and the isometric log-ratio (ILR) transformations, have been mostly conducted. However, in scenarios with sparsity, where certain components take on exact zero values, these log-ratio type transformations may not be effective. In this work, we mainly suggest an alternative transformation, that is the square-root transformation which moves the original sample space onto the directional space. We compare the square-root transformation with the log-ratio typed transformation by the simulation study and the real data example. In the real data example, we applied both types of transformations to the USG% data obtained from NBA, and used a density based clustering method, DBSCAN (density-based spatial clustering of applications with noise), to show the result.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

Log-Pearson Type III 및 GEV분포모형에 의한 강우의 지점 및 지역빈도 비교분석 (Comparative Analysis of regional and at-site analysis for the design rainfall by Log-Pearson Type III and GEV Distribution)

  • 류경식;이순혁
    • 한국농공학회:학술대회논문집
    • /
    • 한국농공학회 2003년도 학술발표논문집
    • /
    • pp.443-446
    • /
    • 2003
  • This study was conducted to draw design rainfall for the regional design rainfall derived by the optimal distribution and method of frequency analysis. The design rainfalls were calculated by the regional and at-site analysis for Log-Pearson type III and GEV distributions and were compared with Relative efficiency(RE) which is ratio of Relative root-mean-square error(RRMSE) by the regional and at-site analysis for Log-Pearson type III and GEV distributions. Consequently, optimal design rainfalls following the regions and consecutive durations were derived by the regional frequency analysis for GEV distribution and design rainfall maps were drawn by GIS techniques.

  • PDF

Log-based petrophysical analysis of Khatatba Formation in Shoushan Basin, North Western Desert, Egypt

  • Osli, Liyana Nadiah;Yakub, Nur Yusrina;Shalaby, Mohamed Ragab;Islam, Md. Aminul
    • Geosciences Journal
    • /
    • 제22권6호
    • /
    • pp.1015-1026
    • /
    • 2018
  • This paper aims to investigate the good reservoir quality and hydrocarbon potentiality of the Khatatba Formation, Qasr Field in the Shoushan Basin of the North Western Desert, Egypt by combining results from log-based petrophysical analysis, petrographic description and images from scanning electron microscope (SEM). Promising reservoir units are initially identified and evaluated through well log analysis of three wells in the field of study. Petrophysical results are then compared with petrographic and SEM images from rock samples to identify features that characterize the reservoir quality. Well log results show that Khatatba Formation in the study area has good sandstone reservoir intervals from depths ranging from 12848 ft to 13900 ft, with good effective porosity records of 13-15% and hydrocarbon saturations of greater than 83%. Petrographic analysis of these sandstone reservoir units indicate high concentrations of vacant pore spaces with good permeability that can be easily occupied by hydrocarbon. The availability of these pore spaces are attributed to pore-enhancing diagenetic features, mainly in the form of good primary porosity and dissolution. SEM images and EDX analysis confirmed the presence of hydrocarbon, therefore indicating a good hydrocarbon-storing potential for the Khatatba Formation sandstones.

MapReduce 분산 데이터처리 플랫폼에 기반한 모바일 디바이스 UX 분석 (UX Analysis for Mobile Devices Using MapReduce on Distributed Data Processing Platform)

  • 김성숙;김성규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권9호
    • /
    • pp.589-594
    • /
    • 2013
  • 웹의 특징인 개방과 공유의 사고방식이 더욱 일반화 되면서 개발자 뿐 만 아니라 사용자가 직접 발생시키는 데이터도 복합적으로 늘어나고 있는 실정이다. 이러한 상황에서 모바일 디바이스 User eXperience(UX) 분석에서 다른 무엇보다도 디바이스에 기록되는 대용량의 로그 기록에서 필요한 데이터들을 자동으로 요약 정리해 주는 기법이 필요하다. 이에, 본 논문에서는 분석하고자 하는 모바일 디바이스 특성에 맞게 사전에 로그 데이터 속성에 대한 정의를 먼저하고, 직접 이를 반영한 사용자의 로그를 수집하여 저장하였다. 또한, 발생되는 대용량의 로그 기록에 기초한 UX를 분석하고자 다양한 로그 데이터 타입을 설정 및 처리할 수 있는 Hadoop(하둡)에서 제공하는 MapReduce 기법을 활용하여 데이터를 분산 처리하였다. 이를 통해, Map과 Reduce의 다양한 조합으로 대용량의 모바일 디바이스에서 발생되는 로그 데이터 셋에서 복잡한 스키마를 단순화시켜 분산 데이터 처리 환경에 맞게 UX 분석 방안을 제시하였다.

시스템 보안 강화를 위한 로그 분석 도구 ILVA와 실제 적용 사례 (ILVA: Integrated audit-log analysis tool and its application.)

  • 차성덕
    • 정보보호학회논문지
    • /
    • 제9권3호
    • /
    • pp.13-26
    • /
    • 1999
  • 인터넷의 급속한 발전과 함께 정보 시스템의 보안 위협인 침입 사고도 급증하고 있다. 보다 강 화된 보안 메커니즘이 요구되고 있다. 시스템 로그 분석은 이런 침입 사실을 탐지하고 침입 자를 추적하 기 위해 필수적인 과정이나 로그 자료의 종류와 형태의 다양함으로 인해 자동화된 로그 수 집 및 분석이 현실적으로 어려운 상태이다. 우리는 침입 추적에 필요한 로그 자료의 형태를 정의하고 방 대한 로그 자 료로부터 효율적으로 로그수집, 분석할수 있는 도구를 설계 및 구현하였다. 이 논문에서는 개발된 도구 를 사용하여 실제 침입 추적을 한 경험을 소개하고 도구의 향후 개선 방향을 제시한다 Widespread use of Internet despite numerous positive aspects resulted in increased number of system intrusions and the need for enhanced security mechanisms is urgent. Systematic collection and analysis of log data are essential in intrusion investigation. Unfortunately existing logs are stored in diverse and incompatible format thus making an automated intrusion investigation practically impossible. We examined the types of log data essential in intrusion investigation and implemented a tool to enable systematic collection and efficient analysis of voluminous log data. Our tool based on RBDMS and SQL provides graphical and user-friendly interface. We describe our experience of using the tool in actual intrusion investigation and explain how our tool can be further enhanced.

CMC 고정화 Photobacterium phosphoreum 의 생체발광량을 이용한 독성농도(EC50)의 QSAR 모델 (QSAR Modeling of Toxicant Concentrations(EC50) on the Use of Bioluminescence Intensity of CMC Immobilized Photobacterium Phosphoreum)

  • 이용제;허문석;이우창;전억한
    • KSBB Journal
    • /
    • 제15권3호
    • /
    • pp.299-306
    • /
    • 2000
  • 발광미생물 (luminescent bacteria)인 P. phosphoreum을 이용한 수계의 환경독성물질로 지정된 ethane, benzene, phenol류에 chlorine이 치환된 l47~의 독성강도를 생체발광의 50%저하시키 는 독성농도인 ECso값을 통한 생물학적 정량을 하였을 때 phenol) benzene) ethane 의 순서로 독성깅도가 높게 산출되 어졌으며, 특히 지환된 chlo괴ne의 수가 증가할수록 독성강도가 강하다는 것을 알 수 있었다. 또한 산출된 ECso값을 이용허여 독성물질들의 물려화학적 parameter특성인 octan이(water 분할계 수 (log P), 용해도 (log S) 및 solvatochromic parameter의 떤관쟁 을 QSAR 모탤링하였으며 실힘을 통하지 않고, 독성의 독성강도 를 예측할 수 있는 회기식을 다음과 같이 산출하였다. $log EC_{50} =2.48 + 0.914 log S(n=9 R2=85.5% RE=0.378) log EC_{50}=0.35 - 4.48 Vi/100 + 2.84 \pi^* +9.46{\beta}m-4.48am (n =14 R2=98.2% RE=0.012) log EC_{50} =2.64 -1.66 log P(n=5, R2=98.8% RE=0.16) log EC_{50}=3.44 -1.09 log P(n=9 R2= 80.8% Re=0.207)$. QSAR 모델은 QSAR 검증식을 통하여 확인된 다중회기식을 이용함으로 실험하지 않은 독성물 질이 갖는 물리화학적인 특성을 대입하여 log Eeso값을 예측할 수 있으므로 경제적, 시간적으로 이익을 얻을 수 있는 모델이다.

  • PDF