• Title/Summary/Keyword: 로그 처리기

Search Result 66, Processing Time 0.031 seconds

디지틀 이동통신의 최근 부품 개발 동향

  • 한경호
    • 전기의세계
    • /
    • v.43 no.1
    • /
    • pp.20-22
    • /
    • 1994
  • 이동통신은 그 방식이 아날로그든 디지틀이든 같은 기능의 음성신호를 송신하고 수신하는 것이다. 아나로그형은 크게 RF 수신부, RF 송신부, 신호처리부 제어부 그리고 전원부로 나누어 진다. 통화시 송,수신이 동시에 이루어지므로 송신신호와 수신신호가 서로 간섭하지 않도록 정교환 신호 여과기가 필요하다. Philips사의 경우 몇개의 칩으로 RF/IF 변환, 아나로그 신호처리 그리고 신호제어를 할 수 있도록 설계하였고 몇몇 선두회사들은 하나의 아나로그 처리기로 baseband 아나로그 신호를 처리 할 수 있도록 설계하였다. RF 부분은 아직 별도의 PCB에 제작되는데 이유는 IF 부분의 송.수신부가 공간을 많이 차지하며, RF 부분에는 가격을 내리기 위해 개별 소자들이 많이 쓰이기 때문이다.

  • PDF

A Study on the Logging System Design Suggestion Using Machine Learning (머신러닝을 사용한 로그수집 시스템 설계 제안에 관한 연구)

  • Seo, Deck-Won;Yooun, Ho-sang;Shin, Dong-Il;Shin, Dong-Kyoo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.299-301
    • /
    • 2017
  • 현대사회에서는 사이버 해킹 공격이 많이 일어나고 있다. 공격이 증가함에 따라 이를 다양한 방법으로 방어하고 탐지하는 연구가 많이 이루어지고 있다. 본 논문은 OpenIOC, STIX, MMDEF 등과 같은 공격자의 방법론 또는 증거를 식별하는 기술 특성 설명을 수집해 놓은 표현들을 기반을 머신러닝과 logstash라는 로그 수집기를 결합하는 새로운 시스템을 제안한다. 시스템은 pc에 공격이 가해졌을 때 로그 수집기를 사용하여 로그를 수집한 후에 로그의 속성 값들의 리스트를 가지고 머신러닝 알고리즘을 통해 학습시켜 분석을 진행한다. 향후에는 제안된 시스템을 실시간 처리 머신러닝 알고리즘을 사용하여 필요로그정보의 구성을 해주면 자동으로 로그정보를 수집하고 필터와 출력을 거쳐 학습을 시켜 자동 침입탐지시스템으로 발전할 수 있을 것이라 예상된다.

Study of Drone HIL Simulation Technique Extension Using Log of External Sensor (외부 센서의 로그를 활용한 드론 HIL 시뮬레이션 기법 확장 연구)

  • Kim, Deok Yeop;Seo, Kang Bok;Lee, Gwoncheol;Lee, Woo-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.342-345
    • /
    • 2019
  • 드론의 동작 검증을 위한 테스트는 최종적으로 드론이 운용될 환경에서 이루어진다. 그러나 테스트 비용이 크고 테스트 비행 중 파손의 위험이 있기 때문에 시뮬레이션을 통한 사전 검증을 수행하는 것이 중요하다. 시뮬레이션은 SIL 방식이나 HIL 방식으로 이루어지는데 추가적인 외부 센서를 활용하는 경우 검증하기가 어렵다. SIL에서는 검증을 위해 가상의 외부 센서 구현이 필요하다. HIL 에서는 실제 센서를 사용하므로 가상의 외부 센서 구현은 필요 없다. 그러나 테스트 환경이기 때문에 실제 환경과 비슷한 데이터나 동작 검증에 적합한 데이터를 얻기 어렵다. 이러한 HIL에서의 문제를 해결하기 위해 외부 센서를 실제 환경에서 사용한 로그나 테스트 환경에서 센서 검증에 사용한 로그를 이용할 수 있다. 본 논문에서 제안하는 외부 센서의 로그를 활용한 HIL 시뮬레이션 기법 확장 내용은 외부 센서 데이터 입력기가 로그로부터 얻은 센서 데이터를 비행 컨트롤러로 보내 검증을 수행하기 때문에 데이터를 재사용할 수 있고 테스트 비용을 줄일 수 있다. 또 외부 센서 데이터 입력기는 로그 파서, 뷰어, 슬라이서, 데이터 전송기로 구성되어 로그로부터 검증에 적합한 데이터를 쉽게 얻어 활용할 수 있다.

Design and Implementation of Web Analyzing System based on User Create Log (사용자 생성 로그를 이용한 웹 분석시스템 설계 및 구현)

  • Go, Young-Dae;Lee, Eun-Bae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.264-267
    • /
    • 2007
  • 인터넷 사이트가 증가하면서 서비스 제공자는 사용자의 요구나 행동패턴을 파악하기 위하여 웹 마이닝 기법을 활용한다. 하지만 서버에 저장된 웹 로그 정보를 활용한 마이닝 기법은 전처리 과정에 많은 노력이 필요하고 사용자의 행동패턴이나 요구를 정확하게 파악하는데 한계가 있다. 이를 극복하기 위해 본 논문에서는 사용자 생성 로그정보를 이용한 방법을 제안한다. 제안 방법은 기존 서버에 저장되는 로그파일이 아닌 사용자의 행동에 의해 웹 페이지가 로딩될 때 마다 웹 마이닝에 필요한 정보를 수집하여 DB 에 저장하는 방법을 사용하였다. 이때 기존 로그파일에 로딩시간과 조회시간, 파라메타 정보를 추가하여 보다 사실적으로 사용자의 행동패턴을 파악하고자 하였다. 이렇게 생성된 로그파일을 기 등록된 메뉴정보, 쿼리정보와 조합하면 웹 마이닝에 필수적인 데이터정제, 사용자식별, 세션식별, 트랜잭션 식별등 전처리 과정의 효율성을 향상시키고 사용자의 행동패턴파악을 위한 정보 수집을 용이하게 해준다.

NFV Log Analysis using Machine Learning (머신러닝을 활용한 NFV 시스템 로그 분석)

  • Oh, SeongKeun;Yu, HeonChang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.118-120
    • /
    • 2017
  • 모바일 이동통신망의 Core 노드들은 2G CDMA, 3G WCDMA, 4G LTE 교환기를 비롯하여 IMS 및 다양한 부가장비들로 이루어져 있다. 최근 5G로 진화하는 과정에는 NFV(Network Function Virtualization)가 그 중심에 서 있다. NFV 환경에서는 기존 통신 노드와 다르게 범용서버 및 범용 운영체제가 주축이 되어, 일반 IT 툴로도 통신망 내부 노드의 로그분석이 용이해 졌다. 또한 다양하고 복잡한 Core 네트워크에서 빅데이터로 발생하는 로그 또한 머신러닝으로 분석이 가능하며, 운용에 활용할 수 있다. 따라서 본 연구에서는 vDPI, vMMSGW OS 로그를 대상으로 분석하였으며, 잠재되어 있는 문제점들을 확인할 수 있었다. 또한 어플리케이션의 비정형화 된 로그에서도 비정상적인 패턴들을 발견하여 대용량 트래픽이 발생하며 SLA가 유난히 높은 통신환경에서도 비지도 머신러닝 분석이 유용함을 확인하였다.

A Security Log Analysis System using Logstash based on Apache Elasticsearch (아파치 엘라스틱서치 기반 로그스태시를 이용한 보안로그 분석시스템)

  • Lee, Bong-Hwan;Yang, Dong-Min
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.22 no.2
    • /
    • pp.382-389
    • /
    • 2018
  • Recently cyber attacks can cause serious damage on various information systems. Log data analysis would be able to resolve this problem. Security log analysis system allows to cope with security risk properly by collecting, storing, and analyzing log data information. In this paper, a security log analysis system is designed and implemented in order to analyze security log data using the Logstash in the Elasticsearch, a distributed search engine which enables to collect and process various types of log data. The Kibana, an open source data visualization plugin for Elasticsearch, is used to generate log statistics and search report, and visualize the results. The performance of Elasticsearch-based security log analysis system is compared to the existing log analysis system which uses the Flume log collector, Flume HDFS sink and HBase. The experimental results show that the proposed system tremendously reduces both database query processing time and log data analysis time compared to the existing Hadoop-based log analysis system.

Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment (클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현)

  • Kim, Myoungjin;Han, Seungho;Cui, Yun;Lee, Hanku
    • Journal of Internet Computing and Services
    • /
    • v.14 no.6
    • /
    • pp.71-84
    • /
    • 2013
  • Log data, which record the multitude of information created when operating computer systems, are utilized in many processes, from carrying out computer system inspection and process optimization to providing customized user optimization. In this paper, we propose a MongoDB-based unstructured log processing system in a cloud environment for processing the massive amount of log data of banks. Most of the log data generated during banking operations come from handling a client's business. Therefore, in order to gather, store, categorize, and analyze the log data generated while processing the client's business, a separate log data processing system needs to be established. However, the realization of flexible storage expansion functions for processing a massive amount of unstructured log data and executing a considerable number of functions to categorize and analyze the stored unstructured log data is difficult in existing computer environments. Thus, in this study, we use cloud computing technology to realize a cloud-based log data processing system for processing unstructured log data that are difficult to process using the existing computing infrastructure's analysis tools and management system. The proposed system uses the IaaS (Infrastructure as a Service) cloud environment to provide a flexible expansion of computing resources and includes the ability to flexibly expand resources such as storage space and memory under conditions such as extended storage or rapid increase in log data. Moreover, to overcome the processing limits of the existing analysis tool when a real-time analysis of the aggregated unstructured log data is required, the proposed system includes a Hadoop-based analysis module for quick and reliable parallel-distributed processing of the massive amount of log data. Furthermore, because the HDFS (Hadoop Distributed File System) stores data by generating copies of the block units of the aggregated log data, the proposed system offers automatic restore functions for the system to continually operate after it recovers from a malfunction. Finally, by establishing a distributed database using the NoSQL-based Mongo DB, the proposed system provides methods of effectively processing unstructured log data. Relational databases such as the MySQL databases have complex schemas that are inappropriate for processing unstructured log data. Further, strict schemas like those of relational databases cannot expand nodes in the case wherein the stored data are distributed to various nodes when the amount of data rapidly increases. NoSQL does not provide the complex computations that relational databases may provide but can easily expand the database through node dispersion when the amount of data increases rapidly; it is a non-relational database with an appropriate structure for processing unstructured data. The data models of the NoSQL are usually classified as Key-Value, column-oriented, and document-oriented types. Of these, the representative document-oriented data model, MongoDB, which has a free schema structure, is used in the proposed system. MongoDB is introduced to the proposed system because it makes it easy to process unstructured log data through a flexible schema structure, facilitates flexible node expansion when the amount of data is rapidly increasing, and provides an Auto-Sharding function that automatically expands storage. The proposed system is composed of a log collector module, a log graph generator module, a MongoDB module, a Hadoop-based analysis module, and a MySQL module. When the log data generated over the entire client business process of each bank are sent to the cloud server, the log collector module collects and classifies data according to the type of log data and distributes it to the MongoDB module and the MySQL module. The log graph generator module generates the results of the log analysis of the MongoDB module, Hadoop-based analysis module, and the MySQL module per analysis time and type of the aggregated log data, and provides them to the user through a web interface. Log data that require a real-time log data analysis are stored in the MySQL module and provided real-time by the log graph generator module. The aggregated log data per unit time are stored in the MongoDB module and plotted in a graph according to the user's various analysis conditions. The aggregated log data in the MongoDB module are parallel-distributed and processed by the Hadoop-based analysis module. A comparative evaluation is carried out against a log data processing system that uses only MySQL for inserting log data and estimating query performance; this evaluation proves the proposed system's superiority. Moreover, an optimal chunk size is confirmed through the log data insert performance evaluation of MongoDB for various chunk sizes.

통신용 반도체 기술개발추세

  • Cha, Jin-Jong
    • ETRI Journal
    • /
    • v.8 no.4
    • /
    • pp.4-17
    • /
    • 1986
  • 통신용 반도체 기술의 특징으로는 소량 다품종, 초고속화, 애널로그 회로의 집적화, 광집적회로화 등을 들 수 있다. 통신 시스팀의 실현에는 소형화, 저소비 전력화, 초고속화 등의 이유로 LSI 또는 VLSI의 적용이 대전제로 되고 있다. 본고에서는 현재 사용되고 있는 신호 처리, 신호 전송, 전달 처리, 정보 처리용의 주요 LSI에 대하여 살펴보는 한편, 통신용 반도체의 요구 조건을 만족시키기 위한 반도체 기술 중에서 설계 기술과 공정 기술에 대한 최근의 기술 동향을 살펴보고자 한다. 즉, LSI산업의 변환기를 가져오고 있는 직접회로 설계 기술인 ASIC과 함께, 집적도의 향상에 따라 애널로그기능과 디지틀기능을 하나의 칩에 형성시킬 수 있는 BiCMOS 공정기술에 대한 기술 동향을 살펴본다.

  • PDF

애널로그 및 디지탈계측의 기초개념과 응용(I)

  • 고명삼
    • Journal of the KSME
    • /
    • v.25 no.2
    • /
    • pp.130-136
    • /
    • 1985
  • 확정적 계측신호에 극한시키며 현장 혹은 연구실에 종사하고 있는 기계기술자에게 필요로 하는 애널로그계측과 디지틀계측의 특성과 계측시스템의 구성, 연산증폭기(Op. Amp)의 원리 및 응용, 측정신호의 선형화, 마이크로 프로세서의 원리 A/D, D/A 변환기의 원리 및 응용, 자료처리시 스템, 센서의 원리 및 응용, 디지틀계측시스템의 최근동향등 메카트로닉스시대에서 요청되는 계 측공학의 주요과제에 대하여 기술한다.

  • PDF

Relative Navigation for Autonomous Aerial Refueling Using Infra-red based Vision Systems (자동 공중급유를 위한 적외선 영상기반 상대 항법)

  • Yoon, Hyungchul;Yang, Youyoung;Leeghim, Henzeh
    • Journal of the Korean Society for Aeronautical & Space Sciences
    • /
    • v.46 no.7
    • /
    • pp.557-566
    • /
    • 2018
  • In this paper, a vision-based relative navigation system is addressed for autonomous aerial refueling. In the air-to-air refueling, it is assumed that the tanker has the drogue, and the receiver has the probe. To obtain the relative information from the drogue, a vision-based imaging technology by infra-red camera is applied. In this process, the relative information is obtained by using Gaussian Least Squares Differential Correction (GLSDC), and Levenberg-Marquadt(LM), where the drouge geometric information calculated through image processing is used. These two approaches proposed in this paper are analyzed through numerical simulations.