• 제목/요약/키워드: Kafka

검색결과 34건 처리시간 0.026초

Apache Kafka에서 효율적인 과부하 측정을 위한 모니터링 도구 (Monitoring Tools for Efficient Overload Measurements in Apache Kafka)

  • 방지원;손시운;문양세;최미정
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.52-54
    • /
    • 2017
  • 실시간으로 빠르게 발생하는 대용량 데이터를 다루기 위해 Apache Storm, Apache Spark 등 실시간 데이터 스트림 처리 기술에 대한 연구가 활발하다. 대부분의 실시간 처리 기술들은 단독으로 사용하기에 어려움이 있으며, 데이터 스트림의 입출력을 위해 메시징 시스템과 함께 사용하는 것이 일반적이다. Apache Kafka는 대표적인 분산 메시징 시스템으로써, 실시간으로 발생하는 대용량의 로그 데이터를 전달하는데 특화된 시스템이다. 현재 Kafka를 위한 다양한 성능 모니터링 도구들이 존재한다. 이러한 모니터링 도구들은 Kafka에서 처리되는 데이터의 양 이외에도 유입 데이터의 크기, 수집 속도, 처리 속도 등 다양한 데이터들을 관찰할 수 있다. 본 논문은 Kafka에서 제공하는 도구와 오픈 소스로 제공되는 여러 개의 도구들을 비교하여, 향후 Kafka의 로드 쉐딩에 대한 연구에 적용할 수 있는 최적의 모니터링 도구를 선별하고자 한다.

교육 동영상 공유 서비스의 카프카 기반 데이터 공유 방안 (A Kafka-based Data Sharing Method for Educational Video Services)

  • 이현섭;김진덕
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.574-576
    • /
    • 2021
  • 대규모 운영시스템이나 확장성을 고려한 시스템을 구성할 때 마이크로서비스 기법을 도입하는 것이 필요하다. 카프카는 pub/sub 모델을 가지는 메시지 큐로서 분산환경에 잘 적용되는 특징을 가지며, 다양한 데이터 소스를 활용할 수 있다는 점에서 마이크로서비스에 적합하다. 이 논문에서는 아파치의 카프카를 이용한 교육동영상 공유 서비스의 데이터 공유 방안을 제안하고자 한다. 제안하는 시스템은 교육 동영상 공유서비스이 다양한 데이터를 공유하기 위해 카프카 클러스터를 구축하며, 아울러 교육동영상의 유사도를 기반으로 하는 추천 시스템과 연계하기 위해 스파크 클러스터를 이용한다. 그리고 파일, RDBMS의 DB등과 같은 다양한 데이터 소스를 공유하는 방안을 제시한다.

  • PDF

Suricata와 Elastic Stack, Kafka를 이용한 공격 패킷 분석 및 보안관제 시스템 구축 (Establish a security control system through attack packet analysis with Suricata, Elastic Stack, and Kafka)

  • 이다은;이혜린;조민규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.1144-1147
    • /
    • 2021
  • 코로나19 대유행으로 인해 전 세계가 원격으로 일상을 옮겨가면서 인터넷 트래픽량이 증가하고 보안 위협 또한 높아졌다. 높은 보안성이 요구되는 현 상황에 대응하기 위해 본 논문에서는 Suricata와 Elastic Stack, Kafka를 이용해 보안관제 로그 분석시스템을 구축하였다. 실시간으로 공격을 탐지하고 로그를 수집해 유의미한 데이터를 도출하여 시각화한다. 또한 시각화 한 대시보드를 제공함으로써 사용자는 공격의 위험도를 파악할 수 있고 앞으로의 공격을 대비할 수 있다.

Odd Fellows: Hannah Arendt and Philip Roth

  • Nadel, Ira
    • 영어영문학
    • /
    • 제64권2호
    • /
    • pp.151-170
    • /
    • 2018
  • This paper examines the relationship and ideas of Hannah Arendt and Philip Roth including how they met, their correspondence and intellectual parallels, particularly in their shared criticism of Jewish ideals and culture in Europe and North America. It analyzes similarities in their careers and texts, especially between Eichmann in Jerusalem and Operation Shylock, as well as The Ghost Writer, while measuring their reception as social commentators and writers. Kafka was an important figure for both writers, Arendt's earliest writing engaged with the significance of Kafka in understanding and criticizing twentieth century political and cultural values in Europe. For Roth, Kafka offered a similar critique of moral principles he found corroded in North American Jewish life. Arendt connected with other writers, notably Isak Dinesen, W. H. Auden, Randall Jarrell and William Styron who further linked the two: he knew both Arendt and Roth and cited, incorrectly, a work by Arendt as the source for the key incident in his 1979 novel Sophie's Choice. He claimed it was Eichmann in Jerusalem; it was Arendt's The Origins of Totalitarianism. Arendt's reaction to Roth's fiction, however, remains a mystery: she died in 1975, before Roth began to seriously and consistently engage with Holocaust issues in works like The Ghost Writer (1979) and Operation Shylock (1993). Yet even in death they are joined. Their graves are only steps apart at the Bard College Cemetery in Annandale-on-Hudson, New York.

SaaS application mashup based on High Speed Message Processing

  • Chen, Zhiguo;Kim, Myoungjin;Cui, Yun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권5호
    • /
    • pp.1446-1465
    • /
    • 2022
  • Diversified SaaS applications allow users more choices to use, according to their own preferences. However, the diversification of SaaS applications also makes it impossible for users to choose the best one. Furthermore, users can't take advantage of the functionality between SaaS applications. In this paper, we propose a platform that provides an SaaS mashup service, by extracting interoperable service functions from SaaS-based applications that independent vendors deploy and supporting a customized service recommendation function through log data binding in the cloud environment. The proposed SaaS mashup service platform consists of a SaaS aggregation framework and a log data binding framework. Each framework was concreted by using Apache Kafka and rule matrix-based recommendation techniques. We present the theoretical basis of implementing the high-performance message-processing function using Kafka. The SaaS mashup service platform, which provides a new type of mashup service by linking SaaS functions based on the above technology described, allows users to combine the required service functions freely and access the results of a rich service-utilization experience, using the SaaS mashup function. The platform developed through SaaS mashup service technology research will enable various flexible SaaS services, expected to contribute to the development of the smart-contents industry and the open market.

고속 동기화를 위한 디지털트윈 개념 모델 설계 (Designing Digital Twin Concept Model for High-Speed Synchronization)

  • 임채영;여채은;성호진
    • 문화기술의 융합
    • /
    • 제9권6호
    • /
    • pp.245-250
    • /
    • 2023
  • 현실공간의 정보를 가상의 공간으로 모사하는 디지털 트윈 기술은 다양한 분야에서 채택되고 있다. 디지털 트윈에 대한 관심은 Industry 4.0 기반의 스마트제조와 같은 첨단 제조 분야를 중심으로 관심이 커지고 있다. 그리고 디지털 트윈의 시스템을 운영하면 수많은 데이터가 발생하며 기술의 분야에 따라 발생하는 데이터는 특성이 다르기때문에 효율적으로 자원을 관리하고, 최적화된 디지털 트윈 플랫폼 기술이 필요하다. 첨단 제조 분야를 중심으로 디지털 트윈의 파이프라인에 대한 연구가 지속적으로 진행되어 왔으나 플랜트 분야의 데이터에 적합한 고속의 파이프라인 연구는 아직 부족하다. 그렇기에 본 논문에서는 Apache Kafka를 통해 고속으로 쏟아지는 플랜트분야의 디지털 트윈 데이터에 특화된 파이프라인 설계 방식을 제안한다. 제안된 모델은 플랜트의 정보를 revit 기반으로 적용하고, 플랜트에 특화된 데이터를 Apache Kafka 통해 수집하며, 경량화된 CFD엔진을 탑재하여 기존의 제조 분야의 디지털 트윈 기술보다 플랜트분야에 적합한 디지털 트윈의 모델을 구현할 수 있다.

Distributed Moving Objects Management System for a Smart Black Box

  • Lee, Hyunbyung;Song, Seokil
    • International Journal of Contents
    • /
    • 제14권1호
    • /
    • pp.28-33
    • /
    • 2018
  • In this paper, we design and implement a distributed, moving objects management system for processing locations and sensor data from smart black boxes. The proposed system is designed and implemented based on Apache Kafka, Apache Spark & Spark Streaming, Hbase, HDFS. Apache Kafka is used to collect the data from smart black boxes and queries from users. Received location data from smart black boxes and queries from users becomes input of Apache Spark Streaming. Apache Spark Streaming preprocesses the input data for indexing. Recent location data and indexes are stored in-memory managed by Apache Spark. Old data and indexes are flushed into HBase later. We perform experiments to show the throughput of the index manager. Finally, we describe the implementation detail in Scala function level.

Scalable Big Data Pipeline for Video Stream Analytics Over Commodity Hardware

  • Ayub, Umer;Ahsan, Syed M.;Qureshi, Shavez M.
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권4호
    • /
    • pp.1146-1165
    • /
    • 2022
  • A huge amount of data in the form of videos and images is being produced owning to advancements in sensor technology. Use of low performance commodity hardware coupled with resource heavy image processing and analyzing approaches to infer and extract actionable insights from this data poses a bottleneck for timely decision making. Current approach of GPU assisted and cloud-based architecture video analysis techniques give significant performance gain, but its usage is constrained by financial considerations and extremely complex architecture level details. In this paper we propose a data pipeline system that uses open-source tools such as Apache Spark, Kafka and OpenCV running over commodity hardware for video stream processing and image processing in a distributed environment. Experimental results show that our proposed approach eliminates the need of GPU based hardware and cloud computing infrastructure to achieve efficient video steam processing for face detection with increased throughput, scalability and better performance.

SSD Storage Tester에서 메시징 시스템을 이용한 로그 처리 (Log processing using messaging system in SSD Storage Tester)

  • 남기안;권오영
    • 한국정보통신학회논문지
    • /
    • 제21권8호
    • /
    • pp.1531-1539
    • /
    • 2017
  • 기존의 SSD 스토리지 테스터는 TCP와 네트워크 파일 시스템을 이용하여 서버 - 클라이언트 간 1-N 구조로 로그를 처리하였다. 이러한 방식은 CPU 사용량 증가, 예외처리의 어려움 등의 문제가 발생한다. 이에 본 논문은 Kafka나 RabbitMQ 같은 오픈 소스 메시징 시스템을 이용하여 비동기 분산처리가 가능한 로그 처리 메시지 레이어를 구현하고 기존 로그 전송방식과 비교하였다. 로그 시뮬레이터(Simulator) 를 구현하여 전송 대역폭과 CPU 사용량을 비교하였다. 테스트 결과 기존 전송 방법과 비교하여 메시지 레이어를 이용한 전송이 대역폭에서 높은 성능을 보였으며 CPU 사용량의 경우 큰 차이를 보이지 않았다. 메시지 레이어를 이용할 경우 기존 방식보다 더 쉽게 구현 가능하며 성능 면에서도 더 높은 효율을 보였으므로 기존 방식보다 높은 효율을 보일 것으로 기대된다.

SmartX-mini Playground 상의 IoT-Cloud 서비스에 대한 SDN 기반 모니터링 데이터 수집 경로 설정 (SDN-Based Collection-path Steering for IoT-Cloud Service Monitoring Data over SmartX-mini Playground)

  • 윤희범;김승룡;김종원
    • 한국통신학회논문지
    • /
    • 제41권11호
    • /
    • pp.1598-1607
    • /
    • 2016
  • 부상하는 IoT-Cloud 서비스들을 효율적으로 지원하기 위해서는 IoT-Cloud 간의 안정적이고 지속적인 데이터 전송이 필수적이다. 본 논문에서는 초융합형 SmartX Box에 기반한 SmartX-mini Playground 상에서 IoT-Cloud 서비스를 위한 다양한 모니터링 데이터를 보다 안정되게 수집/전송함에 있어서 오픈소스 메시징 시스템인 Kafka를 활용하고 ONOS(Open Network Operation System) SDN 제어기에 기반한 SDN 응용을 적용함으로써 실제적인 IoT-SDN-Cloud 환경에서의 안정적인 IoT-Cloud 서비스에 대응하는 모니터링 데이터 전송을 위한 유연한 수집 경로 설정이 가능함을 확인한다.