• Title/Summary/Keyword: 분산 수집 모델

Search Result 121, Processing Time 0.029 seconds

User Verification System using QRcode in Mobile Telemedicine Cloud Environment (모바일 원격의료 클라우드 환경에서 QRcode를 이용한 사용자 검증 시스템 연구)

  • Kim, Young-Hyuk;Lim, Il-Kwon;Lee, Jun-Woo;Li, QiGui;Lee, Jae-Kwang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.858-861
    • /
    • 2011
  • Smart Society로 나아가는 핵심으로 손꼽히는 모바일의 급속한 확산은 교육, 교통, 경제뿐만 아니라 건강에도 큰 영향을 미치고 있다. 그동안 발전이 미진했던 u-Health 기술 및 시장 역시 모바일로 인해 새로운 서비스 모델을 제시함으로써 발전하고 있다. 본 논문은 제안하는 시스템은 u-Health 서비스 중 sensor를 이용하여 원격지 환자의 생체정보를 수집하고, 실시간으로 병원의 클라우드 서버에 전송하는 시스템에서 사용자 검증에 대하여 연구하였다. 여기서 사용자란 클라우드 서버에 접속하는 의사를 말하며, 환자의 생체정보를 보기 위하여 시스템 접속함에 있어 공인인증서나 기타 인증 시스템과 비교해 간편하고, 네트워크 트래픽이 적은 사용자 검증 시스템을 목표로 한다. 그리하여 QRcode를 3개 생성하고, 각 클라우드 서버에 분산 분배 후 서로 섞음으로써 기존의 QRcode와 전혀 다른 인증용 QRcode를 생성할 수 있었다. 이것을 3차원 인덱스를 통해 원본 사용자 QRcode와 대조함으로 사용자 검증 과정을 수행시킴으로써 절차를 간소화하고 네트워크 트래픽을 약 15% 감소시킬 수 있었다.

Cross-document Relation Extraction using Bridging Context Identification (중간 문맥 식별 및 검색을 활용한 문서간 관계 추출)

  • Junyoung Son;Jinsung Kim;Jungwoo Lim;Yoonna Jang;Aram So;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.654-658
    • /
    • 2023
  • 관계 추출은 질의응답이나 대화 시스템의 기반이 되는 지식을 구추하기 위한 작업으로, 정보 추출의 기초가 되는 기술이기도 하다. 최근 실세계 지식의 희소한 형태를 구현한 문서간 관계 추출 데이터셋이 제안되어, 여러 문서를 통해 분산되어 언급된 두 개체 사이의 관계 추론을 수행 및 평가할 수 있게 되었다. 이 작업에서 추론의 대상이 되는 개체쌍은 한 문서 안에 동시에 언급되지 않기 때문에 여러 문서에 언급된 중간 개체를 통하여 직/간접적으로 추론해야 하나, 원시 텍스트에서 이러한 정보를 수집하는 작업은 쉽지 않다. 따라서, 본 연구에서는 개체의 동시발생빈도에 기반하여 중간 개체의 중요도를 정량화하고, 이 중요도에 기반화여 중요한 문맥을 식별하는 방법론을 제안한다. 제안하는 방법론은 기존의 두 문서로 구성된 추론 경로를 식별된 중간 개체를 활용하여 확장하여, 관계 추론 모델의 수정 없이 추가된 문맥만을 활용하여 문서간 관계 추출 시스템의 성능을 개선할 수 있었다.

  • PDF

Role-Based Access Control and Key Management Scheme in Mobile Agent Environments (이동 에이전트 환경에서 역할 기반 접근 제어와 키 관리 기법)

  • Dongwoo Kim;Changhwan Song;Young Ik Eom
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.1513-1516
    • /
    • 2008
  • 이동 에이전트는 기존의 클라이언트-서버 환경을 대체하는 분산 컴퓨팅 패러다임이다. 특히 이동 에이전트는 목표를 달성할 때까지 스스로 인터넷 환경을 떠돌며 정보를 수집하고 분석할 수 있도록 설계할 수 있다. 하지만 이동 에이전트가 문제없이 활동하기에 인터넷은 개방적인 환경이며, 많은 경우에 있어 이동 에이전트는 여러 적대적인 호스트들과 접할 수 있다. 이로 인해 이동 에이전트가 안전하게 인터넷상에서 이주 하도록 만드는 것이 큰 관건이 되고 있다. 최근 Volker와 Mehrdad가 이동 에이전트 환경에 있어서 효율적인 접근 제어와 키 관리 메커니즘을 제안하였다. 하지만 이 기법은 이동 에이전트의 이주 대상을 한정시키고, 이주 대상이 많아질수록 키를 관리하는 구조가 커지는 문제점이 있다. 본 논문에서는 이동 에이전트에 역할 모델을 적용함으로써 키 관리에 있어서 그 크기를 줄이고, 인증 센터를 사용하여 이동 에이전트의 이주 대상 호스트를 미리 한정짓지 않도록 하여 이동 에이전트가 자유롭게 이주할 수 있는 접근제어 기법을 제안한다. 본 기법을 이동 에이전트에 적용하면 에이전트의 크기를 줄이고, 이동할 수 있는 호스트의 제약을 줄일 수 있다.

Distributed Edge Computing for DNA-Based Intelligent Services and Applications: A Review (딥러닝을 사용하는 IoT빅데이터 인프라에 필요한 DNA 기술을 위한 분산 엣지 컴퓨팅기술 리뷰)

  • Alemayehu, Temesgen Seyoum;Cho, We-Duke
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.9 no.12
    • /
    • pp.291-306
    • /
    • 2020
  • Nowadays, Data-Network-AI (DNA)-based intelligent services and applications have become a reality to provide a new dimension of services that improve the quality of life and productivity of businesses. Artificial intelligence (AI) can enhance the value of IoT data (data collected by IoT devices). The internet of things (IoT) promotes the learning and intelligence capability of AI. To extract insights from massive volume IoT data in real-time using deep learning, processing capability needs to happen in the IoT end devices where data is generated. However, deep learning requires a significant number of computational resources that may not be available at the IoT end devices. Such problems have been addressed by transporting bulks of data from the IoT end devices to the cloud datacenters for processing. But transferring IoT big data to the cloud incurs prohibitively high transmission delay and privacy issues which are a major concern. Edge computing, where distributed computing nodes are placed close to the IoT end devices, is a viable solution to meet the high computation and low-latency requirements and to preserve the privacy of users. This paper provides a comprehensive review of the current state of leveraging deep learning within edge computing to unleash the potential of IoT big data generated from IoT end devices. We believe that the revision will have a contribution to the development of DNA-based intelligent services and applications. It describes the different distributed training and inference architectures of deep learning models across multiple nodes of the edge computing platform. It also provides the different privacy-preserving approaches of deep learning on the edge computing environment and the various application domains where deep learning on the network edge can be useful. Finally, it discusses open issues and challenges leveraging deep learning within edge computing.

A Study of Big data-based Machine Learning Techniques for Wheel and Bearing Fault Diagnosis (차륜 및 차축베어링 고장진단을 위한 빅데이터 기반 머신러닝 기법 연구)

  • Jung, Hoon;Park, Moonsung
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.1
    • /
    • pp.75-84
    • /
    • 2018
  • Increasing the operation rate of components and stabilizing the operation through timely management of the core parts are crucial for improving the efficiency of the railroad maintenance industry. The demand for diagnosis technology to assess the condition of rolling stock components, which employs history management and automated big data analysis, has increased to satisfy both aspects of increasing reliability and reducing the maintenance cost of the core components to cope with the trend of rapid maintenance. This study developed a big data platform-based system to manage the rolling stock component condition to acquire, process, and analyze the big data generated at onboard and wayside devices of railroad cars in real time. The system can monitor the conditions of the railroad car component and system resources in real time. The study also proposed a machine learning technique that enabled the distributed and parallel processing of the acquired big data and automatic component fault diagnosis. The test, which used the virtual instance generation system of the Amazon Web Service, proved that the algorithm applying the distributed and parallel technology decreased the runtime and confirmed the fault diagnosis model utilizing the random forest machine learning for predicting the condition of the bearing and wheel parts with 83% accuracy.

A Study on implementation model for security log analysis system using Big Data platform (빅데이터 플랫폼을 이용한 보안로그 분석 시스템 구현 모델 연구)

  • Han, Ki-Hyoung;Jeong, Hyung-Jong;Lee, Doog-Sik;Chae, Myung-Hui;Yoon, Cheol-Hee;Noh, Kyoo-Sung
    • Journal of Digital Convergence
    • /
    • v.12 no.8
    • /
    • pp.351-359
    • /
    • 2014
  • The log data generated by security equipment have been synthetically analyzed on the ESM(Enterprise Security Management) base so far, but due to its limitations of the capacity and processing performance, it is not suited for big data processing. Therefore the another way of technology on the big data platform is necessary. Big Data platform can achieve a large amount of data collection, storage, processing, retrieval, analysis, and visualization by using Hadoop Ecosystem. Currently ESM technology has developed in the way of SIEM (Security Information & Event Management) technology, and to implement security technology in SIEM way, Big Data platform technology is essential that can handle large log data which occurs in the current security devices. In this paper, we have a big data platform Hadoop Ecosystem technology for analyzing the security log for sure how to implement the system model is studied.

A Data Cleansing Strategy for Improving Data Quality of National R&D Information - Case Study of NTIS (데이터 품질을 고려한 국가R&D정보 데이터베이스의 통합 사례 연구 - NTIS 데이터베이스 통합 사례)

  • Shin, Sung-Ho;Yoon, Young-Jun;Yang, Myung-Suk;Kim, Jin-Man;Shon, Kang-Ryul
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.6
    • /
    • pp.119-130
    • /
    • 2011
  • On the point of data quality management, data quality is influenced by quality policy, quality organization, business process, and business rule. Business rules, guide of data manipulation, have effects on data quality directly. In case of building an integration database among distributed databases, defining business rule is more important because data integration needs to consider heterogeneous structure, code, and data standardization. Also data value has various figures depended on data type, unit, and transcription. Finally, database structure and data value problem have to be solved to improve data quality. For handling them, it is needed to draw database integration model and cleanse data in integrated database. NTIS(stands for National science and Technology Information Service) has an aim to serve users who need all information about national R&D by internet, and for that aim, it has a integrated database which has been made with several database sources. We prove that database integration model and data cleansing are needed to build a successful integrated database through NTIS case study.

Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment (클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현)

  • Kim, Myoungjin;Han, Seungho;Cui, Yun;Lee, Hanku
    • Journal of Internet Computing and Services
    • /
    • v.14 no.6
    • /
    • pp.71-84
    • /
    • 2013
  • Log data, which record the multitude of information created when operating computer systems, are utilized in many processes, from carrying out computer system inspection and process optimization to providing customized user optimization. In this paper, we propose a MongoDB-based unstructured log processing system in a cloud environment for processing the massive amount of log data of banks. Most of the log data generated during banking operations come from handling a client's business. Therefore, in order to gather, store, categorize, and analyze the log data generated while processing the client's business, a separate log data processing system needs to be established. However, the realization of flexible storage expansion functions for processing a massive amount of unstructured log data and executing a considerable number of functions to categorize and analyze the stored unstructured log data is difficult in existing computer environments. Thus, in this study, we use cloud computing technology to realize a cloud-based log data processing system for processing unstructured log data that are difficult to process using the existing computing infrastructure's analysis tools and management system. The proposed system uses the IaaS (Infrastructure as a Service) cloud environment to provide a flexible expansion of computing resources and includes the ability to flexibly expand resources such as storage space and memory under conditions such as extended storage or rapid increase in log data. Moreover, to overcome the processing limits of the existing analysis tool when a real-time analysis of the aggregated unstructured log data is required, the proposed system includes a Hadoop-based analysis module for quick and reliable parallel-distributed processing of the massive amount of log data. Furthermore, because the HDFS (Hadoop Distributed File System) stores data by generating copies of the block units of the aggregated log data, the proposed system offers automatic restore functions for the system to continually operate after it recovers from a malfunction. Finally, by establishing a distributed database using the NoSQL-based Mongo DB, the proposed system provides methods of effectively processing unstructured log data. Relational databases such as the MySQL databases have complex schemas that are inappropriate for processing unstructured log data. Further, strict schemas like those of relational databases cannot expand nodes in the case wherein the stored data are distributed to various nodes when the amount of data rapidly increases. NoSQL does not provide the complex computations that relational databases may provide but can easily expand the database through node dispersion when the amount of data increases rapidly; it is a non-relational database with an appropriate structure for processing unstructured data. The data models of the NoSQL are usually classified as Key-Value, column-oriented, and document-oriented types. Of these, the representative document-oriented data model, MongoDB, which has a free schema structure, is used in the proposed system. MongoDB is introduced to the proposed system because it makes it easy to process unstructured log data through a flexible schema structure, facilitates flexible node expansion when the amount of data is rapidly increasing, and provides an Auto-Sharding function that automatically expands storage. The proposed system is composed of a log collector module, a log graph generator module, a MongoDB module, a Hadoop-based analysis module, and a MySQL module. When the log data generated over the entire client business process of each bank are sent to the cloud server, the log collector module collects and classifies data according to the type of log data and distributes it to the MongoDB module and the MySQL module. The log graph generator module generates the results of the log analysis of the MongoDB module, Hadoop-based analysis module, and the MySQL module per analysis time and type of the aggregated log data, and provides them to the user through a web interface. Log data that require a real-time log data analysis are stored in the MySQL module and provided real-time by the log graph generator module. The aggregated log data per unit time are stored in the MongoDB module and plotted in a graph according to the user's various analysis conditions. The aggregated log data in the MongoDB module are parallel-distributed and processed by the Hadoop-based analysis module. A comparative evaluation is carried out against a log data processing system that uses only MySQL for inserting log data and estimating query performance; this evaluation proves the proposed system's superiority. Moreover, an optimal chunk size is confirmed through the log data insert performance evaluation of MongoDB for various chunk sizes.

Introduction to Soil-grondwater monitoring technology for CPS (Cyber Physical System) and DT (Digital Twin) connection (CPS 및 DT 연계를 위한 토양-지하수 관측기술 소개)

  • Byung-Woo Kim;Doo-Houng Choi
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.14-14
    • /
    • 2023
  • 산업발전에 따른 인구증가, 기후위기에 따른 가뭄 및 물 부족심화, 그리고 수질오염 등은 2015년 제79차 UN총회의 물 안보측면에서 국제사회의 물 분야 위기관리를 위해 2030년을 지속가능한 발전 목표(Sustainable Development Goals)로 하였다. 또한, 현재 물 산업은 빠르게 성장하고 있으며, 2016년 세계경제포럼(World Economic Forum) 의장 클라우스 슈밥(Klaus Schwab)부터 주창된 제4차 산업혁명로 인해 현재 물 산업의 패러다임 또한 급속히 변화하고 있다. 이는 컴퓨터를 기반으로 하는 CPS(Cyber Physical System) 및 DT(Digital Twin) 연계 분석방식의 혁신을 일컫는다. 2002년경에 DT의 기본개념이 제시되었고, 2006년경에는 Embedded System에서의 DT와 같은 개념으로 CPS의 용어가 등장했다. DT는 현실세계에 존재하는 사물, 시스템, 환경 등을 S/W시스템의 가상공간에 동일하게 모사(Virtualization) 및 모의(Simulation)할 수 있도록 하고, 모의결과를 가상시스템으로 현실세계를 최적화 체계 구현 기술을 말한다. DT의 6가지 기능은 ① 실제 데이터(Live Data), ② 모사, ③ 분석정보(Analytics), ④ 모의, ⑤ 예측(Predictions), ⑥ 자동화(Automation) 이다. 또한, CPS는 대규모 센서 및 액추에이터(Actuator)를 가지는 물리적 요소와 이를 실시간으로 제어하는 컴퓨팅 요소가 결합된 복합시스템을 말한다. CPS는 물리세계에서 발생하는 변화를 감지할 수 있는 다양한 센서를 통해 환경인지 기능을 수행한다. 센서로부터 수집된 정보와 물리세계를 재현 및 투영하는 고도화된 시스템 모델들을 기반으로 사이버 물리공간을 인지·분석·예측할 수 있다. CPS의 6가지 구성요소는 ① 상호 운용성(Interoperability), ② 가상화(Virtualization), ③ 분산화(Decentralization), ④ 실시간(Real-time Capability), ⑤ 서비스 오리엔테이션(Service Orientation), ⑥ 모듈화(Modularity)이다. DT와 CPS는 본질적으로 같은 목적, 내용, 그리고 결과를 만들어내고자 하는 같은 종류의 기술이라고 할 수 있다. CPS 및 DT는 물리세계에서 발생하는 변화를 감지할 수 있으며, 토양-지하수 센서를 포함한 관측기술을 통해 환경인지 기능을 수행한다. 지하수 관측기술로부터 수집된 정보와 물리세계를 재현 및 투영하는 고도화된 시스템 모델들을 기반으로 사이버 물리공간 및 디지털 트윈 공간을 인지·분석·예측할 수 있다. CPS 및 DT의 기본 요소들을 실현시키는 것은 양질의 데이터를 모니터링할 수 있는 정확하고 정밀한 1차원 연직 프로파일링 관측기술이며, 이를 토대로 한 수자원 관련 빅데이터의 증가, 빅데이터의 저장과 분석을 가능하게 하는 플랫폼의 개발이다. 본 연구는 CPS 및 DT 기반 토양수분-지하수 관측기술을 이용한 지표수-지하수 연계, 지하수 순환 및 관리, 정수 운영 및 진단프로그램 개발을 위한 토양수분-지하수 관측장치를 지하수 플랫폼 동시성과 디지털 트윈 시뮬레이터 시스템 개발 방향으로 제시하고자 한다.

  • PDF

Derivation of Stem Taper Equations and a Stem Volume Table for Quercus acuta in a Warm Temperate Region (난대지역 붉가시나무의 수간곡선식 도출 및 수간재적표 작성)

  • Suyoung Jung;Kwangsoo Lee;Hyunsoo Kim; Joonhyung Park;Jaeyeop Kim;Chunhee Park;Yeongmo Son
    • Journal of Korean Society of Forest Science
    • /
    • v.112 no.4
    • /
    • pp.417-425
    • /
    • 2023
  • The aim of this study was to derive stem taper equations for Quercus acuta, one of main evergreen broad-leaved tree species found in warm temperate regions, and to prepare a stem volume table using those stem taper equations. A total of 688 individual trees were used in the analysis, which were collected from Jeonnam-do, Gyeongnam-do, and Jeju-do. The stem taper models applied to derive the stem curve pattern were the Max and Burkhart, Kozak, and Lee models. Among the three stem taper models, the best explanation of the stem curve shape of Q. acuta was found to be given by the Kozak model, which showed a fitness index of 0.9583, bias of 0.0352, percentage of estimated standard error of 1.1439, and mean absolute deviation of 0.6751. Thus, the stem taper of Q. acuta was estimated using the Kozak model. Moreover,thestemvolumecalculationwasperforme d by applying the Smalian formula to the diameter and height of each stem interval. In addition, an analysis of variance (ANOVA) was conducted to compare the two existing Q. acuta stem volume tables (2007 and 2010) and the newly created stem volume table (2023). This analysis revealed that the stem volume table constructed in the Wando region in 2007 included about twice as much as the stem volume tables constructed in 2010 and 2023. The stem volume table (2023) developed in this study is not only based on the regional collection range and number of utilized trees but also on a sound scientific basis. Therefore, it can be used at the national level as an official stem volume table for Q. acuta.