• 제목/요약/키워드: File system

검색결과 2,276건 처리시간 0.032초

SVM을 이용한 네트워크 기반 침입탐지 시스템에서 새로운 침입탐지에 관한 연구 (A Study on Intrusion Detection in Network Intrusion Detection System using SVM)

  • 양은목;서창호
    • 디지털융복합연구
    • /
    • 제16권5호
    • /
    • pp.399-406
    • /
    • 2018
  • 인공지능을 이용한 침입탐지 연구는 KDDCup99 데이터 세트를 사용하여 많은 연구가 이루어졌다. 이전 연구에서 SMO(SVM)알고리즘의 성능이 우수하다고 알려져 있다. 하지만 훈련에 사용되지 않은 새로운 침입유형의 침입탐지연구는 미비하다. 본 논문에서는 웨카(weka)의 SMO와 KDDCup99 훈련 데이터 세트인 kddcup.data.gz의 인스턴스를 이용하여 모델을 생성하였다. corrected.gz 파일의 인스턴스 중 기존 침입(292,300개)과 새로운 침입(18,729개)을 테스트하였다. 일반적으로 훈련에 사용되지 않은 침입 라벨은 테스트 되지 않기 때문에 새로운 침입라벨을 normal.로 변경하여 테스트하였다. 새로운 침입 18,729개의 인스턴스 중 1,827개는 침입으로 분류하였다. 새로운 침입으로 분류한 1,827개의 인스턴스는 buffer_overflow. 3개, neptune. 392개, portsweep. 164개, ipsweep. 9개, back. 511개, imap. 1개, satan. 개, 645 개, nmap. 102개로 분류되었다.

무선 메쉬 네트워크에서의 응용 서비스 인지 라우팅 프로토콜 선택 기법 (Application-aware Routing Protocol Selection Scheme in Wireless Mesh Network)

  • 최효현;손태식;박용석
    • 대한전자공학회논문지TC
    • /
    • 제46권6호
    • /
    • pp.103-110
    • /
    • 2009
  • 본 논문은 무선 메쉬 네트워크에서의 응용의 특징에 따른 라우팅 프로토콜 선택 방법에 대해서 제안한다. 각 응용들은 생성되는 평균 패킷 크기와 같은 서로 구분되는 특징을 가지고 있다. 예를 들자면, 텍스트 메신저는 작은 크기의 패킷을 주로 발생시키며, 파일 전송 응용의 경우는 큰 크기의 패킷을 주로 발생시킨다. 또한, 라우팅 프로토콜도 각기 다른 특징을 가진 경로를 설정한다. 최단 거리의 홉을 설정하는 라우팅 프로토콜과 홉 수는 보다 증가하더라도 높은 bandwidth를 가지는 링크로 경로를 구성하는 라우팅 프로토콜 등 각각의 특징을 가진 라우팅 프로토콜이 존재한다. 제안하는 방안은 서로 다른 응용의 특성을 제일 잘 반영시킬 수 있는 경로를 설정할 수 있도록 라우팅 프로토콜을 선택하는 방법론을 제시한다. 본 논문은 제안하는 방법이 반영되어 검증 및 구현된 메쉬 네트워크 시스템과 이에 대한 실험 결과를 보인다.

플랫폼을 포함한 이동 에이전트를 위한 UML 상호작용 다이어그램의 확장 (Extending UML Interaction Diagrams For Mobile Agents Including Agent Platforms)

  • 유문성
    • 한국인터넷방송통신학회논문지
    • /
    • 제11권2호
    • /
    • pp.261-267
    • /
    • 2011
  • 분산 시스템을 위한 강력한 소프트웨어 패러다임 중 하나가 이동 에이전트 시스템이다. 이동 에이전트의 사용이 증가하고 있으므로 이 시스템을 효율적으로 구축하기 위한 소프트웨어 개발 모델이 필요하다. 현재 소프트웨어 개발 모델로서 널리 사용되고 있는 것이 UML이다. 그러나 기존의 UML은 이동 에이전트 기반 소프트웨어 시스템을 개발하는 모델로 사용하고자 할 때 이동성을 명시적인 방식으로 기술할 수 없다. 본 논문에서는 UML 다이어그램 중 상호 작용 다이어그램(즉 순차 다이어그램과 통신 다이어그램)을 확장하여 세 가지 방법으로 이동 에이전트의 이동성을 명시적으로 표현하였는데 이동 에이전트를 위한 플랫폼의 기능도 포함하였다. 확장한 다이어그램의 표현법을 사용한 사례연구로 이동 에이전트를 이용한 분산형 파일 검색에 적용하였으며 이동 에이전트의 기능과 이동성을 잘 표현할 수 있음을 확인하였다.

키넥트를 사용한 터치 없는 디지털 사이니지 제어기의 구현 (Implementation of Untouched Interactive Digital Signage Control using Kinect)

  • 김지영;이영경;백욱진;안병구
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권4호
    • /
    • pp.127-132
    • /
    • 2014
  • 본 논문에서는 키넥트를 이용하여 디지털 사이니지의 스크린을 터치하지 않으면서 화면의 내용을 제어하거나 원하는 파일을 개인 스마트 단말기로 다운로드 할 수 있게 방법을 제안 구현하였다. 제안 방법의 특징 및 기여도는 다음과 같다. 첫째, 세균감염의 위험이나 스크린의 불청결 등의 문제를 해결하고 상호작용에 의한 광고효과를 극대화 할 수 있다. 둘째, 우리가 흔히 보는 스크린광고에서 내가 보기를 원치 않는 광고를 화면을 터치하지 않고 다른 광고로 넘김으로써 컴퓨터와의 일방적인 소통이 아닌 쌍방으로 소통할 수 있다. 성능평가결과 제안된 방법은 효과적으로 작동됨을 확인 하였다. 특히, 사용자의 행위인식을 통해 일정 좌표범위 내에 커서가 들어갔을 경우 동작하고, 정보를 다운로드 할 경우 서버 PC의 성능과 개인 스마트 단말기의 버전에 따라 파일전송시간이 달라진다.

Quantification of the tug-back by measuring the pulling force and micro computed tomographic evaluation

  • Jeon, Su-Jin;Moon, Young-Mi;Seo, Min-Seock
    • Restorative Dentistry and Endodontics
    • /
    • 제42권4호
    • /
    • pp.273-281
    • /
    • 2017
  • Objectives: The aims of this study were to quantify tug-back by measuring the pulling force and investigate the correlation of clinical tug-back pulling force with in vitro gutta-percha (GP) cone adaptation score using micro-computed tomography (${\mu}CT$). Materials and Methods: Twenty-eight roots from human single-rooted teeth were divided into 2 groups. In the ProTaper Next (PTN) group, root canals were prepared with PTN, and in the ProFile (PF) group, root canals were prepared using PF (n = 14). The degree of tug-back was scored after selecting taper-matched GP cones. A novel method using a spring balance was designed to quantify the tug-back by measuring the pulling force. The correlation between tug-back scores, pulling force, and percentage of the gutta-percha occupied area (pGPOA) within apical 3 mm was investigated using ${\mu}CT$. The data were analyzed using Pearson's correlation analysis, one-way analysis of variance (ANOVA) and Tukey's test. Results: Specimens with a strong tug-back had a mean pulling force of 1.24 N (range, 0.15-1.70 N). This study showed a positive correlation between tug-back score, pulling force, and pGPOA. However, there was no significant difference in these factors between the PTN and PF groups. Regardless of the groups, pGPOA and pulling force were significantly higher in the specimens with a higher tug-back score (p < 0.05). Conclusions: The degree of subjective tug-back was a definitive determinant for master cone adaptation in the root canal. The use of the tug-back scoring system and pulling force allows the interpretation of subjective tug-back in a more objective and quantitative manner.

Developing a semi-automatic data conversion tool for Korean ecological data standardization

  • Lee, Hyeonjeong;Jung, Hoseok;Shin, Miyoung;Kwon, Ohseok
    • Journal of Ecology and Environment
    • /
    • 제41권3호
    • /
    • pp.78-84
    • /
    • 2017
  • Recently, great demands are rising around the globe for monitoring and studying of long-term ecological changes. To go with the stream, many researchers in South Korea have attempted to share and integrate ecological data for practical use. Although some achievements were made in the meantime, we still have to overcome a big obstacle that existing ecological data in South Korea are mostly spread all over the country in various formats of computer files. In this study, we aim to handle the situation by developing a semi-automatic data conversion tool for Korean ecological data standardization, based on some predefined protocols for ecological data collection and management. The current implementation of this tool works on only five species (libythea celtis, spittle bugs, mosquitoes, pinus, and quercus mongolica), helping data managers to quickly and efficiently obtain a standardized format of ecological data from raw collection data. With this tool, the procedure of data conversion is divided into four steps: data file and protocol selection step, species selection step, attribute mapping step, and data standardization step. To find the usability of this tool, we utilized it to conduct the standardization of raw five species data collected from six different observatory sites of Korean National Parks. As a result, we could obtain a common form of standardized data in a relatively short time. With the help of this tool, various ecological data could be easily integrated into the nationwide common platform, providing broad applicability towards solving many issues in ecological and environmental system.

통합시험을 위한 자동 시험일지 작성프로그램 설계 및 구현 (Automatic Test Report Recording Program Design and Implementation for Integration Test)

  • 정영환;송경록;이원식;위성혁
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제24권1호
    • /
    • pp.33-39
    • /
    • 2018
  • 현재 국방시뮬레이션 분야에서 통합시험을 위해 각각의 실 장비 및 모의기(Simulator)들 자체 로깅정보는 자동화가 되어있다. 통합시험시스템의 특이사항은 시험일지로 작성하고 있지만, 자동화가 되어 있지 않아 여전히 운용자의 수기작성 또는 파일작성에 의존하고 있어, 기록 내용 부실 및 동일 내용 반복작성 등 비효율적인 면이 존재한다. 본 논문에서는 이러한 문제점들을 해결하기 위해 자동 시험일지 기록 프로그램을 제안하고자 한다. 자동 시험일지 기록프로그램은 프레임워크 기반 기술을 활용해 시험일지에 기록해야 할 정보를 운용통제컴퓨터와 운용자로부터 수신 받아 일지를 기록해준다. 자동 시험일지 기록프로그램이 운용자의 반복적인 시험내용을 안정적으로 기록할 수 있게 한다. 또한, 시험 운용인원이 제한적이어도 운용자가 통합시험에만 집중할 수 있도록 효율성을 높여주었다.

Centroid 위치벡터를 이용한 영상 검색 기법 (A Centroid-based Image Retrieval Scheme Using Centroid Situation Vector)

  • 방상배;남재열;최재각
    • 방송공학회논문지
    • /
    • 제7권2호
    • /
    • pp.126-135
    • /
    • 2002
  • 영상은 색상, 형태, 위치, 질감 같은 다양한 특성을 갖고 있기 때문에 하나의 특성만을 이용하여 일괄적으로 영상을 검색할 경우, 만족할 만한 검색효율을 얻기가 어렵다. 특히, 대용량의 영상 데이터베이스일수록 그 같은 현상은 빈번하게 일어나기 때문에 기존의 내용 기반 영상 검색 시스템들은 대부분 하나 이상의 특성을 이용하여 검색효율 향상을 죄하고 있다. 본 논문에서는 Centroid 위치벡터를 이용하여 영상 내의 색상 정보뿐만 아니라, 특정 색상에 대한 위치정보를 고려하는 기법을 제안한다. 질의영상의 한 색상에 대해 Centroid 위치벡터를 추출하고 비교영상의 같은 색상의 Centroid 위치벡터와의 거리를 비교하여 그 거리가 짧을수록 각 색상의 위치 유사도를 높게 책정하는 방식을 제안한다. 제안된 검색 기법은 기존의 색상 분포만을 이용하는 검색 기법에 비해, 원근 처리된 영상에 강인하고, 회전되거나 뒤집힌 영상의 변별력이 향상되었다. 또한, 제안된 방식은 색상정보와 위치정보의 추출을 이원화시키지 않고 동시에 추출함으로써 계산량을 줄이고, 효율적인 색인 파일을 생성하여 검색속도를 향상시켰다.

학생 정보 XML 파일의 효율적 활용을 위한 DTD 개발 및 XML 문서 표현 시스템 구현 (Development of an Efficient DTD about Students' XML Documents and Implementation of a System Generating XML Document)

  • 이은경;김종진;김종훈
    • 정보교육학회논문지
    • /
    • 제6권1호
    • /
    • pp.30-41
    • /
    • 2002
  • 본 연구는 학생정보 XML 파일 작성을 위한 표준 DTD를 개발하여 교사들이 손쉽게 학생정보 XML 파일을 만들 수 있는 기준을 마련하고자 하였다. 본 연구에서는 DTD 구안과 더불어 학생정보 XML파일을 생성할 수 있는 파일 생성기를 구현하였다. 이 연구로 컴퓨터와 웹의 등장에 따른 학교 교육 여건의 변화에 알맞게 학생 관리에 관한 정보를 공유할 수 있고, 교사들의 업무 부담을 줄여 질 높은 수업에 전념할 수 있는 기회 마련에 도움이되며 학생 정보 XML 파일 작성을 위한 DTD를 제7차 교육과정의 정신에 의해 설계하였기 때문에 교사들이 손쉽게 학생 정보 XML 파일을 만들 수 있고 각 학교는 동일한 형태의 학생정보를 주고받을 수 있게 하였다.

  • PDF

Big Data Platform Based on Hadoop and Application to Weight Estimation of FPSO Topside

  • Kim, Seong-Hoon;Roh, Myung-Il;Kim, Ki-Su;Oh, Min-Jae
    • Journal of Advanced Research in Ocean Engineering
    • /
    • 제3권1호
    • /
    • pp.32-40
    • /
    • 2017
  • Recently, the amount of data to be processed and the complexity thereof have been increasing due to the development of information and communication technology, and industry's interest in such big data is increasing day by day. In the shipbuilding and offshore industry also, there is growing interest in the effective utilization of data, since various and vast amounts of data are being generated in the process of design, production, and operation. In order to effectively utilize big data in the shipbuilding and offshore industry, it is necessary to store and process large amounts of data. In this study, it was considered efficient to apply Hadoop and R, which are mostly used in big data related research. Hadoop is a framework for storing and processing big data. It provides the Hadoop Distributed File System (HDFS) for storing big data, and the MapReduce function for processing. Meanwhile, R provides various data analysis techniques through the language and environment for statistical calculation and graphics. While Hadoop makes it is easy to handle big data, it is difficult to finely process data; and although R has advanced analysis capability, it is difficult to use to process large data. This study proposes a big data platform based on Hadoop for applications in the shipbuilding and offshore industry. The proposed platform includes the existing data of the shipyard, and makes it possible to manage and process the data. To check the applicability of the platform, it is applied to estimate the weights of offshore structure topsides. In this study, we store data of existing FPSOs in Hadoop-based Hortonworks Data Platform (HDP), and perform regression analysis using RHadoop. We evaluate the effectiveness of large data processing by RHadoop by comparing the results of regression analysis and the processing time, with the results of using the conventional weight estimation program.