• 제목/요약/키워드: genetic Neural Network

검색결과 528건 처리시간 0.024초

A Novel CNN and GA-Based Algorithm for Intrusion Detection in IoT Devices

  • Ibrahim Darwish;Samih Montser;Mohamed R. Saadi
    • International Journal of Computer Science & Network Security
    • /
    • 제23권9호
    • /
    • pp.55-64
    • /
    • 2023
  • The Internet of Things (IoT) is the combination of the internet and various sensing devices. IoT security has increasingly attracted extensive attention. However, significant losses appears due to malicious attacks. Therefore, intrusion detection, which detects malicious attacks and their behaviors in IoT devices plays a crucial role in IoT security. The intrusion detection system, namely IDS should be executed efficiently by conducting classification and efficient feature extraction techniques. To effectively perform Intrusion detection in IoT applications, a novel method based on a Conventional Neural Network (CNN) for classification and an improved Genetic Algorithm (GA) for extraction is proposed and implemented. Existing issues like failing to detect the few attacks from smaller samples are focused, and hence the proposed novel CNN is applied to detect almost all attacks from small to large samples. For that purpose, the feature selection is essential. Thus, the genetic algorithm is improved to identify the best fitness values to perform accurate feature selection. To evaluate the performance, the NSL-KDDCUP dataset is used, and two datasets such as KDDTEST21 and KDDTEST+ are chosen. The performance and results are compared and analyzed with other existing models. The experimental results show that the proposed algorithm has superior intrusion detection rates to existing models, where the accuracy and true positive rate improve and the false positive rate decrease. In addition, the proposed algorithm indicates better performance on KDDTEST+ than KDDTEST21 because there are few attacks from minor samples in KDDTEST+. Therefore, the results demonstrate that the novel proposed CNN with the improved GA can identify almost every intrusion.

A hybrid algorithm for the synthesis of computer-generated holograms

  • Nguyen The Anh;An Jun Won;Choe Jae Gwang;Kim Nam
    • 한국광학회:학술대회논문집
    • /
    • 한국광학회 2003년도 하계학술발표회
    • /
    • pp.60-61
    • /
    • 2003
  • A new approach to reduce the computation time of genetic algorithm (GA) for making binary phase holograms is described. Synthesized holograms having diffraction efficiency of 75.8% and uniformity of 5.8% are proven in computer simulation and experimentally demonstrated. Recently, computer-generated holograms (CGHs) having high diffraction efficiency and flexibility of design have been widely developed in many applications such as optical information processing, optical computing, optical interconnection, etc. Among proposed optimization methods, GA has become popular due to its capability of reaching nearly global. However, there exits a drawback to consider when we use the genetic algorithm. It is the large amount of computation time to construct desired holograms. One of the major reasons that the GA' s operation may be time intensive results from the expense of computing the cost function that must Fourier transform the parameters encoded on the hologram into the fitness value. In trying to remedy this drawback, Artificial Neural Network (ANN) has been put forward, allowing CGHs to be created easily and quickly (1), but the quality of reconstructed images is not high enough to use in applications of high preciseness. For that, we are in attempt to find a new approach of combiningthe good properties and performance of both the GA and ANN to make CGHs of high diffraction efficiency in a short time. The optimization of CGH using the genetic algorithm is merely a process of iteration, including selection, crossover, and mutation operators [2]. It is worth noting that the evaluation of the cost function with the aim of selecting better holograms plays an important role in the implementation of the GA. However, this evaluation process wastes much time for Fourier transforming the encoded parameters on the hologram into the value to be solved. Depending on the speed of computer, this process can even last up to ten minutes. It will be more effective if instead of merely generating random holograms in the initial process, a set of approximately desired holograms is employed. By doing so, the initial population will contain less trial holograms equivalent to the reduction of the computation time of GA's. Accordingly, a hybrid algorithm that utilizes a trained neural network to initiate the GA's procedure is proposed. Consequently, the initial population contains less random holograms and is compensated by approximately desired holograms. Figure 1 is the flowchart of the hybrid algorithm in comparison with the classical GA. The procedure of synthesizing a hologram on computer is divided into two steps. First the simulation of holograms based on ANN method [1] to acquire approximately desired holograms is carried. With a teaching data set of 9 characters obtained from the classical GA, the number of layer is 3, the number of hidden node is 100, learning rate is 0.3, and momentum is 0.5, the artificial neural network trained enables us to attain the approximately desired holograms, which are fairly good agreement with what we suggested in the theory. The second step, effect of several parameters on the operation of the hybrid algorithm is investigated. In principle, the operation of the hybrid algorithm and GA are the same except the modification of the initial step. Hence, the verified results in Ref [2] of the parameters such as the probability of crossover and mutation, the tournament size, and the crossover block size are remained unchanged, beside of the reduced population size. The reconstructed image of 76.4% diffraction efficiency and 5.4% uniformity is achieved when the population size is 30, the iteration number is 2000, the probability of crossover is 0.75, and the probability of mutation is 0.001. A comparison between the hybrid algorithm and GA in term of diffraction efficiency and computation time is also evaluated as shown in Fig. 2. With a 66.7% reduction in computation time and a 2% increase in diffraction efficiency compared to the GA method, the hybrid algorithm demonstrates its efficient performance. In the optical experiment, the phase holograms were displayed on a programmable phase modulator (model XGA). Figures 3 are pictures of diffracted patterns of the letter "0" from the holograms generated using the hybrid algorithm. Diffraction efficiency of 75.8% and uniformity of 5.8% are measured. We see that the simulation and experiment results are fairly good agreement with each other. In this paper, Genetic Algorithm and Neural Network have been successfully combined in designing CGHs. This method gives a significant reduction in computation time compared to the GA method while still allowing holograms of high diffraction efficiency and uniformity to be achieved. This work was supported by No.mOl-2001-000-00324-0 (2002)) from the Korea Science & Engineering Foundation.

  • PDF

A Hybrid Optimized Deep Learning Techniques for Analyzing Mammograms

  • Bandaru, Satish Babu;Deivarajan, Natarajasivan;Gatram, Rama Mohan Babu
    • International Journal of Computer Science & Network Security
    • /
    • 제22권10호
    • /
    • pp.73-82
    • /
    • 2022
  • Early detection continues to be the mainstay of breast cancer control as well as the improvement of its treatment. Even so, the absence of cancer symptoms at the onset has early detection quite challenging. Therefore, various researchers continue to focus on cancer as a topic of health to try and make improvements from the perspectives of diagnosis, prevention, and treatment. This research's chief goal is development of a system with deep learning for classification of the breast cancer as non-malignant and malignant using mammogram images. The following two distinct approaches: the first one with the utilization of patches of the Region of Interest (ROI), and the second one with the utilization of the overall images is used. The proposed system is composed of the following two distinct stages: the pre-processing stage and the Convolution Neural Network (CNN) building stage. Of late, the use of meta-heuristic optimization algorithms has accomplished a lot of progress in resolving these problems. Teaching-Learning Based Optimization algorithm (TIBO) meta-heuristic was originally employed for resolving problems of continuous optimization. This work has offered the proposals of novel methods for training the Residual Network (ResNet) as well as the CNN based on the TLBO and the Genetic Algorithm (GA). The classification of breast cancer can be enhanced with direct application of the hybrid TLBO- GA. For this hybrid algorithm, the TLBO, i.e., a core component, will combine the following three distinct operators of the GA: coding, crossover, and mutation. In the TLBO, there is a representation of the optimization solutions as students. On the other hand, the hybrid TLBO-GA will have further division of the students as follows: the top students, the ordinary students, and the poor students. The experiments demonstrated that the proposed hybrid TLBO-GA is more effective than TLBO and GA.

유전자 알고리즘을 활용한 인공신경망 모형 최적입력변수의 선정: 부도예측 모형을 중심으로 (Using GA based Input Selection Method for Artificial Neural Network Modeling Application to Bankruptcy Prediction)

  • 홍승현;신경식
    • 지능정보연구
    • /
    • 제9권1호
    • /
    • pp.227-249
    • /
    • 2003
  • 부도예측모형의 구축은 은행 등 금융기관이 신용평가시스템 혹은 심사역 의사결정지원시스템을 구축하는데 중요한 기반이 된다. 많은 선행연구들에서는 기업의 부도예측을 위하여 전통적으로 다변량 판별분석이나 로짓분석과 같은 통계기법이 많이 사용되었으나, 최근에는 많은 연구들에 의해 그 우수성이 보고되고 있는 인공신경망, 귀납적 학습방법 등 인공지능 기법이 부도예측분야에 많이 응용되고 있다. 일반적으로 인공신경망 기법을 응용한 부도예측모형에서는 기업의 재무정보 및 비재무 정보를 입력변수로 주고 기업의 부도여부를 출력변수로 설정하여 학습을 통해 이들의 관계를 추출하고 있다. 그러므로 입력변수의 선정은 모형의 정확도에 커다란 영향을 미치며, 입력변수가 잘못 선정된 경우 예측 정확도는 현저히 낮아진다. 그러나 최적의 입력변수군을 선정하는 문제는 매우 어려운 과제 중 하나로, 선행 연구들에서는 주로 전문가의 의견을 반영하거나, 문헌을 통해 도출, 혹은 통계적 기법을 활용하여 입력변수를 선정하는 것이 일반적이었다. 본 연구에서는 많은 선행 연구에서 모형구축에의 한계점으로 명시하고 있는 입력변수 선정의 문제에 대해 유전자 알고리즘을 이용한 최적화를 통하여 입력 변수군을 도출하는 방법론을 제시하였고, 이 방법론이 다른 통계기법이나 전문가에 의한 변수 선택 방법론에 비해 우수함을 인공신경망 모형에 적용한 결과를 비교함으로 보여 주었으며, 이들간의 예측력의 차이가 유의함을 통계적 검증하였다. 모형의 실험을 위하여 총 528개사의 재무정보를 활용하였는데, 이는 1995년부터 1997년까지 3년간 부도가 발생한 일반법인 제조업체 중 외감법인 이상 264개사와 동수의 건전기업의 재무 데이터로 구성하였다. 기업이 도산에 이르기까지 많은 변인들이 다양하게 작용하게 된다. 그러나 이러한 변인들을 모두 모형에 적용하는 것은 비효율적이며, 인공신경망 모형에서 과다 입력변수를 사용하는 경우 수렴과 일반화 모두에 바람직하지 않은 결과가 나타난다. 따라서 적절한 입력변수군의 선택은 인공신경망 모형의 효율성과 성능을 향상시키게 되고, 이는 부도 예측율의 향상으로 이어질 수 있다. 이에 인공신경망 모형을 위한 최적의 입력변수군을 선정하고자 한 본 연구는 결국 기업의 부도 예측율을 높이기 위한 방법론을 제시했다는 점에 그 의의가 있다.

  • PDF

Self-Organizing Polynomial Neural Networks Based on Genetically Optimized Multi-Layer Perceptron Architecture

  • Park, Ho-Sung;Park, Byoung-Jun;Kim, Hyun-Ki;Oh, Sung-Kwun
    • International Journal of Control, Automation, and Systems
    • /
    • 제2권4호
    • /
    • pp.423-434
    • /
    • 2004
  • In this paper, we introduce a new topology of Self-Organizing Polynomial Neural Networks (SOPNN) based on genetically optimized Multi-Layer Perceptron (MLP) and discuss its comprehensive design methodology involving mechanisms of genetic optimization. Let us recall that the design of the 'conventional' SOPNN uses the extended Group Method of Data Handling (GMDH) technique to exploit polynomials as well as to consider a fixed number of input nodes at polynomial neurons (or nodes) located in each layer. However, this design process does not guarantee that the conventional SOPNN generated through learning results in optimal network architecture. The design procedure applied in the construction of each layer of the SOPNN deals with its structural optimization involving the selection of preferred nodes (or PNs) with specific local characteristics (such as the number of input variables, the order of the polynomials, and input variables) and addresses specific aspects of parametric optimization. An aggregate performance index with a weighting factor is proposed in order to achieve a sound balance between the approximation and generalization (predictive) abilities of the model. To evaluate the performance of the GA-based SOPNN, the model is experimented using pH neutralization process data as well as sewage treatment process data. A comparative analysis indicates that the proposed SOPNN is the model having higher accuracy as well as more superb predictive capability than other intelligent models presented previously.reviously.

유전알고리즘을 이용한 이동로봇의 시간 및 에너지 최적제어 (Optimal Control of Time and Energy for Mobile Robots Using Genetic Algorithm)

  • 박현재;박진현;최영규
    • 한국정보통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.688-697
    • /
    • 2017
  • 비선형 시스템의 이동 로봇을 원하는 목표점으로 속도, 가속도 그리고 각속도 관련 에너지를 최소한으로 사용하여 최단시간 안에 이동시키는 최적의 제어 문제를 수학적으로 푸는 것이 매우 어렵다. 본 논문에서는 유전알고리즘을 이용하여 이동 로봇의 속도, 각속도 관련 에너지를 최소화하면서 최단시간 안에 이동할 수 있는 최적제어이득을 구한다. 이동 로봇은 비선형시스템이므로 초기위치에 따라 최적제어이득이 다르게 결정된다. 따라서 초기위치 분할 점들을 설정하고 각 분할 점에서 유전알고리즘을 이용하여 최적제어이득을 구한다. 각 분할 점에서 구한 최적제어 이득으로 신경회로망을 학습시켜서 임의의 초기위치에 대한 제어이득을 구할 수 있다. 마지막으로 본 연구의 유용성을 컴퓨터 시뮬레이션 연구로 확인한다.

OR-AND 구조의 퍼지 뉴럴 네트워크를 이용한 태양광 발전 출력 예측 시스템 개발 (Development of Photovoltaic Output Power Prediction System using OR-AND Structured Fuzzy Neural Networks)

  • 김해마로;한창욱;이돈규
    • 전기전자학회논문지
    • /
    • 제23권1호
    • /
    • pp.334-337
    • /
    • 2019
  • 현재 계속해서 늘어나는 에너지 수요량에 대해 세계적으로 화석연료를 대체할 차세대 에너지의 연구개발이 활발하게 이루어지고 있다. 그 중, 무한정, 무공해의 태양에너지를 사용하는 태양광 발전 시스템의 비중이 커지고 있지만, 일사량에 따른 발전량 편차가 심해 안정된 전력공급이 어렵고 전력 생산량 자체가 지역별 일사량에 의존하는 문제가 존재한다. 본 논문에서는 이러한 문제점을 해결하기 위해 실제의 지역별 일사량, 강수량, 온도, 습도 등의 기상데이터를 수집하여 로직 기반의 퍼지 뉴럴 네트워크를 이용한 태양광 발전 출력 예측 시스템을 제안하였다.

경로 제어가 가능한 가상생명체를 위한 2단계 진화 알고리즘 (Two-Stage Evolutionary Algorithm for Path-Controllable Virtual Creatures)

  • 심윤식;김창헌
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권11_12호
    • /
    • pp.682-691
    • /
    • 2005
  • 본 논문은 사용자의 제어가 가능한 3차원 물리 기반 가상생명체를 생성하는 2단계 진화 시스템을 제안한다. 기존의 방법은 가상생명체의 형상과 기동, 그리고 목표지점추적(target-following)과 같은 상위 레벨의 행위를 한꺼번에 하나의 진화 시스템으로 생성해냄으로 인하여 진화 단계에서의 사용자의 개입을 허용하지 않았다. 본 논문은 하나로 묶여있던 시스템을 다루기 용이한 두 개의 서브시스템으로 분리함으로써 사용자의 개입을 허용한다. 첫 번째 단계로 가상생명체의 몸체와 직진 기동을 위한 하위 레벨 모터 컨트롤러가 진화 알고리즘(evolutionary algorithm)으로 동시에 생성된다. 두 번째 단계에는 생성된 기본 생명체 위에 주어진 경로를 따라가기 위한 상위 레벨 컨트롤러가 인공 신경망을 사용하여 탑재된다. 경로제어(path-following)를 위한 신경망의 연결 가중치는 유전자 알고리즘(genetic algorithm)을 사용하여 최적화되며 한번 진화된 신경망 컨트롤러는 어떠한 임의의 경로도 잘 따라감을 보여준다. 이로써 사용자는 모든 진화과정이 끝나지 않고도 중간단계에서 기호에 맞는 생명체를 골라내거나 버릴 수 있으며, 동일한 기본 생명체 위에 또 다른 형태의 상위레벨 행위를 생성하는 것도 가능해진다. 본 논문은 이러한 2단계 알고리즘과 함께 직진기동을 위한 새로운 분절 삼각 함수(Piecewise sinusoidal) 컨트롤러를 제안하고 마개 실린더(capped-cylinder)를 기본 요소로 하는 가상생명체에 대한 효율적인 실시간 수중역학 모델링 기법도 함께 소개한다.

라틴 하이퍼큐브 기반 신경망모델을 적용한 풍력발전기 피치제어기 최적화 (Optimization of Wind Turbine Pitch Controller by Neural Network Model Based on Latin Hypercube)

  • 이광기;한승호
    • 대한기계학회논문집A
    • /
    • 제36권9호
    • /
    • pp.1065-1071
    • /
    • 2012
  • 풍력발전기의 안정적인 전력생산은 정격풍속 이상에서 피치제어와 스톨제어와 같은 일정속도제어로 이루어지고 있다. 최근, 효율적인 전력생산을 위하여 정격풍속 이하의 변동풍속 조건에서 최대 출력을 얻기 위한 가변 속도제어가 적용되고 있는 추세이다. 기존의 피치제어기에서는 지글러-니콜스 계단응답법에 의한 제어기 최적화가 이루어지고 있으나, 가변 속도제어의 요구로 보다 정확한 최적화가 필요하게 되었다. 본 연구에서는 기존의 지글러-니콜스 계단응답법을 개선하기 위하여 라틴 하이퍼큐브 샘플링을 통한 신경망모델을 구축하고, 구축된 PID 제어 계수 신경망모델에 유전자 알고리즘을 적용하여 피치제어기를 최적화하였다. 유전자 알고리즘으로 구한 최적해가 지글러-니콜스 계단응답법의 초기해 보다 평균제곱근 오차가 13.4% 향상되었고, 응답특성을 나타내는 상승속도와 정착시간은 각각 15.8% 및 15.3%으로 개선되었다.

비용효율적 지능형 침입탐지시스템 구현을 위한 유전자 알고리즘 기반 통합 모형 (An Integrated Model based on Genetic Algorithms for Implementing Cost-Effective Intelligent Intrusion Detection Systems)

  • 이현욱;김지훈;안현철
    • 지능정보연구
    • /
    • 제18권1호
    • /
    • pp.125-141
    • /
    • 2012
  • 본 연구는 최근 그 중요성이 한층 높아지고 있는 침입탐지시스템(IDS, Intrusion Detection System)의 침입탐지모형을 개선하기 위한 방안으로 유전자 알고리즘에 기반한 새로운 통합모형을 제시한다. 본 연구의 제안모형은 서로 상호보완적 관계에 있는 이분류 모형인 로지스틱 회귀분석(LOGIT, Logistic Regression), 의사결정나무(DT, Decision Tree), 인공신경망 (ANN, Artificial Neural Network), 그리고 SVM(Support Vector Machine)의 예측결과에 적절한 가중치를 부여해 최종 예측결과를 산출하도록 하였는데, 이 때 최적 가중치의 탐색을 위한 방법으로는 유전자 알고리즘을 사용한다. 아울러, 본 연구에서는 1차적으로 오탐지율을 최소화하는 최적의 모형을 산출한 뒤, 이어 비대칭 오류비용 개념을 반영해 오탐지로 인해 발생할 수 있는 전체 비용을 최소화할 수 있는 최적 임계치를 탐색, 최종적으로 가장 비용 효율적인 침입탐지모형을 도출하고자 하였다. 본 연구에서는 제안모형의 우수성을 확인하기 위해, 국내 한 공공기관의 보안센서로부터 수집된 로그 데이터를 바탕으로 실증 분석을 수행하였다. 그 결과, 본 연구에서 제안한 유전자 알고리즘 기반 통합모형이 인공신경망이나 SVM만으로 구성된 단일모형에 비해 학습용과 검증용 데이터셋 모두에서 더 우수한 탐지율을 보임을 확인할 수 있었다. 비대칭 오류비용을 고려한 전체 비용의 관점에서도 단일모형으로 된 비교모형에 비해 본 연구의 제안모형이 더 낮은 비용을 나타냄을 확인할 수 있었다. 이렇게 실증적으로 그 효과가 검증된 본 연구의 제안 모형은 앞으로 보다 지능화된 침입탐지시스템을 개발하는데 유용하게 활용될 수 있을 것으로 기대된다.