• 제목/요약/키워드: boosting algorithm

검색결과 167건 처리시간 0.03초

특징들의 공유에 의한 기울어진 얼굴 검출 (Rotated face detection based on sharing features)

  • 송영모;고윤호
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2009년도 정보 및 제어 심포지움 논문집
    • /
    • pp.31-33
    • /
    • 2009
  • Face detection using AdaBoost algorithm is capable of processing images rapidly while having high detection rates. It seemed to be the fastest and the most robust and it is still today. Many improvements or extensions of this method have been proposed. However, previous approaches only deal with upright faces. They suffer from limited discriminant capability for rotated faces as these methods apply the same features for both upright and rotated faces. To solve this problem, it is necessary that we rotate input images or make independently trained detectors. However, this can be slow and can require a lot of training data, since each classifier requires the computation of many different image features. This paper proposes a robust algorithm for finding rotated faces within an image. It reduces the computational and sample complexity, by finding common features that can be shared across the classes. And it will be able to apply with multi-class object detection.

  • PDF

재무부실화 예측을 위한 랜덤 서브스페이스 앙상블 모형의 최적화 (Optimization of Random Subspace Ensemble for Bankruptcy Prediction)

  • 민성환
    • 한국IT서비스학회지
    • /
    • 제14권4호
    • /
    • pp.121-135
    • /
    • 2015
  • Ensemble classification is to utilize multiple classifiers instead of using a single classifier. Recently ensemble classifiers have attracted much attention in data mining community. Ensemble learning techniques has been proved to be very useful for improving the prediction accuracy. Bagging, boosting and random subspace are the most popular ensemble methods. In random subspace, each base classifier is trained on a randomly chosen feature subspace of the original feature space. The outputs of different base classifiers are aggregated together usually by a simple majority vote. In this study, we applied the random subspace method to the bankruptcy problem. Moreover, we proposed a method for optimizing the random subspace ensemble. The genetic algorithm was used to optimize classifier subset of random subspace ensemble for bankruptcy prediction. This paper applied the proposed genetic algorithm based random subspace ensemble model to the bankruptcy prediction problem using a real data set and compared it with other models. Experimental results showed the proposed model outperformed the other models.

CNN-based Fast Split Mode Decision Algorithm for Versatile Video Coding (VVC) Inter Prediction

  • Yeo, Woon-Ha;Kim, Byung-Gyu
    • Journal of Multimedia Information System
    • /
    • 제8권3호
    • /
    • pp.147-158
    • /
    • 2021
  • Versatile Video Coding (VVC) is the latest video coding standard developed by Joint Video Exploration Team (JVET). In VVC, the quadtree plus multi-type tree (QT+MTT) structure of coding unit (CU) partition is adopted, and its computational complexity is considerably high due to the brute-force search for recursive rate-distortion (RD) optimization. In this paper, we aim to reduce the time complexity of inter-picture prediction mode since the inter prediction accounts for a large portion of the total encoding time. The problem can be defined as classifying the split mode of each CU. To classify the split mode effectively, a novel convolutional neural network (CNN) called multi-level tree (MLT-CNN) architecture is introduced. For boosting classification performance, we utilize additional information including inter-picture information while training the CNN. The overall algorithm including the MLT-CNN inference process is implemented on VVC Test Model (VTM) 11.0. The CUs of size 128×128 can be the inputs of the CNN. The sequences are encoded at the random access (RA) configuration with five QP values {22, 27, 32, 37, 42}. The experimental results show that the proposed algorithm can reduce the computational complexity by 11.53% on average, and 26.14% for the maximum with an average 1.01% of the increase in Bjøntegaard delta bit rate (BDBR). Especially, the proposed method shows higher performance on the sequences of the A and B classes, reducing 9.81%~26.14% of encoding time with 0.95%~3.28% of the BDBR increase.

종말 속도벡터 구속조건을 갖는 유도탄의 궤적최적화 및 유도 (Trajectory Optimization and Guidance for Terminal Velocity Constrained Missiles)

  • 유창경;탁민제;김종한
    • 한국항공우주학회지
    • /
    • 제32권6호
    • /
    • pp.72-80
    • /
    • 2004
  • 본 논문에서는 추력중단 후 무유도방식 유도탄의 추력비행단계 유도알고리듬의 설계과정을 다룬다. 유도의 목적은 추력중단 시점에서 요구속도벡터를 성취하기 위한 것이다. 구현 가능한 피치평면 비행궤적을 조사하기 위해 네 가지 성능지수에 대한 비행궤적 최적화를 수행하였다. 궤적최적화 결과로부터 구속조건들을 만족시키기 위해서는 비행초기에 고앙각 기동이 필요함을 알 수 있다. 제안된 유도알고리듬은 개루프 피치자세각 명령 산출기인 피치프로그램과 증가요구속도벡터를 0으로 만들기 위한 요자세각 명령 산출기로 구성된다. 피치프로그램은 궤적최적화 결과 얻어진 피치자세각 선도를 이용하여 구성되었다.

Estimation-Based Load-Balancing with Admission Control for Cluster Web Servers

  • Sharifian, Saeed;Motamedi, Seyed Ahmad;Akbari, Mohammad Kazem
    • ETRI Journal
    • /
    • 제31권2호
    • /
    • pp.173-181
    • /
    • 2009
  • The growth of the World Wide Web and web-based applications is creating demand for high performance web servers to offer better throughput and shorter user-perceived latency. This demand leads to widely used cluster-based web servers in the Internet infrastructure. Load balancing algorithms play an important role in boosting the performance of cluster web servers. Previous load balancing algorithms suffer a significant performance drop under dynamic and database-driven workloads. We propose an estimation-based load balancing algorithm with admission control for cluster-based web servers. Because it is difficult to accurately determine the load of web servers, we propose an approximate policy. The algorithm classifies requests based on their service times and tracks the number of outstanding requests from each class in each web server node to dynamically estimate each web server load state. The available capacity of each web server is then computed and used for the load balancing and admission control decisions. The implementation results confirm that the proposed scheme improves both the mean response time and the throughput of clusters compared to rival load balancing algorithms and prevents clusters being overloaded even when request rates are beyond the cluster capacity.

  • PDF

다중 분포 학습 모델을 위한 Haar-like Feature와 Decision Tree를 이용한 학습 알고리즘 (Learning Algorithm for Multiple Distribution Data using Haar-like Feature and Decision Tree)

  • 곽주현;원일용;이창훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권1호
    • /
    • pp.43-48
    • /
    • 2013
  • Adaboost 알고리즘은 얼굴인식을 위한 Haar-like feature들을 이용하기 위해 가장 널리 쓰이고 있는 알고리즘이다. 매우 빠르며 효율적인 성능을 보이고 있으며 하나의 모델이미지가 존재하는 단일분포 데이터에 대해 매우 효율적이다. 그러나 정면 얼굴과 측면 얼굴을 혼합한 인식 등 둘 이상의 모델이미지를 가진 다중 분포모델에 대해서는 그 성능이 저하된다. 이는 단일 학습 알고리즘의 선형결합에 의존하기 때문에 생기는 현상이며 그 응용범위의 한계를 지니게 된다. 본 연구에서는 이를 해결하기 위한 제안으로서 Decision Tree를 Harr-like Feature와 결합하는 기법을 제안한다. Decision Tree를 사용 함으로서 보다 넓은 분야의 문제를 해결하기 위해 기존의 Decision Tree를 Harr-like Feature에 적합하도록 개선한 HDCT라고 하는 Harr-like Feature를 활용한 Decision Tree를 제안하였으며 이것의 성능을 Adaboost와 비교 평가하였다.

Improved ADALINE Harmonics Extraction Algorithm for Boosting Performance of Photovoltaic Shunt Active Power Filter under Dynamic Operations

  • Mohd Zainuri, Muhammad Ammirrul Atiqi;Radzi, Mohd Amran Mohd;Soh, Azura Che;Mariun, Norman;Rahim, Nasrudin Abd.
    • Journal of Electrical Engineering and Technology
    • /
    • 제11권6호
    • /
    • pp.1714-1728
    • /
    • 2016
  • This paper presents improved harmonics extraction based on Adaptive Linear Neuron (ADALINE) algorithm for single phase photovoltaic (PV) shunt active power filter (SAPF). The proposed algorithm, named later as Improved ADALINE, contributes to better performance by removing cosine factor and sum of element that are considered as unnecessary features inside the existing algorithm, known as Modified Widrow-Hoff (W-H) ADALINE. A new updating technique, named as Fundamental Active Current, is introduced to replace the role of the weight factor inside the previous updating technique. For evaluation and comparison purposes, both proposed and existing algorithms have been developed. The PV SAPF with both algorithms was simulated in MATLAB-Simulink respectively, with and without operation or connection of PV. For hardware implementation, laboratory prototype has been developed and the proposed algorithm was programmed in TMS320F28335 DSP board. Steady state operation and three critical dynamic operations, which involve change of nonlinear loads, off-on operation between PV and SAPF, and change of irradiances, were carried out for performance evaluation. From the results and analysis, the Improved ADALINE algorithm shows the best performances with low total harmonic distortion, fast response time and high source power reduction. It performs well in both steady state and dynamic operations as compared to the Modified W-H ADALINE algorithm.

Comparative Analysis of Machine Learning Techniques for IoT Anomaly Detection Using the NSL-KDD Dataset

  • Zaryn, Good;Waleed, Farag;Xin-Wen, Wu;Soundararajan, Ezekiel;Maria, Balega;Franklin, May;Alicia, Deak
    • International Journal of Computer Science & Network Security
    • /
    • 제23권1호
    • /
    • pp.46-52
    • /
    • 2023
  • With billions of IoT (Internet of Things) devices populating various emerging applications across the world, detecting anomalies on these devices has become incredibly important. Advanced Intrusion Detection Systems (IDS) are trained to detect abnormal network traffic, and Machine Learning (ML) algorithms are used to create detection models. In this paper, the NSL-KDD dataset was adopted to comparatively study the performance and efficiency of IoT anomaly detection models. The dataset was developed for various research purposes and is especially useful for anomaly detection. This data was used with typical machine learning algorithms including eXtreme Gradient Boosting (XGBoost), Support Vector Machines (SVM), and Deep Convolutional Neural Networks (DCNN) to identify and classify any anomalies present within the IoT applications. Our research results show that the XGBoost algorithm outperformed both the SVM and DCNN algorithms achieving the highest accuracy. In our research, each algorithm was assessed based on accuracy, precision, recall, and F1 score. Furthermore, we obtained interesting results on the execution time taken for each algorithm when running the anomaly detection. Precisely, the XGBoost algorithm was 425.53% faster when compared to the SVM algorithm and 2,075.49% faster than the DCNN algorithm. According to our experimental testing, XGBoost is the most accurate and efficient method.

반복적 부스팅 학습을 이용한 문서 여과 (Text Filtering using Iterative Boosting Algorithms)

  • 한상윤;장병탁
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권4호
    • /
    • pp.270-277
    • /
    • 2002
  • 문서 여과 문제 (text filtering)는 어떤 문서가 특정한 주제에 속하는지의 여부를 판별하는 문제이다. 인터넷과 웹이 널리 퍼지고 이메일로 전송되는 문서의 양이 폭발적으로 증가함에 따라 문서 여과의 중요성도 따라서 증가하고 있는 추세이다. 이 논문에서는 새로운 학습 방법인 에이다부스트 학습 방법을 문서 여과 문제에 적용하여 기존의 방법들보다 우수한 분류 결과를 나타내는 문서 여과 시스템을 생성하고자 한다. 에이다 부스트는 간단한 가설의 집합을 생성하고 묶는 기법인데, 이 때 각각의 가설들은 문서가 특정 단어를 포함하고 있는지 검사하여 이에 따라 문서의 적합성을 판별한다. 먼저 최종 여과 시스템을 구성하는 각 가설의 출력이 1 또는 -1이 되는 이진 가설을 사용하는 기존의 에이다부스트 알고리즘에서 출발하여 좀 더 최근에 제안된 확신 정도 (실수값)를 출력하는 가설을 이용하는 에이다부스트 알고리즘을 적용함으로써 오류 감소 속도와 최종 오류율을 개선하고자 하였다. 또 각 데이타에 대한 초기 가중치를 연속 포아송 분포에 따라 임의로 부여하여 여러 번의 부스팅을 수행한 후 그 결과를 결합하는 방법을 사용함으로써 적은 학습 데이타로 인해 발생하는 과도학습의 문제를 완화하고자 하였다. 실험 데이터로는 TREC-8 필터링 트랙 데이타셋을 사용하였다. 이 데이타셋은 1992년도부터 1994년도 사이의 파이낸셜 타임스 기사로 이루어져 있다. 실험 결과, 실수값을 출력하는 가설을 사용했을 때 이진값을 갖는 가설을 사용했을 때 보다 좋은 결과를 보였고 임의 가중치를 사용하여 여러번 부스팅을 하는 방법이 더욱 향상된 성능을 나타내었다. 다른 TREC 참가자들과의 비교결과도 제시한다.

기계학습 기반 모델을 활용한 시화호의 수질평가지수 등급 예측 (WQI Class Prediction of Sihwa Lake Using Machine Learning-Based Models)

  • 김수빈;이재성;김경태
    • 한국해양학회지:바다
    • /
    • 제27권2호
    • /
    • pp.71-86
    • /
    • 2022
  • 해양환경을 정량적으로 평가하기 위해 수질평가지수(water quality index, WQI)가 사용되고 있다. 우리나라는 해양수산부고시 해양환경기준에 따라 WQI를 5개 등급으로 구분하여 수질을 평가한다. 하지만, 방대한 수질 조사 자료에 대한 WQI 계산은 복잡하고 많은 시간이 요구된다. 이 연구는 기존의 조사된 수질 자료를 활용하여 WQI 등급을 예측할 수 있는 기계학습(machine learning, ML) 기반의 모델을 제안하고자 한다. 특별관리해역인 시화호를 모델링 지역으로 선정하였다. AdaBoost와 TPOT 알고리즘을 모델 훈련을 위해 사용하였으며, 분류 모델 평가 지표(정확도, 정밀도, F1, Log loss)로 모델 성능을 평가하였다. 훈련하기 전, 각 알고리즘 모델의 최적 입력자료 조합을 탐색하기 위해 변수 중요도와 민감도 분석을 수행하였다. 그 결과 저층 용존산소(dissolved oxygen, DO)는 모델의 성능에서 가장 중요한 인자였다. 반면, 표층 용존무기질소(dissolved inorganic nitrogen, DIN)와 표층 용존무기인(dissolved inorganic phosphorus, DIP)은 상대적으로 영향이 적었다. 한편, 최적 모델의 시공간적 민감도와 WQI 등급 별 민감도를 비교한 결과 각 조사 정점 및 시기, 등급 별 모델의 예측 성능이 상이하였다. 결론적으로 TPOT 알고리즘이 모든 입력자료 조합에서 성능이 더 우수하여 충분한 자료로 훈련된 최적 모델은 새로운 수질 조사 자료의 WQI 등급을 정확하게 분류할 수 있을 거라 판단된다.