Network management and anomaly detection are challenges in high-speed networks due to the high volume of packets that has to be analysed. Flow-based analysis is a scalable method which reduces the high volume of network traffic by dividing it into flows. As sampling methods are extensively used in flow generators such as NetFlow, the impact of sampling on the performance of flow-based analysis needs to be investigated. Monitoring using sampled traffic is a well-studied research area, however, the impact of sampling on flow-based anomaly detection is a poorly researched area. This paper investigates flow sampling methods and shows that these methods have negative impact on flow-based anomaly detection. Therefore, we propose an efficient probabilistic flow sampling method that can preserve flow traffic distribution. The proposed sampling method takes into account two flow features: Destination IP address and octet. The destination IP addresses are sampled based on the number of received bytes. Our method provides efficient sampled traffic which has the required traffic features for both flow-based anomaly detection and monitoring. The proposed sampling method is evaluated using a number of generated flow-based datasets. The results show improvement in preserved malicious flows.
The active learning surrogate model based on adaptive sampling strategy is increasingly popular in reliability analysis. However, most of the existing sampling strategies adopt the trial and error method to determine the size of the Monte Carlo (MC) candidate sample pool which satisfies the requirement of variation coefficient of failure probability. It will lead to a reduction in the calculation efficiency of reliability analysis. To avoid this defect, a new method for determining the optimal size of the MC candidate sample pool is proposed, and a new structural reliability analysis method combining polynomial chaos-based Kriging model (PC-Kriging) with adaptive sampling region is also proposed (PCK-ASR). Firstly, based on the lower limit of the confidence interval, a new method for estimating the optimal size of the MC candidate sample pool is proposed. Secondly, based on the upper limit of the confidence interval, an adaptive sampling region strategy similar to the radial centralized sampling method is developed. Then, the k-means++ clustering technique and the learning function LIF are used to complete the adaptive design of experiments (DoE). Finally, the effectiveness and accuracy of the PCK-ASR method are verified by three numerical examples and one practical engineering example.
Park, Hyung-Sung;Won, Jong-Uk;Kim, Chi-Nyon;Roh, Jaehoon
Journal of Korean Society of Occupational and Environmental Hygiene
/
v.23
no.4
/
pp.341-347
/
2013
Objectives: The aim of this study is to investigate the differences in airborne TDI concentrations based on the filter collection method and liquid collection method and to compare airborne TDIs concentrations by sampling method change when using the filter collection method in the spray-painting process. Methods: For the sample measurement, the filter collection method(OSHA#42) and liquid collection method(NIOSH#5522) were used; for the sampling method, the full-period single sampling and full-period consecutive sampling methods were used. The samples were collected in spray-painting and drying process locations. Results: In all samples collected from the spray-painting and drying process locations through the filter collection and liquid collection methods, greater amounts of 2,6-TDI than 2,4-TDI were detected. When the TDI collection concentrations based on the sampling methods were compared, the concentrations of 2,4-TDI and 2,6-TDI collected by the consecutive sampling method were higher than the concentrations of 2,4-TDI and 2,6-TDI collected by the single sampling method for both the filter collection method and liquid collection method used in the spray-painting process. These differences were statistically significant. Conclusions: When TDI collection concentrations based on the sample measurement methods were compared, the concentration of 2,4-TDI and 2,6-TDI collected through the liquid collection method were higher than the concentrations of 2,4-TDI and 2,6-TDI collected by the filter collection method, and the differences were statistically significant. In the drying process, no difference was shown in the collection concentrations of 2,4-TDI and 2,6-TDI with the two measurement methods.
KSII Transactions on Internet and Information Systems (TIIS)
/
v.16
no.4
/
pp.1110-1127
/
2022
To improve the training efficiency and generalization performance of a support vector machine (SVM) in a large-scale set, an optimal SVM learning method based on adaptive sparse sampling and the granularity shift factor is presented. The proposed method combines sampling optimization with learner optimization. First, an adaptive sparse sampling method based on the potential function density clustering is designed to adaptively obtain sparse sampling samples, which can achieve a reduction in the training sample set and effectively approximate the spatial structure distribution of the original sample set. A granularity shift factor method is then constructed to optimize the SVM decision hyperplane, which fully considers the neighborhood information of each granularity region in the sparse sampling set. Experiments on an artificial dataset and three benchmark datasets show that the proposed method can achieve a relatively higher training efficiency, as well as ensure a good generalization performance of the learner. Finally, the effectiveness of the proposed method is verified.
Sampling methods are powerful approaches to solving the problems of structural reliability analysis and estimating the failure probability of structures. In this paper, a new sampling method is proposed offering lower variance and lower computational cost for complex and high-dimensional problems. The method is called Optimal Latinized partially stratified sampling (OLPSS) as it is based upon the Latinized Partially Stratified Sampling (LPSS) which itself is based on merging Stratified Sampling (SS) and Latin Hypercube Sampling (LHS) algorithms. While LPSS has a low variance, it may suffer from a lack of good space-filling of its generated samples in some cases. In the OLPSS, this issue has been resolved by employing a new columnwise-pairwise exchange optimization procedure for sample generation. The efficiency of the OLPSS has been tested and reported under several benchmark mathematical functions and structural examples including structures with a large number of variables (e.g., a structure with 67 variables). The proposed method provides highly accurate estimates of the failure probability of structures with a significantly lower variance relative to the Monte Carlo simulations, Latin Hypercube, and standard LPSS.
This study presents an innovative method to estimate the reliability sensitivity based on the low-discrepancy sampling which is a new technique for structural reliability analysis. Two advantages are contributed to the method: one is that, by developing a general importance sampling procedure for reliability sensitivity analysis, the partial derivative of the failure probability with respect to the distribution parameter can be directly obtained with typically insignificant additional computations on the basis of structural reliability analysis; and the other is that, by combining various low-discrepancy sequences with the above importance sampling procedure, the proposed method is far more efficient than that based on the classical Monte Carlo method in estimating reliability sensitivity, especially for problems of small failure probability or problems that require a large number of costly finite element analyses. Examples involving both numerical and structural problems illustrate the application and effectiveness of the method developed, which indicate that the proposed method can provide accurate and computationally efficient estimates of reliability sensitivity.
A quasi ideal importance sampling simulation method combined in the conditional expectation is proposed for the structural reliability estimation. The quasi ideal importance sampling joint probability density function (p.d.f.) is so composed on the basis of the ideal importance sampling concept as to be proportional to the conditional failure probability multiplied by the p.d.f. of the sampling variables. The respective marginal p.d.f.s of the ideal importance sampling joint p.d.f. are determined numerically by the simulations and partly by the piecewise integrations. The quasi ideal importance sampling simulations combined in the conditional expectation are executed to estimate the failure probabilities of structures with multiple failure surfaces and it is shown that the proposed method gives accurate estimations efficiently.
Communications for Statistical Applications and Methods
/
v.14
no.3
/
pp.667-677
/
2007
In this paper, we propose a method for estimating the mean of a population which has a linear trend, when both n, the sample size, and k, the reciprocal of the sampling fraction, are odd numbers. The proposed method, not having the drawbacks of centered systematic sampling, centered modified sampling and centered balanced sampling, consists of selecting a sample by balanced systematic sampling and estimating the population mean by using interpolation. We compare the efficiency of the proposed method and existing methods under the criterion of the expected mean square error based on the infinite superpopulation model.
Transactions of the Korean Society of Mechanical Engineers A
/
v.33
no.12
/
pp.1464-1470
/
2009
RBDO approach based on a sampling method with the Kriging metamodel and Constraint Boundary Sampling (CBS), which is sequential sampling method to generate metamodels is proposed. The major advantage of the proposed RBDO approach is that it does not require Most Probable failure Point (MPP) which is essential for First-Order Reliability Method (FORM)-based RBDO approach. The Monte Carlo Sampling (MCS), most well-known method of the sampling methods for the reliability analysis is used to assess the reliability of constraints. In addition, a Cumulative Distribution Function (CDF) of the constraints is approximated using Moving Least Square (MLS) method from empirical distribution function. It is possible to acquire a probability of failure and its analytic sensitivities by using an approximate function of the CDF for the constraints. Moreover, a concept of inactive design is adapted to improve a numerical efficiency of the proposed approach. Computational accuracy and efficiency of the proposed RBDO approach are demonstrated by numerical and engineering problems.
Fatehi, Mohammad Reza;Ghanbarzadeh, Afshin;Moradi, Shapour;Hajnayeb, Ali
Structural Engineering and Mechanics
/
v.68
no.5
/
pp.549-561
/
2018
Sobol method is applied as a powerful variance decomposition technique in the field of global sensitivity analysis (GSA). The paper is devoted to increase convergence speed of the extracted Sobol indices using a new proposed sampling technique called genetic based Latine hypercube sampling (GBLHS). This technique is indeed an improved version of restricted Latine hypercube sampling (LHS) and the optimization algorithm is inspired from genetic algorithm in a new approach. The new approach is based on the optimization of minimax value of LHS arrays using manipulation of array indices as chromosomes in genetic algorithm. The improved Sobol method is implemented to perform factor prioritization and fixing of an uncertain comprehensive high speed rotor-bearing system. The finite element method is employed for rotor-bearing modeling by considering Eshleman-Eubanks assumption and interaction of axial force on the rotor whirling behavior. The performance of the GBLHS technique are compared with the Monte Carlo Simulation (MCS), LHS and Optimized LHS (Minimax. criteria). Comparison of the GBLHS with other techniques demonstrates its capability for increasing convergence speed of the sensitivity indices and improving computational time of the GSA.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.