• 제목/요약/키워드: acquisition probability

검색결과 147건 처리시간 0.027초

Rework 확률이 제품의 품질과 납기준수에 영향을 주는 공정을 위한 문제공간기반 탐색 알고리즘 (Problem space based search algorithm for manufacturing process with rework probabilities affecting product quality and tardiness)

  • 강용하;이영섭;신현준
    • 한국산학기술학회논문지
    • /
    • 제10권7호
    • /
    • pp.1702-1710
    • /
    • 2009
  • 본 논문은 rework 발생확률을 고려하는 병렬기계 스케줄링 문제를 위해 문제공간기반 탐색 알고리즘을 제안한다. 각 기계와 작업유형별로 rework 발생확률이 존재하며 이것은 자동화된 공정에서 과거데이터로부터 산출가능하다. 스케줄링 문제의 데이터 벡터 (가공시간, 납기, 셋업시간, rework확률)를 교란시킴으로써 이웃해를 생성하고 이로부터 도출된 해는 EDDR이라는 효과적인 휴리스틱을 이용하여 평가한다. 제안된 알고리즘은 납기지연의 최대값과 rewok 발생 작업수로 평가함으로써 제품의 품질과 납기수준을 동시에 고려할 수 있도록 한다.

Securing a Cyber Physical System in Nuclear Power Plants Using Least Square Approximation and Computational Geometric Approach

  • Gawand, Hemangi Laxman;Bhattacharjee, A.K.;Roy, Kallol
    • Nuclear Engineering and Technology
    • /
    • 제49권3호
    • /
    • pp.484-494
    • /
    • 2017
  • In industrial plants such as nuclear power plants, system operations are performed by embedded controllers orchestrated by Supervisory Control and Data Acquisition (SCADA) software. A targeted attack (also termed a control aware attack) on the controller/SCADA software can lead a control system to operate in an unsafe mode or sometimes to complete shutdown of the plant. Such malware attacks can result in tremendous cost to the organization for recovery, cleanup, and maintenance activity. SCADA systems in operational mode generate huge log files. These files are useful in analysis of the plant behavior and diagnostics during an ongoing attack. However, they are bulky and difficult for manual inspection. Data mining techniques such as least squares approximation and computational methods can be used in the analysis of logs and to take proactive actions when required. This paper explores methodologies and algorithms so as to develop an effective monitoring scheme against control aware cyber attacks. It also explains soft computation techniques such as the computational geometric method and least squares approximation that can be effective in monitor design. This paper provides insights into diagnostic monitoring of its effectiveness by attack simulations on a four-tank model and using computation techniques to diagnose it. Cyber security of instrumentation and control systems used in nuclear power plants is of paramount importance and hence could be a possible target of such applications.

An Optimization Method for the Calculation of SCADA Main Grid's Theoretical Line Loss Based on DBSCAN

  • Cao, Hongyi;Ren, Qiaomu;Zou, Xiuguo;Zhang, Shuaitang;Qian, Yan
    • Journal of Information Processing Systems
    • /
    • 제15권5호
    • /
    • pp.1156-1170
    • /
    • 2019
  • In recent years, the problem of data drifted of the smart grid due to manual operation has been widely studied by researchers in the related domain areas. It has become an important research topic to effectively and reliably find the reasonable data needed in the Supervisory Control and Data Acquisition (SCADA) system has become an important research topic. This paper analyzes the data composition of the smart grid, and explains the power model in two smart grid applications, followed by an analysis on the application of each parameter in density-based spatial clustering of applications with noise (DBSCAN) algorithm. Then a comparison is carried out for the processing effects of the boxplot method, probability weight analysis method and DBSCAN clustering algorithm on the big data driven power grid. According to the comparison results, the performance of the DBSCAN algorithm outperforming other methods in processing effect. The experimental verification shows that the DBSCAN clustering algorithm can effectively screen the power grid data, thereby significantly improving the accuracy and reliability of the calculation result of the main grid's theoretical line loss.

Evaluating Conversion Rate from Advertising in Social Media using Big Data Clustering

  • Alyoubi, Khaled H.;Alotaibi, Fahd S.
    • International Journal of Computer Science & Network Security
    • /
    • 제21권7호
    • /
    • pp.305-316
    • /
    • 2021
  • The objective is to recognize the better opportunities from targeted reveal advertising, to show a banner ad to the consumer of online who is most expected to obtain a preferred action like signing up for a newsletter or buying a product. Discovering the most excellent commercial impression, it means the chance to exhibit an advertisement to a consumer needs the capability to calculate the probability that the consumer who perceives the advertisement on the users browser will acquire an accomplishment, that is the consumer will convert. On the other hand, conversion possibility assessment is a demanding process since there is tremendous data growth across different information dimensions and the adaptation event occurs infrequently. Retailers and manufacturers extensively employ the retail services from internet as part of a multichannel distribution and promotion strategy. The rate at which web site visitors transfer to consumers is low for online retail, out coming in high customer acquisition expenses. Approximately 96 percent of web site users concluded exclusive of no shopper purchase[1].This category of conversion rate is collected from the advertising of social media sites and pages that dataset must be estimating and assessing with the concept of big data clustering, which is used to group the particular age group of people along with their behavior. This makes to identify the proper consumer of the production which leads to improve the profitability of the concern.

Process Fault Probability Generation via ARIMA Time Series Modeling of Etch Tool Data

  • Arshad, Muhammad Zeeshan;Nawaz, Javeria;Park, Jin-Su;Shin, Sung-Won;Hong, Sang-Jeen
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2012년도 제42회 동계 정기 학술대회 초록집
    • /
    • pp.241-241
    • /
    • 2012
  • Semiconductor industry has been taking the advantage of improvements in process technology in order to maintain reduced device geometries and stringent performance specifications. This results in semiconductor manufacturing processes became hundreds in sequence, it is continuously expected to be increased. This may in turn reduce the yield. With a large amount of investment at stake, this motivates tighter process control and fault diagnosis. The continuous improvement in semiconductor industry demands advancements in process control and monitoring to the same degree. Any fault in the process must be detected and classified with a high degree of precision, and it is desired to be diagnosed if possible. The detected abnormality in the system is then classified to locate the source of the variation. The performance of a fault detection system is directly reflected in the yield. Therefore a highly capable fault detection system is always desirable. In this research, time series modeling of the data from an etch equipment has been investigated for the ultimate purpose of fault diagnosis. The tool data consisted of number of different parameters each being recorded at fixed time points. As the data had been collected for a number of runs, it was not synchronized due to variable delays and offsets in data acquisition system and networks. The data was then synchronized using a variant of Dynamic Time Warping (DTW) algorithm. The AutoRegressive Integrated Moving Average (ARIMA) model was then applied on the synchronized data. The ARIMA model combines both the Autoregressive model and the Moving Average model to relate the present value of the time series to its past values. As the new values of parameters are received from the equipment, the model uses them and the previous ones to provide predictions of one step ahead for each parameter. The statistical comparison of these predictions with the actual values, gives us the each parameter's probability of fault, at each time point and (once a run gets finished) for each run. This work will be extended by applying a suitable probability generating function and combining the probabilities of different parameters using Dempster-Shafer Theory (DST). DST provides a way to combine evidence that is available from different sources and gives a joint degree of belief in a hypothesis. This will give us a combined belief of fault in the process with a high precision.

  • PDF

VLCC 축계 시스템의 유연성 확보 방안에 관한 연구 (A Study on Flexibility Acquisition Method for VLCC Shaft System)

  • 신상훈;고대은
    • 한국산학기술학회논문지
    • /
    • 제18권12호
    • /
    • pp.135-139
    • /
    • 2017
  • VLCC 추진축계의 선미관 후부 베어링에서 주로 발생하는 발열 사고는 프로펠러 하중이 추진축을 처지게 하여 후방부에 과도한 국부압착압력이 작용하는 것이 주된 원인이다. 최근 VLCC는 엔진 출력이 크고 축 직경이 증가하는 반면 선미관전부 베어링과 후부 베어링 사이의 간격이 상대적으로 짧아져 축계 시스템의 유연성이 저하되는 경향이 있으며, 이로 인해 발열 사고 가능성에 대한 우려가 커지고 있다. 본 연구에서는 선체의 변형에 대한 축계의 유연성을 확보하기 위한 방안으로 선미관 전부 베어링을 삭제하고 선미관 후부 베어링만을 설치한 새로운 축계 시스템의 적용 가능성을 검토하였다. 국부압착압력의 계산에 있어서는 접촉 너비를 따라 반 타원 형상의 압력 분포를 가정한 Hertzian 접촉 조건을 도입하였으며, 엔진 가동 상태의 프로펠러 하중, 열 효과 및 선체 변형을 고려하였다. 제안된 축계 시스템에 대한 해석을 통해 선미관 후부 베어링의 축 접촉면 재료인 화이트 메탈에 부분 경사를 추가 시공함으로써 설계 요구 조건이 만족됨을 확인하였다. 제안된 축계 시스템의 적용을 통해 발열 사고 예방을 위한 축계 유연성 확보 뿐 만 아니라 시스템의 단순화를 통한 설치비용의 감소 등 부가적인 효과도 기대할 수 있다.

북한산국립공원 내 토지매수 청구 제도 활용 요인 분석 (Analyzing Factors Affecting the Use of Landowner's Purchase Requisition Policy in Bukhansan National Park)

  • 성찬용;이영재
    • 한국환경생태학회지
    • /
    • 제37권6호
    • /
    • pp.499-507
    • /
    • 2023
  • 본 연구에서는 토지매수 청구 제도에 의한 국립공원 내 사유지 매수 현황을 분석하여, 토지매수 청구 제도의 유용성과 한계, 정책 시사점을 도출하였다. 토지매수 청구 제도가 도입된 2006년부터 2021년까지 국가가 매수한 사유지 데이터를 활용하여, 토지 소유자의 매수 청구 결정에 영향을 미치는 요인들을 로지스틱 회귀분석을 통해 분석하였다. 분석 결과, 사유지의 지목이 임야이고, 사유지 면적 중 공원자연보존지구 면적이 높으며, 공원 경계까지 거리가 멀고, 단위면적당 공시지가가 낮은 사유지가 매수 청구에 의해 매수될 확률이 높았다. 이 결과는 토지 소유자 관점에서 보면 재산권 행사가 어려운 사유지일수록 매수 청구될 확률이 높다는 뜻이고, 공원 관리자의 관점에서 보면 보전 가치가 높은 사유지가 매수 청구될 확률이 높다는 의미이다. 즉, 토지매수 청구 제도를 활용하여 사유지 매수를 진행해도 보전가치가 높은 토지를 매수할 수 있어, 높은 자연환경 보전 효과를 기대할 수 있다. 로지스틱 회귀모형은 또한 북한산국립공원 내 사유지 중 401m2의 사유지가 향후 매수 청구될 확률이 높을 것으로 예측하였다. 토지매수 청구 제도는 국립공원 내 토지 소유자의 민원 해소에 효과적인 제도임에도 현재 활용도가 매우 낮은데, 본 연구에서는 실증 분석 결과를 바탕으로 제도의 활용도를 높일 수 있는 정책 방안을 제시하였다.

다중센서 융합 및 다수모델 필터 개념을 적용한 강인한 기동물체 추적 (Robust Maneuvering Target Tracking Applying the Concept of Multiple Model Filter and the Fusion of Multi-Sensor)

  • 현대환;윤희병
    • 지능정보연구
    • /
    • 제15권1호
    • /
    • pp.51-64
    • /
    • 2009
  • 다중센서를 이용한 기동물체의 추적은 GPS, INS, 레이더 및 광학장비 등의 위치추적 센서가 이용되며, 이러한 시스템은 UAV, 유도미사일, 우주선 등의 추적 탐지 통제를 위해 사용된다. 기동물체의 위치추적과 관련한 대부분의 연구는 다수의 레이더를 융합하거나 INS, GPS에 보조센서 추가하는 것이다. 하지만 이기종의 센서는 각 시스템특성 및 오차특성이 상이하므로 융합 간에 이를 고려하여 반영강도를 달리하는 연구가 필요하다. 본 논문에서는 다중센서 융합에 의한 추적 성능 향상을 위해 GPS, INS에 지상 레이더를 추가하여 각 센서특성에 따른 오차분석을 실시하고, 융합 간 오차특성에 따라 각 센서의 Sensor Probability를 변화시켜 정밀도와 안정성을 향상시키는 추적 알고리즘을 제안한다. 평가를 위해 UAV의 기동모델에 대한 시뮬레이션을 통해 고도값을 추출하고 제안 알고리즘을 적용하여 성능분석을 실시한다. 연구를 통해 각 센서의 항법정보 융합 간에 오차정도에 따라 측정치의 반영강도를 변화시켜 항법정보의 정확도 향상과 외부의 고의적인 환경변화 및 교란에도 강인한 추적이 가능하다.

  • PDF

유한모집단에서 가중평균에 포함된 가중치의 효과 (Weighting Effect on the Weighted Mean in Finite Population)

  • 김규성
    • 한국조사연구학회지:조사연구
    • /
    • 제7권2호
    • /
    • pp.53-69
    • /
    • 2006
  • 표본조사에서 가중치는 설계 단계와 분석 단계에서 만들어지고 부여될 수 있다. 설계 단계의 가중치는 추출확률이나 응답률 등과 같은 표본 데이터 획득 지표에 관련되어 있고 분석 단계의 가중치는 모집단 수치나 다른 보조 변수정보 등과 같은 외적인 정보와 관련되어 있다. 그리고 최종가중치는 설계 단계의 가중치와 분석 단계의 가중치의 곱으로 만들어진다. 이 논문에서는 분석 단계에서 부여되는 가중치에 초점을 맞추어 가중평균으로 모평균을 추정할 때 가중평균에 포함된 가중치가 모평균 추론에 미치는 영향을 고찰하였다. 유한모집단에서 각 조사단위에 조사변수와 가중치가 쌍으로 있고 표본추출확률이 균등한 경우를 가정하였다. 이러한 조건에서 가중평균의 편향과 평균제곱오차를 구하여 가중평균은 모평균의 편향 추정량임을 보였고, 편향의 방향과 크기는 조사변수와 가중치의 상관관계로 설명할 수 있음을 보였다. 즉, 만일 가중치와 조사변수가 양의 상관관계가 있으면 가중평균은 모평균을 과대 추정하게 되고, 만일 음의 상관관계가 있으면 모평균을 과소 추정하게 된다. 그리고 두 변수의 상관계수가 크면 편향은 증가한다. 가중평균에 대한 이론적인 수식 유도와 함께 편향의 크기와 평균제곱오차의 크기를 수치적으로 검토하기 위하여 모의실험을 실시하였다. 모의실험에서는 상관계수가 -0.2과 0.6사이에 있는 9개의 가중치를 생성하였고, 표본수는 100부터 400까지 고려하여 편향의 크기와 평균제곱오차의 크기를 수치적으로 구하였다. 하나의 결과로써 상관계수가 0.55이고 표본수가 400인 경우에 가중평균의 편향의 제곱이 평균제곱오차에서 차지하는 비율은 무려 82%에 이르는 것으로 나타났는데, 이는 가중평균의 편향이 어떤 경우에는 매우 심각할 수도 있음을 보여주는 것이다.

  • PDF

개에서 컴퓨터단층촬영을 이용한 두부 외상의 평가 3례 (Computed Tomographic Evaluation of Three Canine Patients with Head Trauma)

  • 김태훈;김주형;조항묘;천행복;강지훈;나기정;모인필;이영원;최호정;김근형;장동우
    • 한국임상수의학회지
    • /
    • 제24권4호
    • /
    • pp.667-672
    • /
    • 2007
  • This report describes the use of conventional computed tomography(CT) for the diagnosis of head trauma in three canine patients. According to physical and neurologic examinations, survey radiography and computed tomography, these patients were diagnosed as traumatic brain injury. Especially, CT is the imaging modality of first choice for head trauma patients. It provides rapid acquisition of images, superior bone detail, and better visualization of acute hemorrhage than magnetic resonance imaging. It is also less expensive and more readily available. Pre-contrast computed tomography was used to image the head. Then, post-contrast CT was performed using the same technique. The Modified Glasgow Coma Scale(MGCS) score was used to predict their probability of survival rate after head trauma in these dogs. Computed tomogram showed fluid filled tympanic bulla, fracture of the left temporal bone and cerebral parenchymal hemorrhage with post contrast ring enhancement. However, in one case, computed tomographic examination didn't delineate cerebellar parenchymal hemorrhage, which was found at postmortem examination. Treatments for patients placed in intensive care were focused to maintain cerebral perfusion pressure and to normalize intracranial pressure. In these cases, diagnostic computed tomography was a useful procedure. It revealed accurate location of the hemorrhage lesion.