• 제목/요약/키워드: Rigorous approach

검색결과 189건 처리시간 0.026초

Mooring chain fatigue analysis of a deep draft semi-submersible platform in central Gulf of Mexico

  • Jun Zou
    • Ocean Systems Engineering
    • /
    • 제14권2호
    • /
    • pp.171-210
    • /
    • 2024
  • This paper focuses on the rigorous and holistic fatigue analysis of mooring chains for a deep draft semi-submersible platform in the challenging environment of the central Gulf of Mexico (GoM). Known for severe hurricanes and strong loop/eddy currents, this region significantly impacts offshore structures and their mooring systems, necessitating robust designs capable of withstanding extreme wind, wave and current conditions. Wave scatter and current bin diagrams are utilized to assess the probabilistic distribution of waves and currents, crucial for calculating mooring chain fatigue. The study evaluates the effects of Vortex Induced Motion (VIM), Out-of-Plane-Bending (OPB), and In-Plane-Bending (IPB) on mooring fatigue, alongside extreme single events such as 100-year hurricanes and loop/eddy currents including ramp-up and ramp-down phases, to ensure resilient mooring design. A detailed case study of a deep draft semi-submersible platform with 16 semi-taut moorings in 2,500 meters of water depth in the central GoM provides insights into the relative contributions of wave scatter diagram, VIMs from current bin diagram, the combined stresses of OPB/IPB/TT and extreme single events. By comparing these factors, the study aims to enhance understanding and optimize mooring system design for safety, reliability, and cost-effectiveness in offshore operations within the central GoM. The paper addresses a research gap by proposing a holistic approach that integrates findings from various contributions to advance current practices in mooring design. It presents a comprehensive framework for fatigue analysis and design optimization of mooring systems in the central GoM, emphasizing the critical importance of considering environmental conditions, OPB/IPB moments, and extreme single events to ensure the safety and reliability of mooring systems for offshore platforms.

Improved Deep Learning-based Approach for Spatial-Temporal Trajectory Planning via Predictive Modeling of Future Location

  • Zain Ul Abideen;Xiaodong Sun;Chao Sun;Hafiz Shafiq Ur Rehman Khalil
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권7호
    • /
    • pp.1726-1748
    • /
    • 2024
  • Trajectory planning is vital for autonomous systems like robotics and UAVs, as it determines optimal, safe paths considering physical limitations, environmental factors, and agent interactions. Recent advancements in trajectory planning and future location prediction stem from rapid progress in machine learning and optimization algorithms. In this paper, we proposed a novel framework for Spatial-temporal transformer-based feed-forward neural networks (STTFFNs). From the traffic flow local area point of view, skip-gram model is trained on trajectory data to generate embeddings that capture the high-level features of different trajectories. These embeddings can then be used as input to a transformer-based trajectory planning model, which can generate trajectories for new objects based on the embeddings of similar trajectories in the training data. In the next step, distant regions, we embedded feedforward network is responsible for generating the distant trajectories by taking as input a set of features that represent the object's current state and historical data. One advantage of using feedforward networks for distant trajectory planning is their ability to capture long-term dependencies in the data. In the final step of forecasting for future locations, the encoder and decoder are crucial parts of the proposed technique. Spatial destinations are encoded utilizing location-based social networks(LBSN) based on visiting semantic locations. The model has been specially trained to forecast future locations using precise longitude and latitude values. Following rigorous testing on two real-world datasets, Porto and Manhattan, it was discovered that the model outperformed a prediction accuracy of 8.7% previous state-of-the-art methods.

Molecular survey of Toxoplasma gondii B1 gene in pigs from various localities in Korea

  • Dongmi Kwak;Min-Goo Seo
    • Parasites, Hosts and Diseases
    • /
    • 제62권3호
    • /
    • pp.294-301
    • /
    • 2024
  • Toxoplasma gondii, a common protozoan parasite, poses significant public health risks due to its potential to cause toxoplasmosis in humans and can be contracted from pigs, which are considered its critical intermediate host. The aim of this study is to evaluate the prevalence of T. gondii in slaughtered pigs for human consumption, emphasizing the zoonotic implications and the need for improved biosecurity and monitoring practices in pig farming. A total of 1,526 pig samples (1,051 whole blood samples and 384 lung tissue samples from the local slaughterhouse and 91 aborted fetus samples from local farms) were collected throughout the whole country of Korea in 2020. Among them, 6 (0.4%) were found to be infected with T. gondii by nested PCR. When compared by sample type, the prevalence of T. gondii was significantly higher in the aborted fetus samples (2.2%, 2/91) than in the blood (0.3%, 3/1,051) and lung tissue samples (0.3%, 1/384). The B1 gene sequence of T. gondii was similar (97.9-99.8%) to that of the other T. gondii isolates. This study represents the first molecular genotyping survey of T. gondii in the lung tissue of fattening pigs and aborted fetuses in Korea. Our findings indicated the importance of adopting preventive measures including the implementation of rigorous farm hygiene protocols and the promotion of public awareness about the risks of consuming undercooked pork. By addressing the gaps in current control strategies and encouraging the One Health approach, this study contributes to the development of more effective strategies to mitigate the transmission of T. gondii from pigs to humans, ultimately safeguarding public health.

Seismic structural demands and inelastic deformation ratios: a theoretical approach

  • Chikh, Benazouz;Mebarki, Ahmed;Laouami, Nacer;Leblouba, Moussa;Mehani, Youcef;Hadid, Mohamed;Kibboua, Abderrahmane;Benouar, Djilali
    • Earthquakes and Structures
    • /
    • 제12권4호
    • /
    • pp.397-407
    • /
    • 2017
  • To estimate the structural seismic demand, some methods are based on an equivalent linear system such as the Capacity Spectrum Method, the N2 method and the Equivalent Linearization method. Another category, widely investigated, is based on displacement correction such as the Displacement Coefficient Method and the Coefficient Method. Its basic concept consists in converting the elastic linear displacement of an equivalent Single Degree of Freedom system (SDOF) into a corresponding inelastic displacement. It relies on adequate modifying or reduction coefficient such as the inelastic deformation ratio which is usually developed for systems with known ductility factors ($C_{\mu}$) and ($C_R$) for known yield-strength reduction factor. The present paper proposes a rational approach which estimates this inelastic deformation ratio for SDOF bilinear systems by rigorous nonlinear analysis. It proposes a new inelastic deformation ratio which unifies and combines both $C_{\mu}$ and $C_R$ effects. It is defined by the ratio between the inelastic and elastic maximum lateral displacement demands. Three options are investigated in order to express the inelastic response spectra in terms of: ductility demand, yield strength reduction factor, and inelastic deformation ratio which depends on the period, the post-to-preyield stiffness ratio, the yield strength and the peak ground acceleration. This new inelastic deformation ratio ($C_{\eta}$) is describes the response spectra and is related to the capacity curve (pushover curve): normalized yield strength coefficient (${\eta}$), post-to-preyield stiffness ratio (${\alpha}$), natural period (T), peak ductility factor (${\mu}$), and the yield strength reduction factor ($R_y$). For illustrative purposes, instantaneous ductility demand and yield strength reduction factor for a SDOF system subject to various recorded motions (El-Centro 1940 (N/S), Boumerdes: Algeria 2003). The method accuracy is investigated and compared to classical formulations, for various hysteretic models and values of the normalized yield strength coefficient (${\eta}$), post-to-preyield stiffness ratio (${\alpha}$), and natural period (T). Though the ductility demand and yield strength reduction factor differ greatly for some given T and ${\eta}$ ranges, they remain take close when ${\eta}>1$, whereas they are equal to 1 for periods $T{\geq}1s$.

벼의 차세대 단백질체 분석을 위한 질량분석기 호환의 광분해성 계면활성제의 적용 (Application of mass-spectrometry compatible photocleavable surfactant for next-generation proteomics using rice leaves)

  • 신혜원;응웬반쯔엉;정주용;이기현;장정우;윤진미;라비굽타;김선태;민철우
    • Journal of Plant Biotechnology
    • /
    • 제48권3호
    • /
    • pp.165-172
    • /
    • 2021
  • 식물과 동물 모두 단백질체 분석을 위해 계면활성제를 사용하여 단백질을 효과적으로 가용화 하는 것은 매우 중요하다. 여러 계면활성제 중 광분해성의 Azo는 MS 분석에 적합하며 단백질을 효과적으로 잘 가용화 하는 등의 여러 이점을 보여주었다. 그러나 대부분이 동물 단백질체 분석에 적용되어 있었으며 식물 단백질체 분석에의 적용은 미비하였다. 따라서 본 연구에서는 벼 잎의 단백질체 분석을 위한 계면활성제로 Azo를 사용하여 SDS와 비교 분석을 수행하였다. 비표지 단백질체 정량 분석, 단백질 기능 분석, 세포내 단백질체의 위치 확인 분석 및 KEGG 경로 분석을 수행하였으며, 그 결과 SDS와 비교하였을 때 Azo의 단백질 가용화 효율이 전혀 떨어지지 않음을 확인하였다. 이는 앞으로 벼 뿐만 아니라 식물단백질체 분석 시에 광분해성 계면활성제인 Azo의 적용 가능성이 무궁무진함을 의미 한다.

Methane으로부터 13C 동위원소 분리를 위한 회분식 및 연속식 극저온 증류공정모사 비교 연구 (A Comparison Study between Batch and Continuous Process Simulation for the Separation of Carbon-13 Isotope by Cryogenic Distillation)

  • 김종환;이덕형;이의수;박상진
    • Korean Chemical Engineering Research
    • /
    • 제45권1호
    • /
    • pp.57-66
    • /
    • 2007
  • 일반적으로 천연가스는 대부분의 $^{12}C$로 구성되어 있고 탄소 동위원소 $^{13}C$ 성분이 약 1.1%가 분포되어 있다. $^{13}C$은 안정한 동위원소로써 의학, 약리학, 농학 등 많은 분야에 트레이서 물질로 사용되는 중요한 원소이다. 따라서 가스 성분의 탄소로부터 $^{13}C$를 분리 및 농축하는 기술 개발은 고부가가치 제품을 생산할 수 있으며, 새로운 탄소 소재 산업의 개발 가능성을 부여할 것이다. 안정적인 $^{13}C$ 동위원소를 극저온 증류로 분리하는 일반적인 두가지 방법이 있는데 첫번째는 천연가스로부터 $^{13}CH_4$ 동위원소를 농축하는 방법이고 또 다른 방법은 $CH_4$$H_2O$의 화학 반응을 통하여 얻어진 $^{13}CO$를 증류를 통해 농축하는 방법이다. 본 연구에서는 LNG 또는 NG로부터 $^{13}C$ 동위원소를 분리 농축하기 위하여 상용 공정모사기를 사용하여 Rigorous한 극저온 증류 공정모사를 수행하고 검토하였다. $^{13}CH_4$$^{12}CH_4$간의 상대 휘발도나 분리도의 값이 매우 작아 공정 설계 및 $^{13}C$의 효과적인 분리 및 농축 작업은 특수한 전략 및 Feasibility Study가 필요하다. SRK 상태방정식의 Acentric factor를 증기압 데이터에 부합하는 Acentric factor 값을 구하여 농축 전략 및 Feasibility Study에 따른 최적화된 공정 조건으로 극저온 증류를 통한 $^{13}C$의 분리 효율 및 농축 경향을 예측할 수 있었다. 회분식 및 연속식 극저온 증류공정의 여러 가지 운전 전략을 연구하고 공정의 기본 설계를 제안하였다. 본 연구에서는 $^{13}C$의 극저온 분리의 효과적인 설계 및 운전 방법을 제시할 수 있었다.

유통과학분야에서 탐색적 연구를 위한 요인분석 (Factor Analysis for Exploratory Research in the Distribution Science Field)

  • 임명성
    • 유통과학연구
    • /
    • 제13권9호
    • /
    • pp.103-112
    • /
    • 2015
  • Purpose - This paper aims to provide a step-by-step approach to factor analytic procedures, such as principal component analysis (PCA) and exploratory factor analysis (EFA), and to offer a guideline for factor analysis. Authors have argued that the results of PCA and EFA are substantially similar. Additionally, they assert that PCA is a more appropriate technique for factor analysis because PCA produces easily interpreted results that are likely to be the basis of better decisions. For these reasons, many researchers have used PCA as a technique instead of EFA. However, these techniques are clearly different. PCA should be used for data reduction. On the other hand, EFA has been tailored to identify any underlying factor structure, a set of measured variables that cause the manifest variables to covary. Thus, it is needed for a guideline and for procedures to use in factor analysis. To date, however, these two techniques have been indiscriminately misused. Research design, data, and methodology - This research conducted a literature review. For this, we summarized the meaningful and consistent arguments and drew up guidelines and suggested procedures for rigorous EFA. Results - PCA can be used instead of common factor analysis when all measured variables have high communality. However, common factor analysis is recommended for EFA. First, researchers should evaluate the sample size and check for sampling adequacy before conducting factor analysis. If these conditions are not satisfied, then the next steps cannot be followed. Sample size must be at least 100 with communality above 0.5 and a minimum subject to item ratio of at least 5:1, with a minimum of five items in EFA. Next, Bartlett's sphericity test and the Kaiser-Mayer-Olkin (KMO) measure should be assessed for sampling adequacy. The chi-square value for Bartlett's test should be significant. In addition, a KMO of more than 0.8 is recommended. The next step is to conduct a factor analysis. The analysis is composed of three stages. The first stage determines a rotation technique. Generally, ML or PAF will suggest to researchers the best results. Selection of one of the two techniques heavily hinges on data normality. ML requires normally distributed data; on the other hand, PAF does not. The second step is associated with determining the number of factors to retain in the EFA. The best way to determine the number of factors to retain is to apply three methods including eigenvalues greater than 1.0, the scree plot test, and the variance extracted. The last step is to select one of two rotation methods: orthogonal or oblique. If the research suggests some variables that are correlated to each other, then the oblique method should be selected for factor rotation because the method assumes all factors are correlated in the research. If not, the orthogonal method is possible for factor rotation. Conclusions - Recommendations are offered for the best factor analytic practice for empirical research.

데이터 기반 확률론적 최적제어와 근사적 추론 기반 강화 학습 방법론에 관한 고찰 (Investigations on data-driven stochastic optimal control and approximate-inference-based reinforcement learning methods)

  • 박주영;지승현;성기훈;허성만;박경욱
    • 한국지능시스템학회논문지
    • /
    • 제25권4호
    • /
    • pp.319-326
    • /
    • 2015
  • 최근들어, 확률론적 최적제어(stochastic optimal control) 및 강화학습(reinforcement learning) 분야에서는 데이터를 활용하여 준최적 제어 전략을 찾는 문제를 위한 많은 연구 노력이 있어 왔다. 가치함수(value function) 기반 동적 계획법(dynamic programming)으로 최적제어기를 구하는 고전적인 이론은 확률론적 최적 제어 문제를 풀기위해 확고한 이론적 근거 아래 확립된바 있다. 하지만, 이러한 고전적 이론은 매우 간단한 경우에만 성공적으로 적용될 수 있다. 그러므로, 엄밀한 수학적 분석 대신에 상태 전이 및 보상 신호 값 등의 관련 데이터를 활용하여 준최적해를 구하고자 하는 데이터 기반 현대적 접근 방법들은 실용적인 응용분야에서 특히 매력적이다. 본 논문에서는 확률론적 최적제어 전략과 근사적 추론 및 기계학습 기반 데이터 처리 방법을 접목하는 방법론들을 고려한다. 그리고 이러한 고려를 통하여 얻어진 방법론들을 금융공학을 포함한 다양한 응용 분야에 적용하고 그들의 성능을 관찰해보도록 한다.

자율 컴퓨팅을 적용한 SOA 서비스 결함 관리 기법 (A Method to Manage Faults in SOA using Autonomic Computing)

  • 천두완;이재유;라현정;김수동
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권12호
    • /
    • pp.716-730
    • /
    • 2008
  • 서비스 지향 아키텍처에서 서비스 제공자는 재사용 가능한 서비스를 개발하고 저장소에 배포하며, 서비스 사용자는 인터페이스를 통하여 블랙박스 컴포넌트 형태의 서비스를 사용한다. 저장소에 배포된 서비스는 시간이 지남에 따라 변경/진화될 가능성이 높고, 다양한 언어 또는 플랫폼을 사용하여 구현되는 이질성(Heterogeneity)을 가진다. 이런 이유로, 서비스 사용자는 서비스 내부 구조를 알기 힘들기 때문에, 서비스가 기능을 수행하는 도중 문제점이 발생하면 문제점을 식별하여 해결하는 등의 서비스 결함을 효과적으로 관리하는 것이 어렵다. 자율 컴퓨팅(Autonomic Computing, AC)은 사람의 개입을 최소화하고 시스템이 스스로의 결함을 관리하도록 설계하는 방식이다. AC는 시스템을 자율적으로 결함을 관리할 수 있는 주요 원칙들을 제안하고 있으므로, 서비스 결함 관리에 관한 기술적 이슈들은 AC의 기법들을 사용하여 해결될 수 있다. 본 논문에서는 SOA 환경에서 자율적으로 서비스의 결함을 관리하기 위한 이론적 모델인 Symptom-Cause-Actuator(SCA) 모델을 제시한다. SCA 모델은 의사가 환자를 치료하는 과정으로부터 유도된다. 먼저, 다섯 단계로 구성된 SCA 컴퓨팅 모델을 정의하고 SCA의 메타모델을 제안한다. 또한, SCA 모델의 저장소 역할을 하는 SCA 프로파일을 정의하고, SCA 프로파일에 저장되는 symptom, cause, actuator의 인스턴스와 이들 간의 의존 관계를 기계가 인식할 수 있는 형식으로 표현한다. 그리고, 서비스의 결함을 자율적으로 관리하는 컴퓨팅 모델의 다섯 단계를 수행하는데 필요한 알고리즘을 상세하게 기술한다. 마지막으로, SCA 모델의 실행 가능성을 보여주기 위하여, SCA 프로파일과 알고리즘을 구현한 프로토타입을 '비행기 예약 시스템'에 적용하는 사례 연구를 수행한다.

인공심장의 예측 가능한 제어를 위한 실시간 소프트웨어 설계 구조의 개선 (Architectural Refactoring of Real-Time Software Design for Predictable Controls of Artificial Heart)

  • 정세훈;김희진;박상수;차성덕
    • 정보처리학회논문지A
    • /
    • 제18A권6호
    • /
    • pp.271-280
    • /
    • 2011
  • 실시간 소프트웨어 설계 구조 중의 하나인 시간 구동 구조 (TTA: Time-Triggered Architecture)는 미리 정해진 시간에 따라 특정 태스크를 수행하기 때문에 소프트웨어의 동작을 예측하기 쉽지만 이의 적용을 위해서는 시스템의 시간 제약성을 만족시키는 설계 과정이 필수적이다. 반면 이벤트 구동 구조 (ETA: Event-Triggered Architecture)는 외부의 이벤트가 발생함에 따라 대응되는 태스크를 수행하는 방식으로 소프트웨어의 구조가 직관적이고 이벤트에 대한 반응 시간이 빠르며 확장이 용이하다. 그러나 이 구조는 다양한 이벤트 발생 상황에 대한 시스템 동작의 예측이 어려워서 높은 안전도가 필요한 시스템 구현에 많이 사용되고 있지 않다. 많은 관련 연구에서 높은 안전도가 필요한 안전 지향 시스템에 TTA를 적용 할 것을 권장되지만, 실제 구현에 있어서는 이의 적용에 필요한 실시간성 분석에 많은 노력이 소요되고, 소프트웨어 공학기술 적용에 대한 인식 부족으로 TTA의 적용이 많지 않은 실정이다. 본 논문은 인간의 생명과 직결되어 이에 따른 실시간성과 안전성이 요구되는 인공심장 제어 시스템에 내장된 소프트웨어 구조를 TTA 기반으로 개선한 연구를 기술한다. 본 연구에서는 인터럽트 측정 소프트웨어를 구현하여 기존에 내장된 실시간 소프트웨어가 가진 태스크의 시간적 속성을 파악하고 RMA (Rate-Monotonic Analysis) 실시간 분석 기법을 통해 시스템의 실시간성을 만족할 수 있도록 설계를 개선하였다. 또한, 이를 바탕으로 인공심장 제어 소프트웨어의 구현을 개선하여 다양한 실험을 통해 개선된 TTA 기반의 소프트웨어를 탑재한 인공심장 시스템은 시스템의 동작 예측도를 획기적으로 높여주면서 기존의 인공심장 시스템과 동일하게 동작함을 확인하였다.