• 제목/요약/키워드: Computation process

검색결과 1,102건 처리시간 0.035초

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

고선량률 강내조사선원을 이용한 근접조사선량계획전산화 개발 (Development of Dose Planning System for Brachytherapy with High Dose Rate Using Ir-192 Source)

  • 최태진;예지원;김진희;김옥배;이호준;한현수
    • Radiation Oncology Journal
    • /
    • 제20권3호
    • /
    • pp.283-293
    • /
    • 2002
  • 목적 : 고선량률의 Ir-192 선원을 이용한 근접조사의 모의촬영 영상을 개인컴퓨터(PC)에 입력하여 해부학적 영상에 선량분포를 구현하고 히스토그램, 선량-용적히스토그램 및 3차원 선량분포를 전산화하였다. 대상 및 방법 : 선량전산화에 이용된 선원은 원격근접조사장치(Buchler 3K, 독일)의 Co-60 대체선원으로 한국원자력 연구소와 공동으로 개발한 Ir-192이다. 선원 모양에 의존하는 선량분포의 비등방성은 선원을 미소 분할하여 구한 선량과 선원 중심에서 측방 기준점의 공중선량을 기준으로 규격화한 값을 이용하였다. 선원 주위의 조직선량은 선원 중심에서 측방으로 실측된 조직감쇠와 산란에 의한 보정계수와 에너지에 따른 공기 저지능에 대한 조직의 저지능 비로 공중-조직선량 변환계수를 적용하고 기준점에 대해 규격화한 선량률표를 검색하여 얻도록 하였다. 선량계획 전산화 과정에 모의촬영 영상입력, 선원입력과 선원의 축면 결정과 해부학적 영상을 이용한 선량분포와 점선량, 히스토그램 및 선량-용적 히스토그램을 구현하였다. 결과 : 저자들이 개발한 근접조사 선량계획시스템에는 선원모의촬영 영상을 스켄하여 비트맵 파일로 저장하고, 좌표원점과 확대율을 정해, 선원위치를 결정하고 선량분포와 선량분석 프로그램을 포함한 선량전산화를 구현하였다. 실험에 이용된 Ir-192 선원의 조직내 선량은 공중선량율과 조직에 의한 감쇠 및 산란에 의한 실험식을 이용하였다. 선원 중심에서 축상의 거리와 축에서 떨어진 거리에 따른 선량률표에서 행렬 검색하여 얻도록 하였다. 근접조사선량계획은 선원좌표 입력과 선원의 축면(principal plane)을 결정하여 선원이 포함된 평면상의 선량을 구현하였으며, 시뮬레이션 영상인 관상면과 시상면에 선량분포를 구현하였다. 선량-히스토그램에 의한 선량분포 분석은 임의의 해부학적 영상면 위에 커서가 놓인 위치의 선량 스켓치로 얻었다. 임상에 필요한 선량분석은 선원의 축에서 면의깊이를 이동하여 선량분포를 구할 수 있게 하였으며, 선량-용적 히스토그램과 3차원 선량분포를 구현하였다. 결론 : 고선량률 Ir-192를 이용하여 근접조사선량계획을 전산화하였으며, 선량분포의 분석에는 해부학적 영상의 선량분포와 선량-히스토그램, 선량-용적히스토그램을 구현하였으며, 선량분포의 면을 임의 선택할 수 있고 3차원 선량분포를 포함한 선량계획시스템을 준비하였다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

GPU Based Feature Profile Simulation for Deep Contact Hole Etching in Fluorocarbon Plasma

  • Im, Yeon-Ho;Chang, Won-Seok;Choi, Kwang-Sung;Yu, Dong-Hun;Cho, Deog-Gyun;Yook, Yeong-Geun;Chun, Poo-Reum;Lee, Se-A;Kim, Jin-Tae;Kwon, Deuk-Chul;Yoon, Jung-Sik;Kim3, Dae-Woong;You, Shin-Jae
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2012년도 제43회 하계 정기 학술대회 초록집
    • /
    • pp.80-81
    • /
    • 2012
  • Recently, one of the critical issues in the etching processes of the nanoscale devices is to achieve ultra-high aspect ratio contact (UHARC) profile without anomalous behaviors such as sidewall bowing, and twisting profile. To achieve this goal, the fluorocarbon plasmas with major advantage of the sidewall passivation have been used commonly with numerous additives to obtain the ideal etch profiles. However, they still suffer from formidable challenges such as tight limits of sidewall bowing and controlling the randomly distorted features in nanoscale etching profile. Furthermore, the absence of the available plasma simulation tools has made it difficult to develop revolutionary technologies to overcome these process limitations, including novel plasma chemistries, and plasma sources. As an effort to address these issues, we performed a fluorocarbon surface kinetic modeling based on the experimental plasma diagnostic data for silicon dioxide etching process under inductively coupled C4F6/Ar/O2 plasmas. For this work, the SiO2 etch rates were investigated with bulk plasma diagnostics tools such as Langmuir probe, cutoff probe and Quadruple Mass Spectrometer (QMS). The surface chemistries of the etched samples were measured by X-ray Photoelectron Spectrometer. To measure plasma parameters, the self-cleaned RF Langmuir probe was used for polymer deposition environment on the probe tip and double-checked by the cutoff probe which was known to be a precise plasma diagnostic tool for the electron density measurement. In addition, neutral and ion fluxes from bulk plasma were monitored with appearance methods using QMS signal. Based on these experimental data, we proposed a phenomenological, and realistic two-layer surface reaction model of SiO2 etch process under the overlying polymer passivation layer, considering material balance of deposition and etching through steady-state fluorocarbon layer. The predicted surface reaction modeling results showed good agreement with the experimental data. With the above studies of plasma surface reaction, we have developed a 3D topography simulator using the multi-layer level set algorithm and new memory saving technique, which is suitable in 3D UHARC etch simulation. Ballistic transports of neutral and ion species inside feature profile was considered by deterministic and Monte Carlo methods, respectively. In case of ultra-high aspect ratio contact hole etching, it is already well-known that the huge computational burden is required for realistic consideration of these ballistic transports. To address this issue, the related computational codes were efficiently parallelized for GPU (Graphic Processing Unit) computing, so that the total computation time could be improved more than few hundred times compared to the serial version. Finally, the 3D topography simulator was integrated with ballistic transport module and etch reaction model. Realistic etch-profile simulations with consideration of the sidewall polymer passivation layer were demonstrated.

  • PDF

옵티컬 플로우 방법으로 계산된 초기 바람 추정치에 따른 대기운동벡터 알고리즘 개선 연구 (Improvements for Atmospheric Motion Vectors Algorithm Using First Guess by Optical Flow Method)

  • 오유림;박형민;김재환;김소명
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.763-774
    • /
    • 2020
  • 수치예보모델의 예측 바람장은 대기운동벡터 알고리즘의 표적 추적 과정에서 추적 정확도 향상이나 계산 시간 단축을 위해 초기 추정치로 사용된다. 대기운동벡터는 수치예보모델의 자료동화 시 활용가치가 높다고 알려졌으나, 초기 추정치로 사용된 수치예보모델 바람장이 대기운동벡터의 검증 과정에 참 값으로 사용된다는 모순이 있다. 이를 해결하기 위해서는 수치예보모델로부터 독립적인 초기 추정치가 필요하다. 본 연구에서는 Lucas and Kanade 옵티컬 플로우 방법을 적용하여 바람장을 도출한 후 이를 초기 추정치로 사용함으로써 표적 추적과정에서의 모델 의존성을 제거하고 계산 속도를 향상시키고자 하였다. 대기운동벡터 산출에는 2015년 8월 18일 ~ 9월 5일 00, 06, 12, 18시 동안의 정지궤도 위성 Himawari-8/AHI의 14번 채널 Level 1B 자료를 사용하였다. 옵티컬 플로우 방법이 대기운동벡터 산출에 미치는 영향을 평가하기 위하여 다음과 같은 세가지 방법으로 교차 검증을 수행 하였다. (1) 초기 추정치 없이, (2) KMA/UM 예보바람장을 초기 추정치로 사용하여, 그리고 (3) 옵티컬 플로우 방법으로 계산된 바람장을 초기 추정치로 사용하여 대기운동벡터를 산출하고 ECMWF ERA-Interim 재분석장과 비교 검증한 결과, 옵티컬 플로우 기반 바람장을 초기 추정치로 사용한 경우에 가장 높은 정밀도를 보였다(RMSVD: 5.296-5.804 ms-1). 계산 속도는 초기 추정치를 사용하지 않은 경우에 가장 느렸고, 나머지 테스트는 유사한 속도를 보였다. 그러므로 대기운동벡터 알고리즘의 표적 추적 과정에 옵티컬 플로우 방법을 적용하면, 모델 의존성 없는 고품질 바람벡터의 산출이 가능할 것으로 사료된다.

차량 통신 기술을 위한 OFDM 모듈레이션의 64-비트 스크램블러 설계 (The 64-Bit Scrambler Design of the OFDM Modulation for Vehicles Communications Technology)

  • 이대식
    • 인터넷정보학회논문지
    • /
    • 제14권1호
    • /
    • pp.15-22
    • /
    • 2013
  • WAVE 시스템은 IEEE 802.11p표준으로 지능형 교통시스템 서비스에 응용되는 새로운 개념 및 차량 통신 기술이다. 또한 WAVE 시스템은 도로상의 트래픽의 효율과 안전을 높인다. 그러나 WAVE 시스템의 OFDM 모듈레이션에서 스크램블러 비트 연산 알고리즘은 하드웨어나 소프트웨어 측면에서 병렬 처리가 불가능하므로 효율성이 떨어지게 된다. 본 논문에서는 스크램블러의 비트 연산으로 64비트 행렬 테이블을 구성하는 알고리즘과 64비트 행렬 테이블과 입력 데이터를 병렬 연산하는 알고리즘을 제안하였다. 제안한 알고리즘은 64비트 행렬 테이블을 적용하여 실행한 결과 비트연산 스크램블러보다 1회와 10000회 처리 속도는 약 40.08%-40.27%가 향상되고, 초당 처리 횟수는 468.35회 더 수행할 수 있고, 32비트 스크램블러보다 1회와 10000회 처리 속도는 약 7.53%-7.84%가 향상되고, 초당 처리 횟수는 91.44회 더 수행할 수 있다. 따라서 64비트로 연산하는 스크램블러 알고리즘은 64비트를 처리할 수 있는 CPU를 사용한다면 32비트 스크램블러보다 40% 이상 성능을 향상시킬 수 있다.

유전자 알고리즘을 이용한 서울시 군집화 최적 변수 선정 (Selection of Optimal Variables for Clustering of Seoul using Genetic Algorithm)

  • 김형진;정재훈;이정빈;김상민;허준
    • 대한공간정보학회지
    • /
    • 제22권4호
    • /
    • pp.175-181
    • /
    • 2014
  • 정부 3.0이라는 새로운 정부운영 계획과 함께 다양한 공공정보를 민간이 활용할 수 있게 되었으며, 특히 서울은 이러한 행정정보 공개 및 활용을 선도하고 있다. 공개된 행정정보를 통해 각 지역을 특징짓는 행정요소를 발견할 경우, 각종 행정정책을 위한 의사결정 수단에 반영할 수 있을 뿐만 아니라 특정 지역의 고객 특성을 파악하여 특화된 서비스나 상품을 판매하는 마케팅 수단으로도 사용할 수 있을 것으로 사료된다. 하지만, 방대한 양의 행정자료로부터 각 군집의 특성을 명확히 구분할 수 있는 최적의 조합을 찾는 과정은 조합최적화 문제로서 상당한 연산량을 요구한다. 본 연구에서는 서울시에서 제공하는 다차원 행정자료로부터 서울시를 대표하는 문화 산업의 중심인 서초구, 강남구, 송파구 등의 강남 3구를 다른 지역과 효과적으로 구분하는 행정요인를 찾고자 하였다. 방대한 양의 행정정보로부터 두 군집간의 차이점을 극대화하는 요인을 선별하기 위한 최적화 방법으로 유전자 알고리즘을 이용하였으며, 군집간 차이를 계산하는 척도로는 Dunn 지수를 이용하였다. 또한 유전자 알고리즘의 연산속도의 향상을 위해 Microsoft Azure에서 제공하는 cloud computing을 이용한 분산처리를 수행하였다. 자료로는 통계청으로 부터 취득한 총 718개의 행정자료를 이용하였으며, 그 중 28개가 최적 변수로 선정되었다. 검증을 위해 선정된 28개의 변수를 입력값으로 Ward의 최소분산법 및 K-means 알고리즘을 통한 군집화를 수행한 결과 두 경우 모두 강남 3구가 다른 지역으로부터 효과적으로 분류됨을 확인하였다.

고도를 고려한 공간강우분포와 1분 강우자료를 이용한 RUSLE의 강우침식인자(R) 산정 및 프로그램 개발 (Spatial Rainfall Considering Elevation and Estimation of Rain Erosivity Factor R in Revised USLE Using 1 Minute Rainfall Data and Program Development)

  • 정충길;장원진;김성준
    • 한국지리정보학회지
    • /
    • 제19권4호
    • /
    • pp.130-145
    • /
    • 2016
  • 본 연구에서는 1분 상세강우자료를 이용하여 개정범용토양유실공식(RUSLE)의 강우침식도 R의 추정을 위해 2002년부터 2015년까지 14년간 전국 기상청 관측소의 강우 자료를 수집하여 지점별로 새롭게 계산한 연 강우침식도 및 경험식을 산정하였으며 남한전체($99,720km^2$)를 대상으로 연강우침식인자의 공간분포도를 작성하였다. 1분 강우자료로 계산된 강우침식도와 연평균 강우량의 상관관계로부터 도출된 경험식과의 결정계수($R^2$, determination coefficient)는 0.70~0.98로 높은 상관관계를 나타냈으며 이는, 기존의 국내에서 적용된 경험식과 비교하여 실측값과의 정확성이 높게 개선됨을 알 수 있다. 또한, 물리적인 지리요소가 고려된 공간 강우침식인자(R) 분포도를 산정하기 위해 고도가 고려된 공간보간기법(IDW)을 이용하여 연강우량 분포도를 산정하였다. 최종적으로 본 연구에서의 1분 강우자료부터의 R 산정 및 1시간 강우자료와의 회귀산정 과정의 방법 및 절차를 일반 사용자가 간단하게 사용 할 수 있도록 Python GUI 프로그램을 이용하여 R 산정 프로그램을 개발하였다.

IMO 2세대 선박 복원성 기준에 따른 서프라이딩/ 브로칭 취약성 기준 검증을 위한 계산 코드 개발 (Development of a Computation Code for the Verification of the Vulnerability Criteria for Surf-riding and Broaching Mode of IMO Second-Generation Intact Stability Criteria)

  • 신동민;오경근;문병영
    • 한국해양공학회지
    • /
    • 제33권6호
    • /
    • pp.518-525
    • /
    • 2019
  • Recently, the Sub-Committee on SDC (Ship Design and Construction) of IMO have discussed actively the technical issues associated with the second-generation intact stability criteria of ships. Generally, second generation intact stability criteria refer to vulnerability five modes ship stability which occurs when the ship navigating in rough seas. As waves passes the ship, dynamic roll motion phenomenon will affect ship stability that may lead to capsizing. Multi-tiered approach for second generation of intact stability criteria of IMO instruments covers apply for all ships. Each ship is checked for vulnerability to pure loss of stability, parametric roll, and broaching/surf-riding phenomena using L1(level 1) vulnerability criteria. If a possible vulnerability is detected, then the L2(level 2) criteria is used, followed by direct stability assessment, if necessary. In this study, we propose a new method to verify the criteria of the surf-riding/broaching mode of small ships. In case, L1 vulnerability criteria is not satisfied based on the relatively simple calculation using the Froude number, we presented the calculation code for the L2 criteria considering the hydrodynamics in waves to perform the more complicated calculation. Then the vulnerability criteria were reviewed based on the data for a given ship. The value of C, which is the probability of the vulnerability criteria for surf-riding/broaching, was calculated. The criteria value C is considered in new approach method using the Froude-Krylov force and the diffraction force. The result shows lower values when considering both the Froude-rylov force and the diffraction force than with only the Froude-Krylov force was considered. This difference means that when dynamic roll motion of ship, more exact wave force needs considered for second generation intact stability criteria This result will contribute to basic ship design process according to the IMO Second-Generation Intact Stability Criteria.

정수장 배출수처리시설 설계 프로그램의 개발 (A New Program to Design Residual Treatment Trains at Water Treatment Plants)

  • 배병욱;허국;주대성;정연구;김영일;하창원
    • 대한환경공학회지
    • /
    • 제29권3호
    • /
    • pp.277-282
    • /
    • 2007
  • 본 연구에서는 보다 정확하고 실용적인 배출수처리시설 용량산정 및 설계 도구를 개발하고자, Excel 프로그램을 이용하여 계산과정을 전산화한 배출수처리시설 설계용 프로그램을 개발하였다. 배출수처리시설 설계용 프로그램은 슬러지 발생량 산정, 물질수지의 계산, 그리고 단위공정의 제원결정을 순서대로 수행할 수 있도록 구성되어 있다. 특히 본 프로그램에는 여과지 역세척수를 회수하기 위한 시스템이 포함되어 있다. 배출수처리시설 설계용 프로그램을 대청호 원수를 취수하는 청주정수장을 대상으로 실행한 결과, 반복계산으로 인한 계산착오 문제를 해결할 수 있었으며, 계산과 설계에 소요되는 시간을 크게 줄일 수 있었다. 본 프로그램은 기존정수장 배출수처리시설의 성능개선 뿐만 아니라 새로운 정수장에도 적용될 것으로 기대된다.