• 제목/요약/키워드: Computation process

검색결과 1,097건 처리시간 0.032초

중앙집중형 도로교통정보시스템에서 다중경로탐색 알고리즘 (Multiple Path-Finding Algorithm in the Centralized Traffic Information System)

  • 김태진;한민흥
    • 대한교통학회지
    • /
    • 제19권6호
    • /
    • pp.183-194
    • /
    • 2001
  • 중앙집중형 도로교통정보시스템은 실시간 교통정보를 수집하고, 사용자의 요청을 받아 경로탐색, 위치정보, 목적지탐색 등의 정보를 전달해주는 시스템이다. 이러한 시스템에서 서버는 매우 많은 클라이언트로부터 경로탐색 요청을 받게 되며, 이 요청을 서버에서 효율적으로 처리해야 하는 다중경로탐색 알고리즘이 필요하다. 본 연구에서는 다중경로탐색을 수행하기 위하여, 주기적으로 연산된 이웃노드의 최단경로탐색 결과를 이용하여 클라이언트의 경로탐색 수행시간을 감소시키는 휴리스틱(Heuristic) 알고리즘을 제시한다. 본 연구에서 제시하는 이웃노드 최단경로탐색 결과를 이용한 다중경로탐색 알고리즘은 많은 경우에 최단과 동일한 결과를 나타내며, 최단이 아닌 경우에도 최단경로 값과 오차가 크지 않으면서도 연산시간을 많이 줄일 수 있는 알고리즘이고, 도로교통과 같은 토폴로지(Topology) 형태에 효과적으로 적용되고, 계층을 이루는 형태의 모델에서도 효율적인 결과를 나타낸다. 이웃노드 최단경로탐색 결과를 이용한 다중경로탐색 알고리즘의 경로탐색시간은 다른 꼬리표설정 알고리즘과 꼬리표개선 알고리즘보다 50배 이상 빨랐으며, 경로탐색 결과가 최단이 아닌 경우 0.1%이하의 거리오차가 발생했다.

  • PDF

조경 설계 분야에서 파라메트릭 디자인의 사례 분석과 활용 가능성 (Case Analysis and Applicability Review of Parametric Design in Landscape Architectural Design)

  • 나성진
    • 한국조경학회지
    • /
    • 제49권2호
    • /
    • pp.1-16
    • /
    • 2021
  • 조경의 설계 행위는 설계가의 사고체계 내에서 형성되는 개념과 그것이 형상화되는 구체적인 재현 그리고 이를 실질적인 재료로 구축하는 일련의 과정으로 이루어지며, 이러한 디자인 프로세스는 4차 산업혁명 시대의 컴퓨터 기술과 IT 생태계의 비약적인 발전으로 많은 변화를 마주하고 있다. 컴퓨터 테크놀로지는 산업 초기에 수학적 계산(calculation)과 입력 데이터의 시각적 표현(graphic representation on display) 등 비교적 단순한 목적으로 개발되었다. 하지만 ibm과 매킨토시(macintosh)를 시작으로 개인용 컴퓨터(personal computer)의 성공적인 보급 이후 프로그램 언어와 하드웨어가 급속히 발전하고, 알고리즘(algorithm) 및 응용 소프트웨어가 전문화되면서 컴퓨터의 활용 목적이 사회 전반에 걸쳐 매우 다양해졌다. 본 연구는 이러한 디지털 사회 맥락의 변화를 바탕으로 컴퓨테이셔널 디자인(computational design), 파라메트릭 디자인(parametric design) 및 알고리즘 디자인(algorithm design) 등의 새로운 설계 방법들이 조경 설계 과정에서 어떠한 기능과 역할을 할 수 있는지에 관한 현황 및 쟁점을 진단하였으며, 그중 최근 가장 주목받는 파라메트릭 테크놀로지를 적극적으로 이용하는 디자인 방법론에 집중해 연구를 진행했다. 우선 현대 조경 및 건축 전반에서 파라메트릭 디자인의 주요 개념 및 특징들에 대해 살펴 논의의 근거를 마련했다. 그리고 이를 바탕으로 조경 분야에서 파라메트릭 디자인 활용에 관한 선행 연구를 분석하고, 조경 설계 회사들의 실제 활용 현황에 대해 분석했다. 그 결과, 조경 분야에서 파라메트릭 디자인 활용에 관한 연구는 연구의 수나 다양성 측면에서 타 분야와 비교했을 때 아직 충분한 논의가 진행되지 않은 것을 확인할 수 있었고, 사용 현황 분석에서는 최근 국외 조경 회사들을 중심으로 새로운 테크놀로지를 적극적으로 활용하려는 다양한 움직임이 조사되었다. 마지막으로 이러한 논의를 바탕으로 조경 설계 분야에서 파라메트릭 디자인 활용의 구체적인 사례 및 추후 다양한 가능성에 대해 검토했다.

계류선박의 동요에 기초한 항만가동률 산정 (Estimation of Harbor Operating Ratio Based on Moored Ship Motion)

  • 곽문수;정재완;안성필;편종근
    • 대한토목학회논문집
    • /
    • 제26권6B호
    • /
    • pp.651-660
    • /
    • 2006
  • 외해에 접해 있는 항만은 항내정온도가 항만설계기준에 만족 되도록 설계되었을 지라도 계류선박의 동요 때문에 하역에 지장을 초래하고 가동률이 저하되는 현상이 빈번하게 발생하고 있다. 이것은 항만설계기준이 항내 파고만으로 설정되었기 때문이며, 이와 같은 현상을 방지하기 위해서는 계류선박의 동요를 고려한 새로운 가동률 평가방법이 필요하다. 본 연구는 선박동요해석모형을 이용하여 항내에 계류된 선박의 동요량을 산정하고 하역허용동요량과의 관계로부터 하역허용파고를 산정한 후 항만의 가동률을 평가하는 방법을 제시한 것이다. 여기서는 새로운 가동률 평가 방법을 현지 항만인 온산항에 적용하고 현행 평가 방법과 비교하여 두 방법의 차이를 제시하였다. 새로운 방법에 의한 항만가동률은 ENE와 NE방향에서 현행 항만설계기준에 의한 가동률 결과 보다 1~11% 정도 낮아 지는 것을 확인할 수 있었다. 따라서 외해에 접해 있는 항만은 설계 단계에서 파고 기준에 의한 항만가동률 평가뿐만 아니라 계류선박의 동요를 고려한 가동률 평가를 병행하여 평면배치 계획을 수립하여야 할 것이다.

탐색 영역 부표본화 및 이웃 화소간의 차를 이용한 고속 전역 탐색 블록 정합 알고리듬 (Fast Full Search Block Matching Algorithm Using The Search Region Subsampling and The Difference of Adjacent Pixels)

  • 정원식;이법기;이경환;최정현;김경규;김덕규;이건일
    • 전자공학회논문지S
    • /
    • 제36S권11호
    • /
    • pp.102-111
    • /
    • 1999
  • 본 논문에서는 탐색 영역에서의 탐색점 부표본화와 현재 블록 내의 화소들의 이웃 화소간의 화소값의 차를 이용한 고속 전역 탐색 블록 정합 알고리듬을 제안하였다. 제안한 방법에서는 각 탐색점에서의 평균 절대치 오차 (mean absolute difference; MAD) 값의 최소 범위를 이웃 탐색점에서의 MAD와 현재 블록 내의 화소들의 이웃 화소간의 화소값의 차를 이용하여 구한 뒤, 이를 이용하여 블록 정합이 필요한 탐색점에 대하여서만 블록 정합을 행함으로써 고속으로 움직임을 추정하였다. 이때, 현재 탐색점에서의 MAD의 최소 범위를 구하기 위해서는 이웃 탐색점에서의 MAD를 사용한다. 그러므로 제안한 방법에서는 먼저, 탐색 영역에 대하여 4:1로 탐색점 부표본화를 행한 뒤, 부표본화 된 탐색점에 대하여 블록 정합을 행하여 MAD를 구한다. 그리고, 나머지 탐색점에 대하여서는 각 탐색점의 MAD 값의 최소범위를 부표본화 된 탐색점에서의 MAD와 현재 블록 내의 화소들의 이웃 화소간의 화소 값의 차를 이용하여 구한 뒤, 블록 정합이 필요한 탐색점에 대하여서만 블록 정합을 행하였다. 즉, 제안한 방법에서는 각 탐색점에서 MAD의 최소 범위를 이용하여 블록 정합이 필요한 탐색점 수를 줄임으로써 전역 탐색 블록 정합 알고리듬 (full search block matching algorithm; FSBMA)과 동일한 성능을 유지하면서도 고속으로 움직임을 추정할 수 있었다. 모의 실험을 통하여 제안한 방법이 FSBMA와 동일한 성능을 유지하면서도 많은 계산량의 감소를 얻을 수 있음을 확인하였다.

  • PDF

양안시기능 검사 값의 오차와 그래프 양식 (The Error and the Graphical Presentation form of the Binocular Vision Findings)

  • 윤석현
    • 한국안광학회지
    • /
    • 제12권3호
    • /
    • pp.39-48
    • /
    • 2007
  • 엄밀한 조절자극과 폭주자극 값 그리고 프리즘 디옵터는 어떻게 정의되어야 하는지를 고찰하여 정리 하였다. 양안시기능 검사와 분석의 실무에서 조절자극과 폭주자극 값은 어떻게 처리되는지를 고찰하여 정리 했다. 그 결과 실무에서의 처리과정은 근거리를 렌즈면으로부터 40 cm로 하는 경우 평균 P.D가 64 mm일 때 안구의 회선점에서 시험렌즈까지 거리 $l_c$이 26.67 mm인 경우에 가장 적합하였다. 본 논문에서 이 값들을 사용하여 필요한 값들을 계산하였다. 그리고 실무에서 사용되는 (5)식의 조절자극 값이 지니는 오차를 눈의 물측 주점에서 시험렌즈까지 거리 $l_H$를 15.07 mm로 하여 계산했다. 굴절력이 $P_m$인 프리즘 가입에 의한 폭주자극 값의 변화량 P'을 순환 계산법으로 계산하였다. P'는 $P_m$, 회선점에서 프리즘까지의 거리 $p_c$, 프리즘을 가입하기 전의 폭주 값 $C_o$와 프리즘 재질의 굴절률 n에 따라 변한다. 그리고 순환 계산법과 필요한 수식들을 자세히 제시했다. P'를 증대시키는 요인에는 두 가지가 있다. 그 첫 번째는 주된 것으로서 폭주 값이 보통의 덧셈법에 따라 더해지지 않는 성질이다. 다른 하나는 영향력이 작은 것으로서 프리즘의 실제 굴절력이 빛의 입사각에 따라 다르게 되는 이유이다. 그리고 $p_c$$C_o$가 커짐에 따라 P'은 괄목할 만큼 작아진다. $P_m=20{\Delta}$, P.D=64 mm 그리고 n=1.7인 경우에 대해 $p_c$$C_o$값들에 따르는 $P^{\prime}/P_m$을 계산하여 그래프로 나타냈다. $P^{\prime}/P_m$의 굴절률 n에 대한 의존성은 무시 할만 큼 아주 작다(Fig. 6 참조). 가입 프리즘의 굴절력과 폭주자극 값의 변화량이 같게 되는 프리즘의 위치 값 $p_c$를 구했다(Table 1). 실무에서 약식으로 처리되는 조절자극과 폭주자극 값의 참 값을 구하였다. 이를 토대로 약식으로 처리된 조절자극과 폭주자극 값이 참 값의 위치에 표시 되게 하는 두 가지의 그래프 양식을 제시하였다. 하나는 기존의 것과 같은 형태(Fig. 9)이고 다른 하나는 프리즘 가입에 의한 폭주자극 값의 변화량만을 나타내는 형식이다(Fig. 11).

  • PDF

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

고선량률 강내조사선원을 이용한 근접조사선량계획전산화 개발 (Development of Dose Planning System for Brachytherapy with High Dose Rate Using Ir-192 Source)

  • 최태진;예지원;김진희;김옥배;이호준;한현수
    • Radiation Oncology Journal
    • /
    • 제20권3호
    • /
    • pp.283-293
    • /
    • 2002
  • 목적 : 고선량률의 Ir-192 선원을 이용한 근접조사의 모의촬영 영상을 개인컴퓨터(PC)에 입력하여 해부학적 영상에 선량분포를 구현하고 히스토그램, 선량-용적히스토그램 및 3차원 선량분포를 전산화하였다. 대상 및 방법 : 선량전산화에 이용된 선원은 원격근접조사장치(Buchler 3K, 독일)의 Co-60 대체선원으로 한국원자력 연구소와 공동으로 개발한 Ir-192이다. 선원 모양에 의존하는 선량분포의 비등방성은 선원을 미소 분할하여 구한 선량과 선원 중심에서 측방 기준점의 공중선량을 기준으로 규격화한 값을 이용하였다. 선원 주위의 조직선량은 선원 중심에서 측방으로 실측된 조직감쇠와 산란에 의한 보정계수와 에너지에 따른 공기 저지능에 대한 조직의 저지능 비로 공중-조직선량 변환계수를 적용하고 기준점에 대해 규격화한 선량률표를 검색하여 얻도록 하였다. 선량계획 전산화 과정에 모의촬영 영상입력, 선원입력과 선원의 축면 결정과 해부학적 영상을 이용한 선량분포와 점선량, 히스토그램 및 선량-용적 히스토그램을 구현하였다. 결과 : 저자들이 개발한 근접조사 선량계획시스템에는 선원모의촬영 영상을 스켄하여 비트맵 파일로 저장하고, 좌표원점과 확대율을 정해, 선원위치를 결정하고 선량분포와 선량분석 프로그램을 포함한 선량전산화를 구현하였다. 실험에 이용된 Ir-192 선원의 조직내 선량은 공중선량율과 조직에 의한 감쇠 및 산란에 의한 실험식을 이용하였다. 선원 중심에서 축상의 거리와 축에서 떨어진 거리에 따른 선량률표에서 행렬 검색하여 얻도록 하였다. 근접조사선량계획은 선원좌표 입력과 선원의 축면(principal plane)을 결정하여 선원이 포함된 평면상의 선량을 구현하였으며, 시뮬레이션 영상인 관상면과 시상면에 선량분포를 구현하였다. 선량-히스토그램에 의한 선량분포 분석은 임의의 해부학적 영상면 위에 커서가 놓인 위치의 선량 스켓치로 얻었다. 임상에 필요한 선량분석은 선원의 축에서 면의깊이를 이동하여 선량분포를 구할 수 있게 하였으며, 선량-용적 히스토그램과 3차원 선량분포를 구현하였다. 결론 : 고선량률 Ir-192를 이용하여 근접조사선량계획을 전산화하였으며, 선량분포의 분석에는 해부학적 영상의 선량분포와 선량-히스토그램, 선량-용적히스토그램을 구현하였으며, 선량분포의 면을 임의 선택할 수 있고 3차원 선량분포를 포함한 선량계획시스템을 준비하였다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

GPU Based Feature Profile Simulation for Deep Contact Hole Etching in Fluorocarbon Plasma

  • Im, Yeon-Ho;Chang, Won-Seok;Choi, Kwang-Sung;Yu, Dong-Hun;Cho, Deog-Gyun;Yook, Yeong-Geun;Chun, Poo-Reum;Lee, Se-A;Kim, Jin-Tae;Kwon, Deuk-Chul;Yoon, Jung-Sik;Kim3, Dae-Woong;You, Shin-Jae
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2012년도 제43회 하계 정기 학술대회 초록집
    • /
    • pp.80-81
    • /
    • 2012
  • Recently, one of the critical issues in the etching processes of the nanoscale devices is to achieve ultra-high aspect ratio contact (UHARC) profile without anomalous behaviors such as sidewall bowing, and twisting profile. To achieve this goal, the fluorocarbon plasmas with major advantage of the sidewall passivation have been used commonly with numerous additives to obtain the ideal etch profiles. However, they still suffer from formidable challenges such as tight limits of sidewall bowing and controlling the randomly distorted features in nanoscale etching profile. Furthermore, the absence of the available plasma simulation tools has made it difficult to develop revolutionary technologies to overcome these process limitations, including novel plasma chemistries, and plasma sources. As an effort to address these issues, we performed a fluorocarbon surface kinetic modeling based on the experimental plasma diagnostic data for silicon dioxide etching process under inductively coupled C4F6/Ar/O2 plasmas. For this work, the SiO2 etch rates were investigated with bulk plasma diagnostics tools such as Langmuir probe, cutoff probe and Quadruple Mass Spectrometer (QMS). The surface chemistries of the etched samples were measured by X-ray Photoelectron Spectrometer. To measure plasma parameters, the self-cleaned RF Langmuir probe was used for polymer deposition environment on the probe tip and double-checked by the cutoff probe which was known to be a precise plasma diagnostic tool for the electron density measurement. In addition, neutral and ion fluxes from bulk plasma were monitored with appearance methods using QMS signal. Based on these experimental data, we proposed a phenomenological, and realistic two-layer surface reaction model of SiO2 etch process under the overlying polymer passivation layer, considering material balance of deposition and etching through steady-state fluorocarbon layer. The predicted surface reaction modeling results showed good agreement with the experimental data. With the above studies of plasma surface reaction, we have developed a 3D topography simulator using the multi-layer level set algorithm and new memory saving technique, which is suitable in 3D UHARC etch simulation. Ballistic transports of neutral and ion species inside feature profile was considered by deterministic and Monte Carlo methods, respectively. In case of ultra-high aspect ratio contact hole etching, it is already well-known that the huge computational burden is required for realistic consideration of these ballistic transports. To address this issue, the related computational codes were efficiently parallelized for GPU (Graphic Processing Unit) computing, so that the total computation time could be improved more than few hundred times compared to the serial version. Finally, the 3D topography simulator was integrated with ballistic transport module and etch reaction model. Realistic etch-profile simulations with consideration of the sidewall polymer passivation layer were demonstrated.

  • PDF

옵티컬 플로우 방법으로 계산된 초기 바람 추정치에 따른 대기운동벡터 알고리즘 개선 연구 (Improvements for Atmospheric Motion Vectors Algorithm Using First Guess by Optical Flow Method)

  • 오유림;박형민;김재환;김소명
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.763-774
    • /
    • 2020
  • 수치예보모델의 예측 바람장은 대기운동벡터 알고리즘의 표적 추적 과정에서 추적 정확도 향상이나 계산 시간 단축을 위해 초기 추정치로 사용된다. 대기운동벡터는 수치예보모델의 자료동화 시 활용가치가 높다고 알려졌으나, 초기 추정치로 사용된 수치예보모델 바람장이 대기운동벡터의 검증 과정에 참 값으로 사용된다는 모순이 있다. 이를 해결하기 위해서는 수치예보모델로부터 독립적인 초기 추정치가 필요하다. 본 연구에서는 Lucas and Kanade 옵티컬 플로우 방법을 적용하여 바람장을 도출한 후 이를 초기 추정치로 사용함으로써 표적 추적과정에서의 모델 의존성을 제거하고 계산 속도를 향상시키고자 하였다. 대기운동벡터 산출에는 2015년 8월 18일 ~ 9월 5일 00, 06, 12, 18시 동안의 정지궤도 위성 Himawari-8/AHI의 14번 채널 Level 1B 자료를 사용하였다. 옵티컬 플로우 방법이 대기운동벡터 산출에 미치는 영향을 평가하기 위하여 다음과 같은 세가지 방법으로 교차 검증을 수행 하였다. (1) 초기 추정치 없이, (2) KMA/UM 예보바람장을 초기 추정치로 사용하여, 그리고 (3) 옵티컬 플로우 방법으로 계산된 바람장을 초기 추정치로 사용하여 대기운동벡터를 산출하고 ECMWF ERA-Interim 재분석장과 비교 검증한 결과, 옵티컬 플로우 기반 바람장을 초기 추정치로 사용한 경우에 가장 높은 정밀도를 보였다(RMSVD: 5.296-5.804 ms-1). 계산 속도는 초기 추정치를 사용하지 않은 경우에 가장 느렸고, 나머지 테스트는 유사한 속도를 보였다. 그러므로 대기운동벡터 알고리즘의 표적 추적 과정에 옵티컬 플로우 방법을 적용하면, 모델 의존성 없는 고품질 바람벡터의 산출이 가능할 것으로 사료된다.