• 제목/요약/키워드: compile time

검색결과 87건 처리시간 0.022초

Energy Forecasting Information System of Optimal Electricity Generation using Fuzzy-based RERNN with GPC

  • Elumalaivasan Poongavanam;Padmanathan Kasinathan;Karunanithi Kandasamy;S. P. Raja
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권10호
    • /
    • pp.2701-2717
    • /
    • 2023
  • In this paper, a hybrid fuzzy-based method is suggested for determining India's best system for power generation. This suggested approach was created using a fuzzy-based combination of the Giza Pyramids Construction (GPC) and Recalling-Enhanced Recurrent Neural Network (RERNN). GPC is a meta-heuristic algorithm that deals with solutions for many groups of problems, whereas RERNN has selective memory properties. The evaluation of the current load requirements and production profile information system is the main objective of the suggested method. The Central Electricity Authority database, the Indian National Load Dispatch Centre, regional load dispatching centers, and annual reports of India were some of the sources used to compile the data regarding profiles of electricity loads, capacity factors, power plant generation, and transmission limits. The RERNN approach makes advantage of the ability to analyze the ideal power generation from energy data, however the optimization of RERNN factor necessitates the employment of a GPC technique. The proposed method was tested using MATLAB, and the findings indicate that it is effective in terms of accuracy, feasibility, and computing efficiency. The suggested hybrid system outperformed conventional models, achieving the top result of 93% accuracy with a shorter computation time of 6814 seconds.

사용할 변수의 예측에 사용되는 반복적 알고리즘의 계산순서 재정렬을 통한 수행 속도 개선 (Improvement of Iterative Algorithm for Live Variable Analysis based on Computation Reordering)

  • 윤정한;한태숙
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권8호
    • /
    • pp.795-807
    • /
    • 2005
  • 기존의 LVA를 수행하는 알고리즘은 반복적 정보흐름분석(Iterative Data Flow Analysis -DFA) 프레임워크에 따라 프로그램 전체를 반복적으로 스캔하면서 진행되어진다. Zephyr[1] 컴파일러의 경우 이와 같은 반복적 알고리즘으로 LVA를 수행하는 시간이 전체 컴파일 시간에서 약 $7\%$를 차지하고 있다. 기존 LVA 알고리즘은 여러 가지로 개선할 점들이 있다. LVA를 수행하는 기존의 반복적 알고리즘은 알고리즘의 특성상 방문하지 않아도 되는 basic block들에 대한 방문이 잦고, 살아있는 변수들의 집합을 점차적으로 증가해 가면서 구하는 특성상 큰 변수들의 집합에 대한 연산을 계속 하게 된다. 우리는 기존의 알고리즘과 달리 사용된 변수들(USE set)에 대해 Control Flow Graph(CFG)에서 거슬러 올라가면서 LVA를 수행하는 반복적인 알고리즘의 개선안을 제안하고자 한다. 이는 기존의 알고리즘과 같은 결과를 내면서 더 빠른 알고리즘이다. DFA에서의 flow equation을 적용하는 순서를 바꿈으로써 많은 중복 계산을 줄일 수 있다. 이러한 방법으로 인해 basic block을 방문해야만 하는 횟수를 줄이면서 전체 수행 시간을 단축시킨다. 간단한 추가 구현만으로 Zephyr 컴파일러에서의 실험 결과에서 LVA만을 수행하는 시간에서 기존의 알고리즘보다 $36.4\%$ 짧은 시간을 사용하였고, 이는 전체 컴파일 시간을 $2.6\%$ 줄이는 효과를 가져왔다.

버퍼오버플로우 공격 방지를 위한 컴파일러 기법 (Improving Compiler to Prevent Buffer Overflow Attack)

  • 김종의;이성욱;홍만표
    • 정보처리학회논문지C
    • /
    • 제9C권4호
    • /
    • pp.453-458
    • /
    • 2002
  • 최근 들어 버퍼오버플로우 취약성을 이용한 해킹 사례들이 늘어나고 있다. 버퍼오버플로우 공격을 탐지하는 방법은 크게 입력 데이터의 크기 검사 비정상적인 분기 금지, 비정상 행위 금지의 세가지 방식 중 하나를 취한다. 본 논문에서는 비정상적인 분기를 금지하는 방법을 살펴본 것이다. 기존의 방법은 부가적인 메모리를 필요로 하고, 컨트롤 플로우가 비정상적인 흐름을 찾기 위해 코드를 추가하고 실행함으로써 프로그램 실행시간의 저하를 단점으로 이야기할 수 있다. 본 논문에서는 부가적인 메모리 사용을 최소한으로 줄임으로 메모리 낭비를 저하시키고 실행시간에 컨트롤 플로우가 비정상적으로 흐르는 것을 막기 위한 작업들을 최소화함으로서 기존의 방법보다 더 효율적인 방법을 제안하고자 한다.

특성 지향의 제품계열공학을 위한 애스팩트 구현 패턴 (Aspectual Implementation Patterns for Feature-Oriented Product Line Engineering)

  • 이관우
    • 정보처리학회논문지D
    • /
    • 제16D권1호
    • /
    • pp.93-104
    • /
    • 2009
  • 특성 지향 제품계열공학은 특성 관점에서 제품계열의 핵심자산을 개발하고 이를 활용하여 제품을 개발하는 접근방법으로서, 이를 위한 첫번째 단계는 하나의 특성을 하나의 모듈화된 단위로 구현하는 것이다. 관점 지향 프로그래밍은 특성 구현의 모듈화를 향상시키기 위한 효과적인 메커니즘을 제공한다. 하지만, 특성이 일반적으로 서로 독립적이지 않기 때문에 어떤 특성 구현 모듈의 변화는 다른 특성 구현 모듈에 변화를 일으키거나 원하지 않는 부작용을 야기시킬 수도 있다. 뿐만 아니라, 하나의 특성이 제품에 결합되는 시점이 컴파일 시점에서부터 로드 시점, 실행 시점에 이르기까지 다양할 수 있으므로, 특성이 언제 제품에 결합하느냐에 따라 다르게 구현되어야 할지도 모른다. 따라서, 본 논문에서는 각 특성 구현 모듈이 다른 모듈과 독립적이 되도록 하기 위해서, 특성 구현 모듈로부터 특성 의존성 및 특성 결합 시점을 효과적으로 분리시킬 수 있는 애스팩트 패턴을 제안한다. 이러한 패턴들은 특성 구현 모듈이 특성의 선택에 따라서 다른 모듈에 영향을 주지 않고 유연하게 합성될 수 있도록 한다. 이와 같은 접근 방법을 예시하고 평가하기 위해 공학용 계산기 제품계열을 사용한다.

컴파일 시간 명령어 디코딩을 통한 가상화 민감 명령어 에뮬레이션 성능 개선 (Performance Improvement of Virtualization Sensitive Instruction Emulation by Instruction Decoding at Compile Time)

  • 신동하;윤경언
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권2호
    • /
    • pp.1-11
    • /
    • 2012
  • 최근 들어 ARM 구조에서 가상화를 구현하기 위해 다양한 연구들이 진행되었다. 현재의 ARM 구조는 전통적인 에뮬레이션 방법인 "trap-and-emulation"으로 가상화 할 수 없기 때문에, 게스트 커널 수행 시간에 가상화 민감 명령어를 탐지하여, 이를 직접 수행하는 대신 가상화 에뮬레이션 한다. 일반적으로 가상화 에뮬레이션은 이진 변환 또는 인터프리테이션 방법으로 구현한다. 본 연구는 인터프리테이션 방법을 기반으로 하는 가상화 에뮬레이션의 성능 향상에 관한 것이다. 인터프리테이션은 명령어 페치, 명령어 디코딩, 그리고 명령어 수행의 단계로 이루어진다. 본 논문에서는 게스트 커널의 컴파일 시간에 모든 가상화 민감 명령어를 디코딩하여, 게스트 커널의 수행 시간에 인터프리테이션 시간을 줄이는 방법을 제안한다. 본 연구의 방법은 인터프리테이션 기반의 가상화 방법에서 에뮬레이션 코드를 간단하게 하고, 에뮬레이션 성능을 향상시킨다.

「일본유용수산분류표」의 특징과 편찬 목적에 대한 분석 (An Analysis on the Characteristics and Compilation Purpose of Japanese Useful Fisheries Classification Table)

  • 서경순;이근우
    • 수산경영론집
    • /
    • 제54권3호
    • /
    • pp.69-92
    • /
    • 2023
  • The 'Japanese Useful Fisheries Classification Table', published in advance before the publication of the "Useful Fisheries of Japan", is the first data to classify and introduce fisheries animals and plants in a single table. Therefore, it had received public attention immediately. However, The academy of animal studies at that time quickly pointed out that this classification table was a mixture of traditional and modern classifications, and that there were too many errors. However, Yoshio Tanaka, who was in charge of revising Yamamoto Arikatana, that wrote the classification table, was not an adherent of traditional taxonomy, nor was he ignorant of modern taxonomy. Nevertheless, the classification table, which was quite different from the well-known zoological classification at that time, was prepared. For example, the top classifications of marine organism are not at the same level, but rather a mixture of phylum and class, while the water insect contains several phylums, including Arthropoda, Echinodermata, Mollusca, and Coelenterata. As such, the method of classification of animals in the classification table was hard to understand in the zoological academy at that time. The reason for this unusual taxonomy was that the classification table showed classification of useful fisheries products, not intended to convey academic classification. In other words, it is not for the purpose of academic classification of all fishery products, but for the purpose of presenting standards that can be easily understood by those engaged in the collection, manufacture, and aquaculture of fishery products. This principle of 'Useful Fisheries of Japan' is also ascertained in the "Fishing Methods of Japan" and "Fishery Products of Japan". Regarding the collection and processing of marine products, it could have shown how to catch whales, which are mammals, and how to dismantle whales and obtain oil and meat, according to academic classifications. However, the first appearances in the book include dried squid, abalone, shark fins, and sea cucumbers. In other words, the most important fishery products at that time are presented first. The contents of the classification table, which is considered somewhat bizarre, show where the purpose to compile Useful Fisheries of Japan.

분산 XML 데이터베이스에서 질의 컴파일 시 카탈로그 관리 기법의 성능 평가 (Performance Evaluation of Catalog Management Schemes for Distributed XML Database at the Query Compile Time)

  • 장건업;홍의경
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (C)
    • /
    • pp.77-82
    • /
    • 2006
  • 최근 컴퓨팅 환경은 클라이언트-서버(client-server) 환경에서 웹(World Wide Web)을 기반으로 한 분산 컴퓨팅(distributed computint) 환경으로 변화하고 있다. 그에 따라 XML 문서의 사용과 XML 문서의 양이 급속하게 증가하였다. 언제 어디서나 쉽게 필요한 XML 문서에 접근해야하며, 이러한 응용을 위해 짧은 시간 내에 그 정보를 전달할 수 있어야 한다. 이에 따라 분산 환경에서의 XML 문서의 처리가 요구된다. XML 데이터를 분산 데이터베이스의 특성을 이용하여 저장, 관리, 질의하는 분산 XML 데이터베이스 시스템(Distributed XML Database System)의 사용의 필요성이 증가하고 있다. 이에 따라, 사이트의 자치성, 질의 최적화, 데이터의 투명성 등에 큰 영향을 미치는 분산 XML 데이터베이스 시스템에서의 카탈로그 관리 기법의 연구의 필요성이 증가하게 된다. 본 논문에서는 중앙 집중식 카탈로그와 완전 중복식 카탈로그, 분할식 카탈로그를 분산 XML 데이터베이스 시스템에서 CPU 비용, I/O 비용, 동시성 제어, 이단계 완료 프로토콜, 큐잉 지연 등을 모두 고려한 모델을 설계하였고, 이를 시뮬레이터로 구현하여 각 카탈로그 관리 기법들의 성능을 합리적인 환경 설정을 통해 시뮬레이션함으로써 카탈로그 관리 기법들의 성능을 평가하였다.

  • PDF

"침구택일편집(鍼灸擇日編集)"과 "의방유취(醫方類聚)"의 관계 연구 (Study on the Relationship between "Compilation of Chimgutaekil" and "Uibangryuchi")

  • 오준호
    • Korean Journal of Acupuncture
    • /
    • 제28권1호
    • /
    • pp.101-112
    • /
    • 2011
  • Objectives : This research is aimed to consider the arranging process of the expertise on acupuncture & moxibustion in the corrective process of "Uibangyuchi" by studying the relationship between "Uibangyuchi" and "Compilation of Chimgutaekil". Methods : This researcher scrutinized the compilation & corrective process of "Uibangyuchi" through royal family records and considered the relationship between "Compilation of Chimgutaekil" and "Uibangyuchi" from the historial viewpoint. Results and Conclusions : 1. In the corrective process of "Uibangyuchi", the specialized knowledge of acupuncture & moxibustion were erased. 2. The contents related to "Chimgutaekil" among the erased contents are included in "Compilation of Chimgutaekil". 3. The method of arranging the knowledge in "Compilation of Chimgutaekil" coincides with that of "Uibangyuchi", which showes this book has a deep association with "Uibangyuchi" in the aspect of the period, organization of authors, and arrangement form. 4. The "Chimgutaekil"(Pick-a-date Method) is of no big consequence in the science of acupuncture & moxibustion but considers the example of medical procedures in the royal family of the Chosun Dynasty : the "Chimgutaekil" was the operation to be done at the very first beginning in time of the medical procedures using acupuncture & moxibustion. 5. Through such historical facts, the conclusion was made that the reason why specialized knowledge of acupuncture & moxibustion of specialty book was deleted in the compilatory process of "Uibangyuchi" is that its writing staff decided to compile these separately, thereby hurriedly publishing "Compilation of Chimgutaekil" as an example.

농작물 재배 자동화를 위한 제어시스템 설계에 관한 연구 (A Study on Control system design for Automated Cultivation of product)

  • 조영석
    • 디지털산업정보학회논문지
    • /
    • 제10권1호
    • /
    • pp.55-60
    • /
    • 2014
  • Today, there is increasing the elderly population in rural community, and people of returning from the urban to the rural community are demand to be of high value-added agriculture. In this time, there are required to regularization, standardization, automation, for getting of production of high value crops. In this paper, we are study for automation cultivation control system design for produce high-value crops. this system were designed of two parts that one part is measure and control unit, another part is server part for database and server side control. the main controller for measurement and control is used MC9S08AW60, server for Database and server-side control was using MySQL with CentOS. The source code of control program was coding C and compile with GCC. the functions of measurement and control unit are digital input and output each 8channels and can be scan-able of 20 Bit with 2CH/Sec. Analog Output were designed that can be output of 4-20mA or 0-5V on 4channel. The Digital input and output part were designed 8-channel, and using the high speed photo coupler and relays. We showed that system is possible to measure a 20bit data width, 2Ch/sec as 8 channel analog signals.

Static Dalvik Bytecode Optimization for Android Applications

  • Kim, Jeehong;Kim, Inhyeok;Min, Changwoo;Jun, Hyung Kook;Lee, Soo Hyung;Kim, Won-Tae;Eom, Young Ik
    • ETRI Journal
    • /
    • 제37권5호
    • /
    • pp.1001-1011
    • /
    • 2015
  • Since just-in-time (JIT) has considerable overhead to detect hot spots and compile them at runtime, using sophisticated optimization techniques for embedded devices means that any resulting performance improvements will be limited. In this paper, we introduce a novel static Dalvik bytecode optimization framework, as a complementary compilation of the Dalvik virtual machine, to improve the performance of Android applications. Our system generates optimized Dalvik bytecodes by using Low Level Virtual Machine (LLVM). A major obstacle in using LLVM for optimizing Dalvik bytecodes is determining how to handle the high-level language features of the Dalvik bytecode in LLVM IR and how to optimize LLVM IR conforming to the language information of the Dalvik bytecode. To this end, we annotate the high-level language features of Dalvik bytecode to LLVM IR and successfully optimize Dalvik bytecodes through instruction selection processes. Our experimental results show that our system with JIT improves the performance of Android applications by up to 6.08 times, and surpasses JIT by up to 4.34 times.