• Title/Summary/Keyword: 온라인 최적제어 알고리즘

Search Result 8, Processing Time 0.024 seconds

On-line Optimal Control Technology for Central Heating System (중앙난방시스템의 온라인 최적제어기법에 관한 연구)

  • Ahn Byung Cheon;Choi Sang Gon;Cho Sung Hwan
    • Korean Journal of Air-Conditioning and Refrigeration Engineering
    • /
    • v.17 no.2
    • /
    • pp.140-146
    • /
    • 2005
  • The on-line optimal control algorithm for central heating system has been researched for minimizing energy consumption while maintaining the comfort of indoor thermal environment in terms of the environmental variables such as indoor heating load and outdoor temperature variation. This study has been done by using TRNSYS Program in order to analyze the central heating system. The optimal control algorithm shows good energy Performances in comparison with the conventional one.

The Control of 3-Phase Induction Motor by Hybrid Fuzzy-PID Controller : Auto-Tuning of Parameters using Genetic Algorithms (하이브리드 퍼지-PID 제어기에 의한 3상 유도 전동기의 속도제어 : 유전자 알고리즘에 의한 파라미터의 자동 동조)

  • Kwon, Yang-Won;Ahn, Tae-Chon;Kang, Hak-Su;Yoon, Yang-Woong
    • Proceedings of the KIEE Conference
    • /
    • 1999.07b
    • /
    • pp.794-796
    • /
    • 1999
  • 본 논문에서는 3상 유도전동기의 속도를 제어하는데 기존 제어기의 문제점을 해결하고 최적화하기 위해서 유전자 알고리즘을 이용한 하이브리드 퍼지 -PID(HFPID) 제어기를 고안하고, 이에 대한 파라미터 설정 방법을 제안한다. 유도전동기의 제어는 지연시간이 길고, 비선형성이 강하며, 부하변동이 잦은 프로세스이기 때문에, 기존의 제어방식으로는 만족할만한 결과를 얻을 수 없다. 제안한 하이브리드 퍼지-PID 제어기는 PID 제어기의 장점인 과도기의 우수성과 퍼지 제어기의 장점인 정상기의 우수성을 퍼지 변수로 결합시켜 설계한다. 이 제어기에 유전자 알고리즘을 적용하여 최적의 퍼지 및 PID 파라미터를 설정하다. 그리고 이 제어기를 3상 유도전동기의 속도 제어에 응용한다. 또한 속도오차에 대한 룩업 표를 만들어 온라인 실시간 제어를 가능하게 한다. 이상의 과정을 3상 유도전동기에서 컴퓨터 시뮬레이션 하였다. 시뮬레이션 결과를 비교해 볼 때, 하이브리드 퍼지-PID 제어기는 기존의 제어기 보다 전동기의 속도 및 토크성분 전류 둥의 특성에서 우수한 성능을 보였다.

  • PDF

Online Turn-Off Angle Contro1 for Performance Optimization of the Switched Reluctance Motor (온라인 턴 오프각제어를 통한 SRM의 성능최적화)

  • Jeong, Byeong-Ho;Choi, Youn-Ok;Lee, Kang-Yeon;Cho, Geum-Bae;Chung, Soo-Bok
    • The Transactions of the Korean Institute of Power Electronics
    • /
    • v.12 no.1
    • /
    • pp.98-106
    • /
    • 2007
  • This paper represent improved on-line turn off angle control schemes for switched reluctance motors based on current control. For the purpose of finding the optimal commutation switching angle point with improved controller, it is utilized turn on and turn off position calculation with inductance vs. current vs. not linkage analysis method. The goal of proposed paper is the maximization of the energy conversion per stroke and torque ripple reduction and obtaining approximately flat-topped current waveform. The proposed control scheme is demonstrated simulation and on a prototype experimental system.

Optimal Design Method of Quantization of Membership Function and Rule Base of Fuzzy Logic Controller using the Genetic Algorithm (유전자 알고리즘을 이용한 퍼지논리 제어기 소속함수의 양자화와 제어규칙의 최적 설계방식)

  • Chung Sung-Boo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.3
    • /
    • pp.676-683
    • /
    • 2005
  • In this paper, we proposed a method that optimal values of fuzzy control rule base and quantization of membership function are searched by genetic algorithm. Proposed method searched the optimal values of membership function and control rules using genetic algorithm by off-line. Then fuzzy controller operates using these values by on-line. Proposed fuzzy control system is optimized the control rule base and membership function by genetic algorithm without expert's knowledge. We investigated proposed method through simulation and experiment using DC motor and one link manipulator, and confirmed the following usefulness.

Comparison of Different Schemes for Speed Sensorless Control of Induction Motor Drives by Neural Network (신경회로망을 이용한 유도전동기의 속도 센서리스 방식에 대한 비교)

  • 국윤상;김윤호;최원범
    • The Transactions of the Korean Institute of Power Electronics
    • /
    • v.5 no.2
    • /
    • pp.131-139
    • /
    • 2000
  • 일반적으로 시스템 인식과 제어에 이용하는 다층 신경회로망은 기존의 역전파 알고리즘을 이용한다. 그러나 결선강도에 대한 오차의 기울기를 구하는 방법이기 때문에 국부적 최소점에 빠지기 쉽고, 수렴속도가 매우 늦으며 초기 결선강도 값들이나 학습계수에 민감하게 반응한다. 이와 같은 단점을 개선하기 위하여 확장된 칼만 필터링 기법을 역전파 알고리즘에 결합하였으나 계산상의 복잡성 때문에 망의 크기가 증가하면 실제 적용할 수 없다. 최근 신경회로망을 선형과 비선형 구간으로 구분하고 칼만 필터링 기법을 도입하여 수렴속도를 빠르게 하고 초기 결선강도 값에 크게 영향을 받지 않도록 개선하였으나, 여전히 은닉층의 선형 오차값을 역전파 알고리즘에 의해서 계산하기 때문에 학습계수에 민감하다는 단점이 있다. 본 논문에서는 위에서 언급한 기존의 신경회로망 알고리즘의 문제점을 개선하기 위하여 은닉층의 목표값을 최적기법에 의하여 직접계산하고 각각의 결선강도 값은 반복최소 자승법으로 온라인 학습하는 알고리즘을 제안하고 이들 신경회로망 알고리즘과 비교하고자 한다. 여러 가지 시뮬레이션과 실험을 통하여 제안된 방법이 초기 결선강도에 크게 영향을 받지 않으며, 기존의 학습계수 선정에 따른 문제점을 해결함으로써 신경회로망 모델에 기초한 실시간 제어기 설계에 응용할 수 있도록 하였다. 또한, 유도전동기의 속도추정과 제어에 적용하여 좋은 결과를 보였다.

  • PDF

Robust Object Tracking based on Weight Control in Particle Swarm Optimization (파티클 스웜 최적화에서의 가중치 조절에 기반한 강인한 객체 추적 알고리즘)

  • Kang, Kyuchang;Bae, Changseok;Chung, Yuk Ying
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.14 no.6
    • /
    • pp.15-29
    • /
    • 2018
  • This paper proposes an enhanced object tracking algorithm to compensate the lack of temporal information in existing particle swarm optimization based object trackers using the trajectory of the target object. The proposed scheme also enables the tracking and documentation of the location of an online updated set of distractions. Based on the trajectories information and the distraction set, a rule based approach with adaptive parameters is utilized for occlusion detection and determination of the target position. Compare to existing algorithms, the proposed approach provides more comprehensive use of available information and does not require manual adjustment of threshold values. Moreover, an effective weight adjustment function is proposed to alleviate the diversity loss and pre-mature convergence problem in particle swarm optimization. The proposed weight function ensures particles to search thoroughly in the frame before convergence to an optimum solution. In the existence of multiple objects with similar feature composition, this algorithm is tested to significantly reduce convergence to nearby distractions compared to the other existing swarm intelligence based object trackers.

Traffic Control using Q-Learning Algorithm (Q 학습을 이용한 교통 제어 시스템)

  • Zheng, Zhang;Seung, Ji-Hoon;Kim, Tae-Yeong;Chong, Kil-To
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.12 no.11
    • /
    • pp.5135-5142
    • /
    • 2011
  • A flexible mechanism is proposed in this paper to improve the dynamic response performance of a traffic flow control system in an urban area. The roads, vehicles, and traffic control systems are all modeled as intelligent systems, wherein a wireless communication network is used as the medium of communication between the vehicles and the roads. The necessary sensor networks are installed in the roads and on the roadside upon which reinforcement learning is adopted as the core algorithm for this mechanism. A traffic policy can be planned online according to the updated situations on the roads, based on all the information from the vehicles and the roads. This improves the flexibility of traffic flow and offers a much more efficient use of the roads over a traditional traffic control system. The optimum intersection signals can be learned automatically online. An intersection control system is studied as an example of the mechanism using Q-learning based algorithm, and simulation results showed that the proposed mechanism can improve the traffic efficiency and the waiting time at the signal light by more than 30% in various conditions compare to the traditional signaling system.

Reinforcement Learning with Clustering for Function Approximation and Rule Extraction (함수근사와 규칙추출을 위한 클러스터링을 이용한 강화학습)

  • 이영아;홍석미;정태충
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.11
    • /
    • pp.1054-1061
    • /
    • 2003
  • Q-Learning, a representative algorithm of reinforcement learning, experiences repeatedly until estimation values about all state-action pairs of state space converge and achieve optimal policies. When the state space is high dimensional or continuous, complex reinforcement learning tasks involve very large state space and suffer from storing all individual state values in a single table. We introduce Q-Map that is new function approximation method to get classified policies. As an agent learns on-line, Q-Map groups states of similar situations and adapts to new experiences repeatedly. State-action pairs necessary for fine control are treated in the form of rule. As a result of experiment in maze environment and mountain car problem, we can achieve classified knowledge and extract easily rules from Q-Map