• Title/Summary/Keyword: Q-시스템

Search Result 1,008, Processing Time 0.038 seconds

Analysis and Compensation of I/Q Amplitude Imbalance In Coherent PON Systems (코히어런트 PON시스템의 I/Q 진폭불균형 분석 및 보상)

  • Kim, Nayeong;Lee, Seungwoo;Park, Youngil
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.40 no.10
    • /
    • pp.1940-1946
    • /
    • 2015
  • An optical coherent system is considered for the next-generation optical access networks in enhancing the data rate and transmission distance. In this system, however, I/Q amplitude imbalance may occur at several parts of the system, leading to serious performance degradation. Asymmetric structure of a coherent receiver at the location of subscriber is one of the sources of I/Q imbalance. Therefore, this imbalance parameters must be removed or compensated to secure the transmission performance. In this paper, the source of I/Q amplitude imbalance is analyzed, and then the way to compensate for the imbalance at the receiver side is suggested. Performance after the compensation is estimated using simulation.

Dodecagon-based Q-learning Algorithm using SVM for Object Search of Robot (로봇의 목표물 추적을 위한 SVM과 12각형 기반의 Q-learning 알고리즘)

  • Seo, Sang-Wook;Jang, In-Hun;Sim, Kwee-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.227-230
    • /
    • 2007
  • 본 논문에서는 로봇의 목표물 추적을 위하여 SVM을 이용한 12각형 기반의 Q-learning 알고리즘을 제안한다. 제안한 알고리즘의 유효성을 보이기 위해 본 논문에서는 두 대의 로봇과 장애물 그리고 하나의 목표물로 정하고, 각각의 로봇이 숨겨진 목표물을 찾아내는 실험을 가정하여 무작위, DBAM과 AMAB의 융합 모델, 마지막으로는 본 논문에서 제안한 SVM과 12각형 기반의 Q-learning 알고리즘을 이용하여 실험을 수행하고, 이 3가지 방법을 비교하여 본 논문의 유효성을 검증하였다.

  • PDF

Avoidance Behavior of Autonomous Mobile Robots using the Successive Q-learning (연속적인 Q-학습을 이용한 자율이동로봇의 회피행동 구현)

  • Kim, Min-Soo
    • Proceedings of the KIEE Conference
    • /
    • 2001.07d
    • /
    • pp.2660-2662
    • /
    • 2001
  • Q-학습은 최근에 연구되는 강화학습으로서 환경에 대한 정의가 필요 없어 자율이동로봇의 행동학습에 적합한 방법이다. 그러나 다개체 시스템의 학습처럼 환경이 복잡해짐에 따라 개체의 입출력 변수는 늘어나게 되고 Q함수의 계산량은 기하급수적으로 증가하게 된다. 따라서 이러한 문제를 해결하기 위해 다개체 시스템의 Q-학습에 적합한 연속적인 Q-학습 알고리즘을 제안하였다. 연속적인 Q-학습 알고리즘은 개체가 가질 수 있는 모든 상태-행동 쌍을 하나의 Q함수에 표현하는 방법으로서 계산량 및 복잡성을 줄임으로써 동적으로 변하는 환경에 능동적으로 대처하도록 하였다. 제안한 연속적인 Q-학습 알고리즘을 벽으로 막힌 공간에서 두 포식자와 한 먹이로 구성되는 먹이-포식자 문제에 적용하여 먹이개체의 효율적인 회피능력을 검증하였다.

  • PDF

Optimization of Stock Trading System based on Multi-Agent Q-Learning Framework (다중 에이전트 Q-학습 구조에 기반한 주식 매매 시스템의 최적화)

  • Kim, Yu-Seop;Lee, Jae-Won;Lee, Jong-Woo
    • The KIPS Transactions:PartB
    • /
    • v.11B no.2
    • /
    • pp.207-212
    • /
    • 2004
  • This paper presents a reinforcement learning framework for stock trading systems. Trading system parameters are optimized by Q-learning algorithm and neural networks are adopted for value approximation. In this framework, cooperative multiple agents are used to efficiently integrate global trend prediction and local trading strategy for obtaining better trading performance. Agents Communicate With Others Sharing training episodes and learned policies, while keeping the overall scheme of conventional Q-learning. Experimental results on KOSPI 200 show that a trading system based on the proposed framework outperforms the market average and makes appreciable profits. Furthermore, in view of risk management, the system is superior to a system trained by supervised learning.

2Q-CFP: A Client Cache Management Scheme for Broadcast-based Information Systems (2Q-CFP: 방송에 기초한 정보 시스템을 위한 클라이언트 캐쉬 관리 기법)

  • 권혁민
    • Journal of KIISE:Databases
    • /
    • v.30 no.6
    • /
    • pp.561-572
    • /
    • 2003
  • Broadcast-based data delivery has attracted a lot of attention as an efficient way of disseminating data to very large client populations. The main motivation of broadcast-based information systems (BBISs) is that the number of clients that they serve can grow arbitrarily large without any effect on their performance. The performance of BBISs depends mainly on client caching strategies and on data broadcast scheduling mechanisms. This paper addresses the former issue and proposes a new client cache management scheme, named 2Q-CFP, that is suitable to BBISs. This paper also evaluates the performance of 2Q-CFP on the basis of a simulation model. The performance results indicate that 2Q-CFP scheme shows superior performances over GRAY, LRU and CF in the average response time.

Object tracking algorithm of Swarm Robot System for using SVM and Dodecagon based Q-learning (12각형 기반의 Q-learning과 SVM을 이용한 군집로봇의 목표물 추적 알고리즘)

  • Seo, Sang-Wook;Yang, Hyun-Chang;Sim, Kwee-Bo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.18 no.3
    • /
    • pp.291-296
    • /
    • 2008
  • This paper presents the dodecagon-based Q-leaning and SVM algorithm for object search with multiple robots. We organized an experimental environment with several mobile robots, obstacles, and an object. Then we sent the robots to a hallway, where some obstacles were tying about, to search for a hidden object. In experiment, we used four different control methods: a random search, a fusion model with Distance-based action making(DBAM) and Area-based action making(ABAM) process to determine the next action of the robots, and hexagon-based Q-learning and dodecagon-based Q-learning and SVM to enhance the fusion model with Distance-based action making(DBAM) and Area-based action making(ABAM) process.

A Detection Method for An OFDM Signal Distorted by I/Q Imbalance (I/Q 불균형에 의하여 왜곡된 OFDM 신호의 검출방식)

  • Park Kyung-won;Cho Yong-soo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.30 no.1A
    • /
    • pp.37-45
    • /
    • 2005
  • In this paper, after analyzing the effect of I/Q imbalance in an OFDM system, the detection method of an OFDM signal distorted by I/Q imbalance is proposed. Also, the channel estimation and the pilot symbol design scheme are proposed for using the proposed detection method. Since I/Q imbalance in an OFDM system degrades the SIR and the BER(Bit Error Ratio) performance, the robust detection method is required for an OFDM system. the proposed detection method can effectively suppress the interference caused by I/Q imbalance using characteristics of an OFDM signal differently from the conventional method, and results in improving the SIR of a desired OFDM signal.

I/Q channel regeneration in 6-port junction based direct receiver (직접 변환 수신기를 위한 Six Port에서의 I와 Q채널의 생성)

  • Kim Seayoung;Kim Nak-Myeong;Kim Young-Wan
    • Journal of the Institute of Electronics Engineers of Korea TC
    • /
    • v.41 no.6 s.324
    • /
    • pp.1-7
    • /
    • 2004
  • The development of direct receiver techniques is expected to be a solution for future wideband or multi-band wireless systems based on software defined radio. In this Paper, we study the regeneration of I and Q signals for the SDR based direct conversion receiver, so that we can handle a wide bandwidth and maintain maximal flexibility in system utilization. After modeling the basic system considering the real wireless communication environment, and studying the impact of imperfect phase imbalance on the performance of a direct conversion receiver, we propose a suboptimal I and Q signal regeneration algorithm for the system. The proposed algerian regenerates I and Q signals using a real time early-late compensator which effectively estimates phase imbalances and gives feedback in a directreceiver. The proposed algorithm is shown to mitigate the impact of AWGN and improves performance especially at low SNR channel condition. According to the computer simulation, the BER performance of the proposed system is at least about 4 dB better than conventional systems under $45{\~}55$ degrees random phase errors.

Q-learning for Adaptive LQ Suboptimal Control of Discrete-time Switched Linear System (이산 시간 스위칭 선형 시스템의 적응 LQ 준최적 제어를 위한 Q-학습법)

  • Chun, Tae-Yoon;Choi, Yoon-Ho;Park, Jin-Bae
    • Proceedings of the KIEE Conference
    • /
    • 2011.07a
    • /
    • pp.1874-1875
    • /
    • 2011
  • 본 논문에서는 스위칭 선형 시스템의 적응 LQ 준최적 제어를 위한 Q-학습법 알고리즘을 제안한다. 제안된 제어 알고리즘은 안정성이 증명된 기존 Q-학습법에 기반하며 스위칭 시스템 모델의 변수를 모르는 상황에서도 준최적 제어가 가능하다. 이 알고리즘을 기반으로 기존에 스위칭 시스템에서 고려하지 않았던 각 시스템의 불확실성 및 최적 적응 제어 문제를 해결하고 컴퓨터 모의실험을 통해 제안한 알고리즘의 성능과 결과를 검증한다.

  • PDF

Q+R tree based broker network for efficient mobility aware pub-sub system (효과적인 모빌리티 인지 퍼브-서브 시스템을 위한 Q+R 트리 기반의 브로커 네트워크)

  • Lee, Myung-Guk;Kim, Kyungbaek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.233-236
    • /
    • 2012
  • 모빌리티 인지 퍼브-서브 시스템은 사용자의 관심 위치 정보가 지속적으로 변하는 위치 기반 퍼브-서브 시스템으로써, 스마트 모바일 기기의 대중화와 함께 그 활용도가 부각되고 있다. 이 논문에서는 기존의 위치기반 퍼브-서브 시스템에서 깊이 고려하지 않았던, 관심 위치 정보의 빈번한 변화를 효과적으로 처리하기 위한 브로커 네트워크를 제안한다. 사용자의 행동패턴이나 지리적 특성을 고려해 퍼브-서브 시스템에서 제공하고자 하는 공간 데이터 영역을 Slow Moving Region과 Normal Moving Region의 두가지 타입으로 구분하고, 각 영역에 대한 사용자의 요청을 효과적으로 지원하기 위해 Q+R트리를 사용하여 브로커를 관리한다. 시뮬레이션을 사용한 실험 결과를 통해 제안하는 Q+R트리 기반의 브로커 네트워크가 불필요한 브로커의 로드와 네트워크 트래픽을 감소시킴으로써 보다 효과적으로 지속적인 사용자의 관심 위치 정보 변화를 지원할 수 있음을 확인하였다.