• 제목/요약/키워드: Q-시스템

검색결과 1,007건 처리시간 0.038초

코히어런트 PON시스템의 I/Q 진폭불균형 분석 및 보상 (Analysis and Compensation of I/Q Amplitude Imbalance In Coherent PON Systems)

  • 김나영;이승우;박영일
    • 한국통신학회논문지
    • /
    • 제40권10호
    • /
    • pp.1940-1946
    • /
    • 2015
  • 차세대 광가입자망시스템에서는 전송속도 및 전송거리 향상을 위해 코히어런트 광전송 시스템이 검토되고 있다. 그런데 이 전송방식의 경우 I/Q 불균형 요인에 의해 전송 성능 저하를 일으킬 수 있으며, 가입자 수신부 내부 구조의 비대칭성은 I/Q 진폭불균형의 주 요인이 될 수 있다. 따라서 안정적인 전송 성능 보장을 위해서는 이런 불균형 성분을 제거하거나 보상해주어야 한다. 본 논문에서는 I/Q 진폭불균형의 원인 및 전송 성능에 미치는 영향을 분석하고, 수신부에서 발생하는 I/Q 진폭불균형 요인을 보상하는 방식을 제시하였다. 또한 시뮬레이션을 통해 제안한 방식의 성능을 보인다.

로봇의 목표물 추적을 위한 SVM과 12각형 기반의 Q-learning 알고리즘 (Dodecagon-based Q-learning Algorithm using SVM for Object Search of Robot)

  • 서상욱;장인훈;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.227-230
    • /
    • 2007
  • 본 논문에서는 로봇의 목표물 추적을 위하여 SVM을 이용한 12각형 기반의 Q-learning 알고리즘을 제안한다. 제안한 알고리즘의 유효성을 보이기 위해 본 논문에서는 두 대의 로봇과 장애물 그리고 하나의 목표물로 정하고, 각각의 로봇이 숨겨진 목표물을 찾아내는 실험을 가정하여 무작위, DBAM과 AMAB의 융합 모델, 마지막으로는 본 논문에서 제안한 SVM과 12각형 기반의 Q-learning 알고리즘을 이용하여 실험을 수행하고, 이 3가지 방법을 비교하여 본 논문의 유효성을 검증하였다.

  • PDF

연속적인 Q-학습을 이용한 자율이동로봇의 회피행동 구현 (Avoidance Behavior of Autonomous Mobile Robots using the Successive Q-learning)

  • 김민수
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2660-2662
    • /
    • 2001
  • Q-학습은 최근에 연구되는 강화학습으로서 환경에 대한 정의가 필요 없어 자율이동로봇의 행동학습에 적합한 방법이다. 그러나 다개체 시스템의 학습처럼 환경이 복잡해짐에 따라 개체의 입출력 변수는 늘어나게 되고 Q함수의 계산량은 기하급수적으로 증가하게 된다. 따라서 이러한 문제를 해결하기 위해 다개체 시스템의 Q-학습에 적합한 연속적인 Q-학습 알고리즘을 제안하였다. 연속적인 Q-학습 알고리즘은 개체가 가질 수 있는 모든 상태-행동 쌍을 하나의 Q함수에 표현하는 방법으로서 계산량 및 복잡성을 줄임으로써 동적으로 변하는 환경에 능동적으로 대처하도록 하였다. 제안한 연속적인 Q-학습 알고리즘을 벽으로 막힌 공간에서 두 포식자와 한 먹이로 구성되는 먹이-포식자 문제에 적용하여 먹이개체의 효율적인 회피능력을 검증하였다.

  • PDF

다중 에이전트 Q-학습 구조에 기반한 주식 매매 시스템의 최적화 (Optimization of Stock Trading System based on Multi-Agent Q-Learning Framework)

  • 김유섭;이재원;이종우
    • 정보처리학회논문지B
    • /
    • 제11B권2호
    • /
    • pp.207-212
    • /
    • 2004
  • 본 논문은 주식 매매 시스템을 위한 강화 학습 구조를 제시한다. 매매 시스템에 사용되는 매개변수들은 Q-학습 알고리즘에 의하여 최적화되고, 인공 신경망이 값의 근사치를 구하기 위하여 활용된다 이 구조에서는 서로 유기적으로 협업하는 다중 에이전트를 이용하여 전역적인 추세 예측과 부분적인 매매 전략을 통합하여 개선된 매매 성능을 가능하게 한다. 에이전트들은 서로 통신하여 훈련 에피소드와 학습된 정책을 서로 공유하는데, 이 때 전통적인 Q-학습의 모든 골격을 유지한다. 실험을 통하여, KOSPI 200에서는 제안된 구조에 기반 한 매매 시스템을 통하여 시장 평균 수익률을 상회하며 동시에 상당한 이익을 창출하는 것을 확인하였다. 게다가 위험 관리의 측면에서도 본 시스템은 교사 학습(supervised teaming)에 의하여 훈련된 시스템에 비하여 더 뛰어난 성능을 보여주었다.

2Q-CFP: 방송에 기초한 정보 시스템을 위한 클라이언트 캐쉬 관리 기법 (2Q-CFP: A Client Cache Management Scheme for Broadcast-based Information Systems)

  • 권혁민
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권6호
    • /
    • pp.561-572
    • /
    • 2003
  • 방송에 기초한 데이타 전달 방식은 방대한 규모의 클라이언트에게 데이타를 전파하기 위한 효과적인 기술로서 큰 관심을 끌고 있다. 방송에 기초한 정보 시스템(broadcast-based information system: BBIS)의 주된 동기는 자신이 지원하는 클라이언트의 수는 시스템의 성능에 전혀 영향을 미치지 않고 임의로 증가될 수 있다는 것이다. BBIS의 성능은 클라이언트 캐슁 전략과 데이타 방송 스케쥴링 기법에 크게 영향을 받는다. 본 논문은 전자의 문제를 취급하여 BBIS에 적합한 2Q-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안한다. 그리고 모의 실험 모델을 통하여 2Q-CFP 기법의 성능을 평가한다. 성능평가 결과에 의하면 2Q-CFP 기법은 GRAY, LRU, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

12각형 기반의 Q-learning과 SVM을 이용한 군집로봇의 목표물 추적 알고리즘 (Object tracking algorithm of Swarm Robot System for using SVM and Dodecagon based Q-learning)

  • 서상욱;양현창;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권3호
    • /
    • pp.291-296
    • /
    • 2008
  • 본 논문에서는 군집로봇시스템에서 목표물 추적을 위하여 SVM을 이용한 12각형 기반의 Q-learning 알고리즘을 제안한다. 제안한 알고리즘의 유효성을 보이기 위해 본 논문에서는 여러 대의 로봇과 장애물 그리고 하나의 목표물로 정하고, 각각의 로봇이 숨겨진 목표물을 찾아내는 실험을 가정하여 무작위, DBAM과 AMAB의 융합 모델, 마지막으로는 본 논문에서 제안한 SVM과 12각형 기반의 Q-learning 알고리즘을 이용하여 실험을 수행하고, 이 3가지 방법을 비교하여 본 논문의 유효성을 검증하였다.

I/Q 불균형에 의하여 왜곡된 OFDM 신호의 검출방식 (A Detection Method for An OFDM Signal Distorted by I/Q Imbalance)

  • 박경원;조용수
    • 한국통신학회논문지
    • /
    • 제30권1A호
    • /
    • pp.37-45
    • /
    • 2005
  • 본 논문에서는 OFDM(Orthogonal Frequency Division Multiplexing) 시스템에서 I/Q(In-phase/Quadrature) 불균형에 의한 영향을 분석하고 I/Q 불균형이 발생하는 경우에 신호를 검출하는 방식을 제안한다. 또한, 제안된 검출방법을 위한 채널 추정 방식 및 파일럿 신호를 설계하는 방식을 제안한다. OFDM 시스템에서 I/Q 불균형은 SIR(Signal to Interference Noise Ratio)을 감소시켜, 성능을 열화시키므로 강건한 검출방식이 요구된다. 제안된 검출방식은 기존의 방식과 달리, I/Q 불균형에 의하여 발생되는 OFDM 신호의 특성을 이용하여 신호를 검출함으로써 SIR 손실을 줄이며 I/Q 불균형에 의한 영향을 효과적으로 억제할 수 있다.

직접 변환 수신기를 위한 Six Port에서의 I와 Q채널의 생성 (I/Q channel regeneration in 6-port junction based direct receiver)

  • 김세영;김낙명;김영완
    • 대한전자공학회논문지TC
    • /
    • 제41권6호
    • /
    • pp.1-7
    • /
    • 2004
  • 직접 변환 방식 수신기법은 SDR기반 미래 광대역 또는 다중 대역 무선통신 시스템을 위한 중요한 해의 하나로 인식되고 있다. 본 논문에서는 광대역의 대역폭을 가지면서도 시스템의 유연성을 극대화할 수 있도록 SDR기반 직접 변환 수신기에 적용가능한 I 및 Q 신호의 생성에 관하여 연구하였다. 먼저 실제의 SDR 기반 통신 환경을 고려한 직접 변환 SDR 시스템을 모델링하고, 수신기에서의 위상 오류의 영향을 분석하며 이에 따른 I/Q 채널의 준최적 재생 알고리즘을 제안하였다. 제안된 알고리즘은 실시간 early-late compensator 구조를 통하여 송신단과 수신단의 위상 오류를 실시간으로 보정하고 랜덤한 채널 잡음환경에서도 보다 안정된 성능을 유지하게 한다. 컴퓨터 시뮬레이션을 통하여, $45{\~}55$도의 랜덤 위상 오류가 난 경우, 제안된 시스템은 기존 시스템과 비교하여 약 4dB이상의 성능 개선이 있음을 확인하였다.

이산 시간 스위칭 선형 시스템의 적응 LQ 준최적 제어를 위한 Q-학습법 (Q-learning for Adaptive LQ Suboptimal Control of Discrete-time Switched Linear System)

  • 전태윤;최윤호;박진배
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1874-1875
    • /
    • 2011
  • 본 논문에서는 스위칭 선형 시스템의 적응 LQ 준최적 제어를 위한 Q-학습법 알고리즘을 제안한다. 제안된 제어 알고리즘은 안정성이 증명된 기존 Q-학습법에 기반하며 스위칭 시스템 모델의 변수를 모르는 상황에서도 준최적 제어가 가능하다. 이 알고리즘을 기반으로 기존에 스위칭 시스템에서 고려하지 않았던 각 시스템의 불확실성 및 최적 적응 제어 문제를 해결하고 컴퓨터 모의실험을 통해 제안한 알고리즘의 성능과 결과를 검증한다.

  • PDF

효과적인 모빌리티 인지 퍼브-서브 시스템을 위한 Q+R 트리 기반의 브로커 네트워크 (Q+R tree based broker network for efficient mobility aware pub-sub system)

  • 이명국;김경백
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.233-236
    • /
    • 2012
  • 모빌리티 인지 퍼브-서브 시스템은 사용자의 관심 위치 정보가 지속적으로 변하는 위치 기반 퍼브-서브 시스템으로써, 스마트 모바일 기기의 대중화와 함께 그 활용도가 부각되고 있다. 이 논문에서는 기존의 위치기반 퍼브-서브 시스템에서 깊이 고려하지 않았던, 관심 위치 정보의 빈번한 변화를 효과적으로 처리하기 위한 브로커 네트워크를 제안한다. 사용자의 행동패턴이나 지리적 특성을 고려해 퍼브-서브 시스템에서 제공하고자 하는 공간 데이터 영역을 Slow Moving Region과 Normal Moving Region의 두가지 타입으로 구분하고, 각 영역에 대한 사용자의 요청을 효과적으로 지원하기 위해 Q+R트리를 사용하여 브로커를 관리한다. 시뮬레이션을 사용한 실험 결과를 통해 제안하는 Q+R트리 기반의 브로커 네트워크가 불필요한 브로커의 로드와 네트워크 트래픽을 감소시킴으로써 보다 효과적으로 지속적인 사용자의 관심 위치 정보 변화를 지원할 수 있음을 확인하였다.