• 제목/요약/키워드: Q-algorithm

검색결과 686건 처리시간 0.026초

TRACE EXPRESSION OF r-TH ROOT OVER FINITE FIELD

  • Cho, Gook Hwa;Koo, Namhun;Kwon, Soonhak
    • 대한수학회지
    • /
    • 제57권4호
    • /
    • pp.1019-1030
    • /
    • 2020
  • Efficient computation of r-th root in 𝔽q has many applications in computational number theory and many other related areas. We present a new r-th root formula which generalizes Müller's result on square root, and which provides a possible improvement of the Cipolla-Lehmer type algorithms for general case. More precisely, for given r-th power c ∈ 𝔽q, we show that there exists α ∈ 𝔽qr such that $$Tr{\left(\begin{array}{cccc}{{\alpha}^{{\frac{({\sum}_{i=0}^{r-1}\;q^i)-r}{r^2}}}\atop{\text{ }}}\end{array}\right)}^r=c,$$ where $Tr({\alpha})={\alpha}+{\alpha}^q+{\alpha}^{q^2}+{\cdots}+{\alpha}^{q^{r-1}}$ and α is a root of certain irreducible polynomial of degree r over 𝔽q.

초기 슬롯-카운트 크기에 따른 Gen-2 Q-알고리즘의 성능 분석 (Performance Analysis of Gen-2 Q-Algorithm According to Initial Slot-Count Size)

  • 임인택
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 추계학술대회
    • /
    • pp.445-446
    • /
    • 2010
  • Gen-2 Q-알고리즘에서는 질의 라운드 동안 사용할 슬롯-카운트 매개변수인 $Q_{fp}$에 대한 초기 값이 정의되어 있지 않다. 이 경우, 만일 초기 $Q_{fp}$ 값이 아주 큰 경우에는 초기 질의 라운드 동안 빈 슬롯이 많이 발생할 수 있고, 반면 초기 $Q_{fp}$ 값이 아주 적은 경우에는 충돌이 많이 발생할 수 있다. 이로 인하여 질의 라운드 동안 최적의 프레임 크기에 수렴하는 속도가 늦어질 수 있으므로 식별 속도 및 효율이 저하되는 문제점이 발생할 것으로 예상된다. 따라서 본 논문에서는 초기 슬롯 카운트의 값이 Gen-2 Q-알고리즘의 성능에 미치는 영향을 분석한다.

  • PDF

새로운 게이트 어레이 배치 알고리듬 (A New Placement Algorithm for Gate Array)

  • 강병익;정정화
    • 대한전자공학회논문지
    • /
    • 제26권5호
    • /
    • pp.117-126
    • /
    • 1989
  • 본 논문에서는 게이트 어레이 방식의 레이아웃 설계를 위한 새로운 배치 알고리듬을 제안한다. 제안된 배치 알고리듬은 서로 크기가 다른 마크로셀을 처리할 수 있으며, I/Q pad의 위치를 고려함으로써 칩의 내부 영역과 I/Q pad간의 배선을 효율적으로 자동화한다. 알고리듬은 초기 분할, 초기 배치 개선의 3단계로 구성된다. 초기 분할 단계에서는 각 I/Q pad의 위치를 고려하여 clustering에 의해 전체 회로를 5그룹으로 분할한다. 초기 배치 단계에서는 각 I/Q pad 및 주변 그룹과의 연결도를 고려한 clustering/min-cut 분할에 의해 각 셀의 위치를 할당한다. 또한, 배치 개선에서는 확률적 배선 밀도 함수를 도입하여 칩내의 배선 밀도를 균일화하기 위한 셀 이동 알고리듬을 제안한다.

  • PDF

Self-Imitation Learning을 이용한 개선된 Deep Q-Network 알고리즘 (Improved Deep Q-Network Algorithm Using Self-Imitation Learning)

  • 선우영민;이원창
    • 전기전자학회논문지
    • /
    • 제25권4호
    • /
    • pp.644-649
    • /
    • 2021
  • Self-Imitation Learning은 간단한 비활성 정책 actor-critic 알고리즘으로써 에이전트가 과거의 좋은 경험을 활용하여 최적의 정책을 찾을 수 있도록 해준다. 그리고 actor-critic 구조를 갖는 강화학습 알고리즘에 결합되어 다양한 환경들에서 알고리즘의 상당한 개선을 보여주었다. 하지만 Self-Imitation Learning이 강화학습에 큰 도움을 준다고 하더라도 그 적용 분야는 actor-critic architecture를 가지는 강화학습 알고리즘으로 제한되어 있다. 본 논문에서 Self-Imitation Learning의 알고리즘을 가치 기반 강화학습 알고리즘인 DQN에 적용하는 방법을 제안하고, Self-Imitation Learning이 적용된 DQN 알고리즘의 학습을 다양한 환경에서 진행한다. 아울러 그 결과를 기존의 결과와 비교함으로써 Self-Imitation Leaning이 DQN에도 적용될 수 있으며 DQN의 성능을 개선할 수 있음을 보인다.

최대 경쟁력을 갖는 최소 신설 점포위치 결정 알고리즘 (Algorithm to decide Minimum New Store Positioning with Maximum Competitiveness)

  • 이상운
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권2호
    • /
    • pp.203-209
    • /
    • 2019
  • 고객 수 pop인 도시에 경쟁업체 $F_A$가 p개 점포를 운영하고 있는 경우, 신규 업체 $F_B$$q(1{\leq}q{\leq}p-1)$점포를 신규 개설하고자 한다. 이 경우 pop/(p+q)이상의 고객을 확보할 수 있는 q개 점포 위치를 결정해야 한다. 이 문제에 대해 Han은 포함-배제 알고리즘을 제안하였으며, $q=1,2,{\cdots},p-1$로 증가하면서 이전에 확정된 위치가 변경되는 경우를 고려하여 최대 고객 확보 상위 5개 지점을 선택하여 이들 중 최대 고객 확보 지점으로 결정하였다. 본 논문에서는 초기상태부터 탐색범위를 축소시키고, $q=1,2,{\cdots},p-1$로 증가하면서도 계속적으로 탐색 범위를 축소시키면서 q=1 한 노드에 대해서만 계속 노드를 추가하는 방법을 제안한다. 최종적으로 얻은 q 상호간에 시장을 서로 빼앗는 경우가 발생하면 보다 멀리 떨어트리는 방법으로 해를 개선하였다. 제안된 알고리즘을 11개 사례에 적용한 결과 Han 알고리즘에 비해 단순하면서도 보다 좋은 결과를 얻었다.

EPCglobal Class-1 Gen-2 RFID 시스템에서 고속 태그 식별을 위한 개선된 Q-알고리즘 (Enhanced Q-Algorithm for Fast Tag Identification in EPCglobal Class-1 Gen-2 RFID System)

  • 임인택
    • 한국정보통신학회논문지
    • /
    • 제16권3호
    • /
    • pp.470-475
    • /
    • 2012
  • EPCglobal Class-1 Gen-2 RFID 시스템의 Q-알고리즘에서는 슬롯-카운트 매개변수인 $Q_{fp}$ 값에 대한 초기 값이 정의되어 있지 않고, 슬롯-카운트의 크기를 증감시키기 위한 매개변수인 가중치 C의 값이 정해져 있지 않다. 따라서 태그의 수가 적은 상태에서 초기 $Q_{fp}$ 값을 크게 하면 빈 슬롯이 많이 발생하고, 태그의 수가 많은 상태에서 초기 $Q_{fp}$값을 적게 하면 충돌이 많이 발생한다. 또한 적절하지 못한 가중치를 선택할 경우 빈 슬롯 또는 충돌 슬롯이 많이 발생할 수 있다. 이로 인하여 질의 라운드 동안 최적의 프레임 크기에 수렴하는 속도가 늦어지므로 성능이 저하되는 문제점이 있다. 본 논문에서는 태그 수를 추정하여 최적의 초기 $Q_{fp}$ 값을 할당하고 현재의 슬롯-카운트 크기에 따라 가중치를 결정하는 기법을 제안하고, 이에 대한 성능을 분석한다.

Q-learning 알고리즘이 성능 향상을 위한 CEE(CrossEntropyError)적용 (Applying CEE (CrossEntropyError) to improve performance of Q-Learning algorithm)

  • 강현구;서동성;이병석;강민수
    • 한국인공지능학회지
    • /
    • 제5권1호
    • /
    • pp.1-9
    • /
    • 2017
  • Recently, the Q-Learning algorithm, which is one kind of reinforcement learning, is mainly used to implement artificial intelligence system in combination with deep learning. Many research is going on to improve the performance of Q-Learning. Therefore, purpose of theory try to improve the performance of Q-Learning algorithm. This Theory apply Cross Entropy Error to the loss function of Q-Learning algorithm. Since the mean squared error used in Q-Learning is difficult to measure the exact error rate, the Cross Entropy Error, known to be highly accurate, is applied to the loss function. Experimental results show that the success rate of the Mean Squared Error used in the existing reinforcement learning was about 12% and the Cross Entropy Error used in the deep learning was about 36%. The success rate was shown.

광대역 OFCDM 시스템에서 셀룰러와 핫-스팟 셀들이 공존할 때 분리 I/Q채널 CSSC를 이용한 셀 탐색 알고리즘 (A Suitable Cell Search Algorithm Using Separated I/Q Channel Cell Specific Scrambling Codes for Systems with Coexisting Cellular and Hot-Spot Cells in Broadband OFCDM Systems)

  • 김대용;권혁숭
    • 한국정보통신학회논문지
    • /
    • 제9권8호
    • /
    • pp.1649-1655
    • /
    • 2005
  • 동위상(I) 파일럿 채널에 할당된 셀룰러 셀 CCSSC와 직교위상(Q) 파일럿 채널에 할당된 핫 스팟 셀 HSCSSC가 공존하는 광대역 OFCDM 시스템에 환경하에서 분리된 I/Q채널 CCSC를 이용한 탐색 알고리즘을 제안하였다. 제안된 알고리즘은 이동 기지국에서 무선 인터넷을 사용하고자 할 때 셀룰러 셀 CCSSC의 영향으로 감소하는 최상의 핫 스팟 셀 HSCSSC을 빠르게 추적하는데 적합하다. 시뮬레이션 결과 제안된 셀 추적 알고리즘이 기존의 셀 추적 알고리즘과 비교하여 훨씬 빠른 결과를 수행할 수 있음을 보였다.

Gen-2 RFID 시스템에서 가중치에 따른 Q-알고리즘의 성능 분석 (Performance Analysis of Q-Algorithm According to Weight in Gen-2 RFID System)

  • 임인택
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.529-531
    • /
    • 2011
  • Gen-2 Q-알고리즘에서는 슬롯-카운트의 크기를 증감시키기 위한 매개변수인 가중치 C의 값이 정해져 있지 않다. 이 경우 적절하지 못한 가중치를 선택할 경우 빈 슬롯 또는 충돌 슬롯이 많이 발생할 수 있다. 이로 인하여 질의 라운드 동안 최적의 프레임 크기에 수렴하는 속도가 늦어지므로 성능이 저하되는 문제점이 있다. 따라서 본 논문에서는 슬롯-카운터를 결정하기 위한 가중치 값이 Q-알고리즘의 성능에 미치는 영향을 분석한다.

  • PDF

Q-value Initialization을 이용한 Reinforcement Learning Speedup Method (Reinforcement learning Speedup method using Q-value Initialization)

  • 최정환
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(3)
    • /
    • pp.13-16
    • /
    • 2001
  • In reinforcement teaming, Q-learning converges quite slowly to a good policy. Its because searching for the goal state takes very long time in a large stochastic domain. So I propose the speedup method using the Q-value initialization for model-free reinforcement learning. In the speedup method, it learns a naive model of a domain and makes boundaries around the goal state. By using these boundaries, it assigns the initial Q-values to the state-action pairs and does Q-learning with the initial Q-values. The initial Q-values guide the agent to the goal state in the early states of learning, so that Q-teaming updates Q-values efficiently. Therefore it saves exploration time to search for the goal state and has better performance than Q-learning. 1 present Speedup Q-learning algorithm to implement the speedup method. This algorithm is evaluated. in a grid-world domain and compared to Q-teaming.

  • PDF