• Title/Summary/Keyword: 특징 보상

Search Result 264, Processing Time 0.036 seconds

Optimal Route Finding Algorithms based Reinforcement Learning (강화학습을 이용한 주행경로 최적화 알고리즘 개발)

  • 정희석;이종수
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.05a
    • /
    • pp.157-161
    • /
    • 2003
  • 본 논문에서는 차량의 주행경로 최적화를 위해 강화학습 개념을 적용하고자 한다. 강화학습의 특징은 관심 대상에 대한 구체적인 지배 규칙의 정보 없이도 최적화된 행동 방식을 학습시킬 수 있는 특징이 있어서, 실제 차량의 주행경로와 같이 여러 교통정보 및 시간에 따른 변화 등에 대한 복잡한 고려가 필요한 시스템에 적합하다. 또한 학습을 위한 강화(보상, 벌칙)의 정도 및 기준을 조절해 즘으로써 다양한 최적주행경로를 제공할 수 있다. 따라서, 본 논문에서는 강화학습 알고리즘을 이용하여 다양한 최적주행경로를 제공해 주는 시스템을 구현한다.

  • PDF

A Study on Image Stabilization (영상 안정 방법에 관한 연구)

  • 김희정;소영성
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.08a
    • /
    • pp.285-288
    • /
    • 2000
  • 본 논문에서는 카메라 플랫홈의 흔들림 등으로 인한 외부 영향으로 출렁이는 비디오를 전자적으로 안정화시키는 방법을 제안한다. LOG operator〔1〕을 이용하여 특징점을 잡고 그 특징점을 중심으로 일정크기의 subblock에 대해서만 correlation을 구한다. Least Square를 이용하여 모션 파라메타를 측정하고 모션 보상을 행하는데 현재의 영상을 기준 좌표계로 변환하고 명암값 보간을 하게된다. 이 때 기존 연구에서 많이 사용한 bilinear 보간법의 단점인 대비가 첨예한 곳에서의 averaging 효과를 없애기 위해 본 연구에서는 대비가 첨예한 곳에서는 nearest neighbor 보간을 사용하고 그렇지 않은 곳에서는 bilinear 보간을 사용하는 hybrid한 방법을 채택하였다. 그 결과 사람이 카메라를 손에 들고 움직일 때 생기는 출렁이는 비디오에 대해 대부분의 카메라 움직임을 안정화시킬 수 있었다.

  • PDF

A Methodology or Variable Cost for Reactive Power (무효전력의 변동비 산정 방법론)

  • Ma, Sam-Sun;Yoon, Yong-Beum;Kho, Kyung-Ho;Jung, Young-Bum
    • Proceedings of the KIEE Conference
    • /
    • 2006.11a
    • /
    • pp.189-191
    • /
    • 2006
  • 전력시장의 도입과 함께 그동안 전력사업자가 자체적으로 운용하였던 계통보조서비스를 이제는 각 발전사에게 할당하여 공급하는 체계가 됨에 따라 이에 대한 적절한 보상이 주요 이슈화 되고 있다. 헌재 주파수제어나 예비력확보 등은 보상되고 있지만 무효전력 조정에 대해서는 아직까지 아무런 보상책이 없어 무효전력의 공급을 기피할 가능성이 있다. 그동안 무효전력의 최적비용에 대해서는 최적조류계산이나 한계송전손실계수 산정 등에 의해 각 모선별로 산정하는 방법은 연구되고 있지만 각 발전기의 변동비 측면의 접관은 실재 적용 가능한 현실적인 방법임에도 이에 대한 연구가 적었다. 여기서는 무효전력의 변동비를 산정하기 위해 손실에 따른 부가적 에너지를 구하고, 무효전력 운용 유지보수 비용 및 수명 저하에 따른 비용요소를 고려한다. 이 연구방법의 특징으로는 발전기측의 자료를 사용하여 각 발전기의 무효전력 공급에 따른 변동비를 산정할 수 있어 무효전력 공급에 대한 각 발전기별 보상을 할 수 있는 방법이다.

  • PDF

An Analysis on Compensation for Special Mission Executors -Focused on Theoretical Frameworks of Gilbert and Terrell- (특수임무 수행자 보상에 대한 분석 -길버트와 테렐 분석틀을 중심으로-)

  • Song, Byeong-Keun;Park, Seong-su;Yu, Soo-Min
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.1
    • /
    • pp.287-298
    • /
    • 2023
  • The purpose of this study is to analyze the compensation law for Special Mission Executors enacted to compensate for sacrifices for the state based on the policy framework proposed by Gilbert and Terrell and to present the limitations and development directions of the compensation policy. In particular, this study presents the characteristics of each dimension of the policy through the bases of social allocation, the types of social provisions, the strategies for the delivery, and the ways to finance. Through the analysis, We deduce problems of the compensation law for Special Mission Executors. Representative limitations of the compensation policy can be summarized as follows. Due to extreme selectivism, the limitations are the narrow selection criteria of the targets, the benefits which are not out of proportional to contributions, delayed benefits and the decrease in the size of public resources. These limitations suggest that the compensation policy for Special Mission Executors does not contain the significance of the Patriots and Veterans Affairs Policy. The value the Patriots and Veterans Affairs can be considered as a means for repaying the contributions who sacrificed for the nation. Therefore, the government needs to make efforts to develop a policy with the true significance of the Patriots and Veterans Affairs.

A Study on Automatic Phoneme Segmentation of Continuous Speech Using Acoustic and Phonetic Information (음향 및 음소 정보를 이용한 연속제의 자동 음소 분할에 대한 연구)

  • 박은영;김상훈;정재호
    • The Journal of the Acoustical Society of Korea
    • /
    • v.19 no.1
    • /
    • pp.4-10
    • /
    • 2000
  • The work presented in this paper is about a postprocessor, which improves the performance of automatic speech segmentation system by correcting the phoneme boundary errors. We propose a postprocessor that reduces the range of errors in the auto labeled results that are ready to be used directly as synthesis unit. Starting from a baseline automatic segmentation system, our proposed postprocessor trains the features of hand labeled results using multi-layer perceptron(MLP) algorithm. Then, the auto labeled result combined with MLP postprocessor determines the new phoneme boundary. The details are as following. First, we select the feature sets of speech, based on the acoustic phonetic knowledge. And then we have adopted the MLP as pattern classifier because of its excellent nonlinear discrimination capability. Moreover, it is easy for MLP to reflect fully the various types of acoustic features appearing at the phoneme boundaries within a short time. At the last procedure, an appropriate feature set analyzed about each phonetic event is applied to our proposed postprocessor to compensate the phoneme boundary error. For phonetically rich sentences data, we have achieved 19.9 % improvement for the frame accuracy, comparing with the performance of plain automatic labeling system. Also, we could reduce the absolute error rate about 28.6%.

  • PDF

Cooperative Multi-agent Reinforcement Learning on Sparse Reward Battlefield Environment using QMIX and RND in Ray RLlib

  • Minkyoung Kim
    • Journal of the Korea Society of Computer and Information
    • /
    • v.29 no.1
    • /
    • pp.11-19
    • /
    • 2024
  • Multi-agent systems can be utilized in various real-world cooperative environments such as battlefield engagements and unmanned transport vehicles. In the context of battlefield engagements, where dense reward design faces challenges due to limited domain knowledge, it is crucial to consider situations that are learned through explicit sparse rewards. This paper explores the collaborative potential among allied agents in a battlefield scenario. Utilizing the Multi-Robot Warehouse Environment(RWARE) as a sparse reward environment, we define analogous problems and establish evaluation criteria. Constructing a learning environment with the QMIX algorithm from the reinforcement learning library Ray RLlib, we enhance the Agent Network of QMIX and integrate Random Network Distillation(RND). This enables the extraction of patterns and temporal features from partial observations of agents, confirming the potential for improving the acquisition of sparse reward experiences through intrinsic rewards.

위성 WiBro 신호전송 및 보상기법

  • Lee, Byeong-Seop
    • TTA Journal
    • /
    • s.109
    • /
    • pp.56-63
    • /
    • 2007
  • 위성을 이용하여 초고속 이동체를 대상으로 한 WiBro 서비스를 제공하는데 있어서 OFDM(Orthogonal Frequency Division Multiplexing) 신호의 특징인 과대한PAR(Peak To Average Power Ratio)로 인한 위성중계기에서의 비선형 간섭신호 분석과 이를 극복할 수 있는 변조방식에 대하여 논하고 아울러 시속 300Km가 넘는 초고속 이동체에서 OFDM 신호를 송, 수신하는 경우 Doppler 주파수 편이에 따른 WiBro 수신성능 열화를 분석하고 이를 효과적으로 극복할 수 있는 새로운 방법을 제안한다.

  • PDF

A comparative study of classification methods for Face Recognition (얼굴 인식을 위한 분류기법에 관한 비교연구)

  • 이동훈;박영태
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.538-540
    • /
    • 2003
  • 본 논문에서는 얼굴 영상의 변화를 보상할 수 있는 전처리 과정으로서 기하학적 특징에 기반한 순수 얼굴 영역 검출 기법을 도입하고 분류기로서 간단한 정합 기법을 사용한 얼굴 인식 기법을 제안한다. 실험결과를 보면 제안한 기법은 NNC, BPN, SVM 분류 기법에 비해 월등한 성능을 가진다.

  • PDF

Differential Response Style on the Personality Assessment Inventory according to Compensation-Seeking Status in Patients with Traumatic Brain Injury (외상성 뇌손상 환자에서 보상추구 여부에 따른 성격평가질문지 반응 양식의 차이)

  • Kim, Yeon-Jin;Kweon, Seok-Joon;Rho, Seung-Ho;Paik, Young-Suk
    • Korean Journal of Psychosomatic Medicine
    • /
    • v.23 no.1
    • /
    • pp.12-19
    • /
    • 2015
  • Objectives : This study examined the characteristics and differences of PAI(Personality Assessment Inventory) profile between compensation-seeking(CS) and treatment-seeking(TS) patients with traumatic brain injury(TBI) and assessed the clinical meaning of the characteristics and differences of profiles between the two groups. Methods : 36 TBI patients who visited the Wonkwang University Hospital were selected. The patients were categorized as compensation-seeking TBI patients(n=22) and treatment-seeking TBI patients(n=14). The PAI scales and subscales were used to compare differences between two groups. t-verification for each variable and comparison analysis were performed. Results:In validity scales, CS group showed significantly higher NIM scores and lower PIM scores than TS groups. In full scales, CS group showed significantly higher SOM, ANX, ARD, DEP, and SCZ scores than TS group. In subscales, CS group showed significantly higher SOM-S, ANX-A, ARD-P, DEP(-C, A, P), (MAN-I), PAR-H, SCZ(-T, P), BOR(-A, N), and ANT-S scores than TS groups. In supplementary scales, CS group showed significantly higher SUI, NON and AGG-P, and lower RXR scores than TS group. Conclusions:There were significant differences in PAI scales with validity scales, some full and subscales according to compensation seeking status in TBI patients. The CS patients tended to exaggerate their symptoms on PAI, and showed higher scores representing somatic preoccupation and emotional distress. These results show the usefulness of PAI in reflecting the significant psychological differences between two groups.

Vision-Based Robust Control of Robot Manipulators with Jacobian Uncertainty (자코비안 불확실성을 포함하는 로봇 매니퓰레이터의 영상기반 강인제어)

  • Kim, Chin-Su;Jie, Min-Seok;Lee, Kang-Woong
    • Journal of Advanced Navigation Technology
    • /
    • v.10 no.2
    • /
    • pp.113-120
    • /
    • 2006
  • In this paper, a vision-based robust controller for tracking the desired trajectory a robot manipulator is proposed. The trajectory is generated to move the feature point into the desired position which the robot follows to reach to the desired position. To compensate the parametric uncertainties of the robot manipulator which contain in the control input, the robust controller is proposed. In addition, if there are uncertainties in the Jacobian, to compensate it, a vision-based robust controller which has control input is proposed as well in this paper. The stability of the closed-loop system is shown by Lyapunov method. The performance of the proposed method is demonstrated by simulations and experiments on a two degree of freedom 5-link robot manipulators.

  • PDF