• Title/Summary/Keyword: 환경 강화

Search Result 4,291, Processing Time 0.035 seconds

Environmental Tax in the Energy Sector and Its Income Distribution Effect (에너지부문 환경세 도입의 소득분배 파급효과)

  • Kang, Man-Ok;Lim, Byung-In
    • Journal of Environmental Policy
    • /
    • v.7 no.2
    • /
    • pp.1-32
    • /
    • 2008
  • This study examined the income distribution effect of the environmental taxes in the energy sector by applying the Urban Family Survey and the Household Income and Expenditure Survey to the Kakwani index. The results analyzed are as follows: first, taxes of the non-transportation energy sector show progressive tax schemes, while those of transportation energy show regressive ones. Second, we calculated the scenario-specific progressivity index on basis of the existing energy price structure. Contrary to the previous works claimed to be regressive, the progressivity in scenario I got higher than before, except for the congestion taxes. Also, the index by the total sum of taxes in scenario II showed just a little bit higher progressive tax system. In scenario III, both the value added tax and the total sum of taxes have a little regressive structure, but the indexes in the environmental taxes, heat capacity taxes, and those which the environmental tax and the congestion tax and heat capacity taxes are summed up, are in general progressive. Third, subsidizing the tax revenues raised from the environmental taxes to the poor classes by a simulation approach shows more progressive as expected, implying the more subsidy the higher the progressivity index. As a result, it is said that the implementation of the environmental taxes has no negative impact on the income distribution, and the subsidy of the tax revenue raised from it to the poor can make the income inequality improve.

  • PDF

Q-learning Using Influence Map (영향력 분포도를 이용한 Q-학습)

  • Sung Yun-Sick;Cho Kyung-Eun
    • Journal of Korea Multimedia Society
    • /
    • v.9 no.5
    • /
    • pp.649-657
    • /
    • 2006
  • Reinforcement Learning is a computational approach to learning whereby an agent take an action which maximize the total amount of reward it receives among possible actions within current state when interacting with a uncertain environment. Q-learning, one of the most active algorithm in Reinforcement Learning, is consist of rewards which is obtained when an agent take an action. But it has the problem with mapping real world to discrete states. When state spaces are very large, Q-learning suffers from time for learning. In constant, when the state space is reduced, many state spaces map to single state space. Because an agent only learns single action within many states, an agent takes an action monotonously. In this paper, to reduce time for learning and complement simple action, we propose the Q-learning using influence map(QIM). By using influence map and adjacent state space's learning result, an agent could choose proper action within uncertain state where an agent does not learn. When this paper compares simulation results of QIM and Q-learning, we show that QIM effects as same as Q-learning even thought QIM uses 4.6% of the Q-learning's state spaces. This is because QIM learns faster than Q-learning about 2.77 times and the state spaces which is needed to learn is reduced, so the occurred problem is complemented by the influence map.

  • PDF

Prey-predator Problem in the Reinforcement Learning of Autonomous Mobile Robots for Cooperative Behavior (협조행동을 위한 자율이동로봇의 강화학습에서의 먹이와 포식자 문제)

  • Kim, Seo-Kwang;Kim, Min-Soo;Yoon, Yong-Seock;Kong, Seong-Gon
    • Proceedings of the KIEE Conference
    • /
    • 2000.11d
    • /
    • pp.809-811
    • /
    • 2000
  • 협조행동이 요구되는 다수의 자율이동로봇 시스템에서 각 개체는 주변환경의 인식뿐만 아니라 지속적인 환경변화에 적응할 수 있는 고도의 추론능력을 요구하고 있다. 이에 본 논문에서는 강화학습을 이용하여 동적으로 변화하는 환경에서 스스로 학습하여 대처할 수 있는 협조행동 방법을 제시하였다. 강화학습은 동물의 학습방법 연구에서 비롯되었으며, 주어진 목표를 수행하는 과정에서 개체의 행동이 목표를 성취하도록 하였을 때는 그 행동에 보상을 주어 환경의 상태에 따른 최적의 행동방법을 찾아내도록 학습하는 방법이다. 따라서 본 논문에서는 포식자들이 협조행동을 통하여 능동적으로 움직이는 먹이를 잡는 까다로운 문제에 제안한 방법을 적용하여 그 성능을 검증하였다.

  • PDF

A Study on the Fire Training Strategy (소방훈련 방안에 관한 전략적 연구)

  • Ki, Jaeseug
    • Proceedings of the Korean Society of Disaster Information Conference
    • /
    • 2017.11a
    • /
    • pp.183-184
    • /
    • 2017
  • 최근 사회 환경의 변화를 보면 혁신 기업도시 건설 등으로 인한 전국토의 도시화 및 도시구조물의 초고층화 및 밀집화 등으로 대형 재난발생의 가능성이 증가하고 있으며, 지구환경 변화에 따른 기상이변으로 인해 재해규모가 대형화 되는 추세이다. 이와 더불어 고령화 사화 도래와 생활수준의 향상으로 복지정책 강화와 재난에 대한 서비스 강화 요구가 증대되고 있는 실정이다. 이러한 재난환경의 변환은 기존 소방훈련 패러다임의 변화에 부응할 수 있는 보다 실질적이며, 다양한 재난상태에 대한 대응능력을 강화시킬 수 있는 훈련을 요구하게 된다. 본 연구에서는 재난환경의 변화와 교육 및 훈련 패러다임 변화에 부응할 수 있는 소방훈련을 국내외 현황분석을 통해 도출하여 향 후 소방훈련 시설 설계에 기준이 되도록 훈련 방안을 제시한다.

  • PDF

Reinforcement Learning-based Traffic Load Balancing in Service Mesh Environments (서비스 메시 환경에서 강화학습을 이용한 트래픽 부하 분산 메커니즘에 관한 연구)

  • Chae-Ho Kim;Jaehyun Nam
    • Annual Conference of KIPS
    • /
    • 2024.05a
    • /
    • pp.839-842
    • /
    • 2024
  • 서비스 메시 환경에서의 트래픽 분산은 시스템의 성능과 안정성, 그리고 보안에 필수적인 기능을 담당한다. 현재의 트래픽 분산 방식들은 대부분 정적 설정을 기반으로 하기 때문에 시스템 환경의 변화에 신속하게 대응하기 어렵고 최적화된 성능을 보장하기 힘들다. 본 논문에서는 강화학습을 활용해 서비스 메시 환경 내에서의 트래픽 분산을 자동화하고 최적화할 수 있는 새로운 시스템을 제안한다. 특히, 텔레메트리 기술을 활용해 트래픽의 분산을 실시간으로 추적하며, 강화학습 알고리즘을 이용해 트래픽 가중치를 조정함으로써 기존의 로드 밸런싱 방법들에 비해 더 빠른 처리 시간과 보다 효율적인 로드 밸런싱을 달성할 수 있을 것으로 기대한다.

Study on characteristic of Advanced oxidation process for improvement of dyeing wastewater effluent quality (염색폐수 방류수 수질개선을 위한 고도산화처리에 관한 연구)

  • Lee, Sang-Hun;Park, Jun-Hyung;Shin, Dong-Hoon;Ryu, Seung-Han
    • Proceedings of the Korean Society of Dyers and Finishers Conference
    • /
    • 2012.03a
    • /
    • pp.118-118
    • /
    • 2012
  • 현재 정부는 친환경녹색성장을 모티브로 환경기준을 강화하고 있으며, 오염 발생원을 최소화 하고자 현재 가동중인 환경기초시설을 대상으로 고도산화공정을 추가하여 오염 배출량을 최소화 하도록 정부와 지자체가 독려하고 있는 중이다. 따라서 대표적인 환경오염 업종인 섬유/염색 관련업체는 강화되는 환경기준을 만족하기 위한 공정검토가 불가피한 현실이다. 특히 대구 OO염색공단은 염색업체가 집적되어 있어 난분해성 오염물질과 색도유발물질이 다량 발생되고 있으며, 폐수처리장에서 운영 중인 재래식 폐수처리공정으로는 강화되는 방류수 수질기준을 충족할 수 없다. 따라서 본 연구에서는 방류수 수질기준을 만족하기 위한 고도산화 공정을 검토하였으며, 그 공정의 최적인자를 도출하고자 하였다. 고도산화 공정에서 오존산화, Peroxone AOP, Fenton oxidation 공정을 검토하였으며, 강화되는 수질기준을 만족할 수 있는 최적인자 및 처리효율을 검토하였다. 그 결과 조건에 따라 COD, T-N, T-P, 색도 등에서 처리효율은 40 ~ 90% 범위로 경제성을 고려하여 최적의 운전조건을 도출 하였다.

  • PDF

An Agent Architecture for Behavior-Based Reinforcement Learning (행위 기반 강화 학습 에이전트 구조)

  • Hwang, Jong-Geun;Kim, In-Cheol
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2007.11a
    • /
    • pp.284-293
    • /
    • 2007
  • 본 논문에서는 실시간 동정 환경에 효과적인 L-CAA 에이전트 구조를 제안한다. L-CAA 에이전트 구조는 변화하는 환경에 대한 적응성을 높이기 위해, 선행 연구를 통해 개발된 행위 기반 에이전트 구조인 CAA에 강화 학습 기능을 추가하여 확장한 것이다. 안정적인 성능을 위해 L-CAA에서 행위 선택 메커니즘은 크게 두 단계로 나뉜다. 첫 번째 단계에서는 사용자가 미리 정의한 각 행위의 수행 가능 조건과 효용성을 검사함으로써 행위 라이브러리로부터 실행할 행위들을 추출한다. 하지만 첫 번째 단계에서 다수의 행위가 추출되면, 두 번째 단계에서는 강화 학습의 도움을 받아 이들 중에서 실행할 하나의 행위를 선택한다. 즉, 강화 학습을 통해 갱신된 각 행위들의 Q 함수 값을 서로 비교함으로써, 가장 큰 기대 보상 값을 가진 행위를 선택하여 실행한다. 또한 L-CAA에서는 실행 중인 행위의 유지 가능 조건을 지속적으로 검사하여 환경의 동적 변화로 인해 일부 조건이 만족되지 않는 경우가 발생하면 현재 행위의 실행을 즉시 종료할 수 있다. 그 뿐 아니라, L-CAA는 행위 실행 중에도 효용성이 더 높은 다른 행위가 발생하면 현재의 행위를 일시 정지하였다가 복귀하는 기능도 제공한다. 본 논문에서는 L-CAA 구조의 효과를 분석하기 위해, 대표적인 동적 가상환경인 Unreal Tournament 게임에서 자율적을 동작하는 L-CAA기반의 UTBot 들을 구현하고, 이들을 이용하여 성능실험을 전개해본다.

  • PDF

국제기구 및 선진국, 해운산업에 대한 규제 점차 강화

  • Korea Shipowners' Association
    • 해운
    • /
    • no.9 s.43
    • /
    • pp.10-17
    • /
    • 2007
  • 최근들어 국제기구를 비롯하여 선진국들이 해양환경 보전과 관련한 규제를 대폭 강화하고 있는데다 중국과 인도 등 화주국가인 개도국들도 해운산업에 대한 규제수위를 높여 나감에 따라 해운경영 여건이 날로 악화되고 있다. 특히, 이 같은 규제강화는 선박의 운항원가를 높여 해운기업의 채산성에도 악형향을 끼치고 있어 이에 대한 대책마련이 시급한 실정이다. 다음은 해운산업에 대한 국제기구 및 각국의 규제조치를 정리한 것이다.

  • PDF