• 제목/요약/키워드: 키 복구

검색결과 177건 처리시간 0.022초

동해안 산불 피해지에서 산불 후 경과 년 수에 따른 식생 구조의 발달 (Development of Vegetation Structure after Forest Fire in the East Coastal Region, Korea)

  • 이규송;정연숙;김석철;신승숙;노찬호;박상덕
    • The Korean Journal of Ecology
    • /
    • 제27권2호
    • /
    • pp.99-106
    • /
    • 2004
  • 동해안 산불피해지역 중 시급한 복구계획을 요하는 사면지역에 대한 산불 후 경과 년 수에 따른 일반적인 식생발달 모형을 개발하였다. 또한 산불피해지역을 관리하기 위한 기법 개발에 사용될 매개변수로서 식생지수들의 발달모형을 제시하였다. 산불 피해지역에서 맹아로 재생하는 목본 식물량을 추정하기 위하여 총 17종의 상대 생장식을 구하였다. 산불 경과 후 교목층, 아교목층, 관목층 및 초본층의 4층 구조를 갖춘 완전한 형태의 숲으로 회복되는데 약 20년이 경과해야 하는 것으로 추정되었다. 산불 후 경과 년 수에 따라 최상층부 식생의 키, 목본의 기저면적 및 지상부 목본 식물량은 직선적인 증가 경향을 나타내었고, 전체 지상부 식피율과 낙엽층은 대수적인 증가 경향을 나타내었다. 식생지수 중 Ivc와 Ivcd는 산불 후 경과 년 수에 따라 대수적인 증가 경향을 그리고 Hcl과 Hcdl은 직선적인 증가경향을 나타내었다. 특히 산불 피해 후 2차 재해가 예측되는 초기 5년차 이내에서는 모든 식생 요인들이 입지요인이나 지력에 따라 공간적 이질성이 큰 것이 확인되었다. 식생 지수 중 Ivc와Ivcd는 산불 초기의 공간적 이질성을 표현하기에 적당한 지수이었고, Hcl과 Hcdl은 장기적인 식생구조의 발달을 예측하는데 유용한 지수로 판단되었다.

APEC Mining Task Force 개요

  • 허철호
    • 한국지구과학회:학술대회논문집
    • /
    • 한국지구과학회 2010년도 춘계학술발표회 논문집
    • /
    • pp.110-110
    • /
    • 2010
  • 2009년 7월 23일-24일 양일간의 APEC MTF 컨퍼런스는 APEC 회원 경제가 아시아-태평양지역에서 광업부문의 지속가능한 발전의 주제를 토의할 기회를 제공했다. 본 컨퍼런스는 APEC의 광업부문의 지속가능한 발전이라는 프로젝트의 중요 부분이며 컨퍼런스의 활발한 참여는 프로젝트의 성공을 증진시켰다. 지속가능한 발전에 대한 안건이 수년간 APEC의 핵심부분이었으며, 특히 광업장관(MRM)회의에 상정되어 왔다. 2004년 6월 칠레 안토파가스타의 제1차 회의에서, 광업장관들은 APEC 지역에서 광업 및 금속산업의 지속가능한 발전은 부를 창출하고, 환경사업을 창출하며, 사회적으로 책임있는 발전을 도모하며 사회를 위한 향상된 가치를 만들어낸다는데 동의했다. 초기의 action item들 중에서 지속가능한 발전에 있어서 광물 및 금속의 기여를 규명하는 것도 있었다. 광업에 있어서 지속가능한 발전에 대한 안건의 토의는 2005년 10월 한국의 경주 제2차 APEC MRM 회의에서 속계되었다. 관련된 action task는 채광 후 토지운영 뿐만 아니라 에너지 효율기술, 광업 오염 통제 기술과 같은 환경친화적인 채광기술에 대한 정보교환 및 협조를 독려하는 것이었다. 2007년 호주 퍼스의 제3차 회의에서 APEC MRM 회의는 특히 지구화의 시대에 APEC 지역 광물자원의 지속가능한 발전에 대한 긴밀한 지역적 협조에 대한 필요성을 인지하고 있다. 장관들은 역시 광업부문에서 지속가능한 발전에 대한 APEC 위상을 정립하기 위한 작업을 주도하기로 했으며 APEC 경제의 공통관심사를 UNCSD에 반영키 위한 자료제공을 하기로 결정했다. APEC 광업분야의 지속 가능한 개발에 관한 APEC MTF회의는 호주, 캐나다, 칠레, 중국, 인도네시아, 일본, 말레이시아, 파푸아 뉴기니, 페루, 필리핀, 한국, 러시아, 싱가포르, 타이완, 태국, 미국, 베트남에서 자신들의 지속 가능한 개발을 위한 활동에 관한 발표나 의견을 제시하였다. 세계 은행이나 AIM에서도 발표를 하였다. 중요한 소주제들은 다음과 같다. $\cdot$ APEC MTF가 APEC 광업분야의 지속 가능한 발전을 추구하는데 있어 적절한 포럼이라는 것 $\cdot$ 기업들이 사회적 책임(CSR)을 성실히 이행할 필요가 있다는 것 $\cdot$ 수자원과 인적자원의 부족을 다룰 필요가 있다는 것 $\cdot$ 적절한 광산 복구가 필요하다는 것이다. 한국은 "광업분야의 지속가능한 발전을 위한 환경과 광업간의 균형"이라는 프로젝트 아이디어를 제안했다. 인도네시아와 말레이시아는 한국측 프로젝트 수행의 중요성을 강조했다. 러시아 연방은 "광업에 있어 투자 활성화"라는 프로젝트 아이디어를 제안했다. 이 관점에서 MTF는 APEC 투자전문가 그룹과의 협력을 지지했으며 이 포럼간 활동을 활성화시키기 위하여 APEC 사무국에 요청했다. 이 프로젝트는 세계 광업분야의 투자를 증진시키는 최적관행 분석에 따라 제안될 것이고 수행될 것이다. 말레이시아는 광업 및 광업 산업의 지속가능한 발전지시자를 위한 역량구축 프로젝트를 제안했다. 태국은 말레이시아의 제안을 지지했으며 공동프로젝트를 제안했다.

  • PDF

비트 일부로부터 Multi-Prime RSA와 Prime Power RSA의 개인키를 복구하는 알고리즘 (Key Recovery Algorithm from Randomly-Given Bits of Multi-Prime RSA and Prime Power RSA)

  • 백유진
    • 정보보호학회논문지
    • /
    • 제26권6호
    • /
    • pp.1401-1411
    • /
    • 2016
  • Multi-Prime RSA와 Prime Power RSA는 변형 RSA 시스템의 일종이며, 이 중에서 Multi-Prime RSA는 서로 다른 r(r>2)개의 소수 $p_1,p_2,{\cdots},p_r$에 대하여 $N=p_1p_2{\cdots}p_r$을, Prime Power RSA는 서로 다른 소수 p, q와 양의 정수 r(>1)에 대하여 $N=p^rq$를 각각 모듈러스로 사용한다. 본 논문에서는 Heninger와 Shacham에 의해 제안된 방법을 사용하여 이 시스템들에 대한 안전성을 분석하며 구체적으로, 만약 $p_1,p_2,{\cdots},p_r$의 전체 비트 중 $2-2^{1/r}$의 비율에 해당하는 비트가 랜덤하게 주어지면 $N=p_1p_2{\cdots}p_r$이 다항식 시간 안에 소인수분해될 수 있음을, 그리고 p, q의 전체 비트 중 $2-{\sqrt{2}}$의 비율에 해당하는 비트가 랜덤하게 주어지면 $N=p^rq$가 다항식 시간 안에 소인수분해될 수 있음을 각각 보인다. 또한 $N=p_1p_2p_3$, $N=p^2q$, $N=p^3q$에 적용한 실험 결과를 통해 본 논문의 결과를 검증한다.

윈도우 최대 절전 모드 파일의 메모리 데이터 암호화 기법 연구 (Study on Memory Data Encryption of Windows Hibernation File)

  • 이경호;이우호;노봉남
    • 정보보호학회논문지
    • /
    • 제27권5호
    • /
    • pp.1013-1022
    • /
    • 2017
  • 최대 절전 모드는 물리 메모리의 데이터를 비휘발성 매체에 저장하였다가 시스템에 전원이 들어오면 메모리 데이터를 비휘발성 매체로부터 물리 메모리에 복구하는 기능이다. 최대 절전 모드 파일은 메모리 데이터를 정적 상태로 가지기 때문에 공격자가 이를 수집할 경우에 시스템의 물리 메모리에 있던 사용자 아이디와 패스워드 및 디스크 암호화키 등의 주요 정보들이 유출될 수 있는 위험성이 존재한다. 윈도우에서는 최대 절전 모드 파일만을 위한 보호기능을 지원하지 않기 때문에 최대 절전 모드 파일에 기록되는 메모리 데이터 내용들을 보호하는 방법이 필요하다. 본 논문에서는 최대 절전 모드 파일에 기록되는 프로세스의 메모리 데이터를 보호하기 위해서 최대 절전 모드 파일 내의 물리 메모리 데이터를 암호화하는 방법을 제안한다. 최대 절전 모드 처리 시에 메모리 데이터를 암호화하기 위해 최대 절전 모드 처리 절차를 분석하고, 최대 절전 모드 파일에 기록되는 메모리 데이터에 대한 암호화 과정이 프로세스 각각에 대해 투명하게 동작하도록 구현하였다. 실험을 통해 구현한 최대 절전 모드 파일 내 프로세스 메모리 데이터 암호화 도구는 암복호화 비용으로 약 2.7배의 오버헤드를 보였다. 이런 오버헤드는 전체 디스크 암호화 도구가 지속적으로 10% 이상의 속도저하를 유발하는 상황과 비교해 볼 때, 공격자에게 프로세스의 평문 메모리 데이터가 노출되지 않기 위해 필요한 비용으로 충분히 감내할 수 있다고 판단된다.

13.56Mhz RFID 환경에서 안전한 보안 스킴 구축을 위한 암호 스킴 및 보안 프로토콜 연구 (A Study on Cryptography Scheme and Secure Protocol for Safety Secure Scheme Construction in 13.56Mhz RFID)

  • 강정호;김형주;이재식;박재표;전문석
    • 한국산학기술학회논문지
    • /
    • 제14권3호
    • /
    • pp.1393-1401
    • /
    • 2013
  • RFID란 개체에 Micro Chip이 내장된 태그를 부착하여 리더를 통해 개체를 인식한 후 서버와의 통신을 통해 개체를 인증하는 기술을 총칭한다. 다양한 RFID 태그 중, ISO/IEC 14443 표준 기반의 NXP사의 Mifare 태그는 13.56Mhz 대역의 RFID 카드로, 전 세계 시장의 72.5%를 점유하고 있다. Mifare 태그 중, 저가 태그인 Mifare Classic 태그는 제한적인 하드웨어 연산을 기반으로 보안이 제공됨에 따라, 다양한 공격에 의해 프로토콜 노출 및 키 복구 취약점이 발생하였다. 이에 본 논문에서는 13.56Mhz RFID 환경에서 안전한 보안 스킴 구축을 위한 암호 스킴 및 보안 프로토콜을 설계하였다. 제안하는 보안 스킴은 KS 생성 시 다양한 고정값과 비고정값을 사용하고, S-Box 연산을 수행하며, LFSR 연산과 S-Box 연산에 사용되는 값을 교차시켜, 기존 보안 스킴의 취약점과 스푸핑, 재생 공격과 같은 일반적인 RFID 보안 요구사항을 만족한다. 또한, 제한된 하드웨어 연산 능력과 기존 보안 스킴의 연장선상에서 설계되어, 현재 사용되는 Mifare Classic에 바로 적용 가능하다.

무인기 기반 다중분광 영상을 이용한 벼 쓰러짐 영역의 특성 분석 (Comparative Analysis of Rice Lodging Area Using a UAV-based Multispectral Imagery)

  • 문현동;류재현;나상일;장선웅;신서호;조재일
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.917-926
    • /
    • 2021
  • 벼 쓰러짐은 벼농사의 대표적인 기상재해 피해로써 강한 바람과 강우로 발생한다. 원격탐사 기법은 넓은 지역의 벼 쓰러짐을 효과적으로 탐지하기에 적절한 방법이다. 실제로 벼 쓰러짐은 벼 키가 최대인 생육 시기에 주로 발생하여 군락의 큰 구조적 변화를 불러오기 때문에 분광 반사도 차이를 야기한다. 따라서, 본고에서는 나주에 위치한 전남농업기술원의 2020년 태풍에 의한 논벼 피해를 444 nm부터 842 nm까지 10개 밴드로 구성된 카메라 영상으로 분석하였다. 드론 영상마다 벼 쓰러짐 피해를 받은 영역과 벼 쓰러짐 피해가 없는 영역으로 구분하여 벼 쓰러짐 영역의 분광 반사도 특성 차이와 식생 탐지에 주로 사용되는 식생지수인 NDVI(Normalized Difference Vegetation Index), NDRE (Normalized Difference Red Edge), CCI (Chlorophyll Carotenoid Index)의 변화를 살펴보았다. 반사도 값의 변화는 밴드6(668 nm)에서 가장 적었으며, 이를 중심으로 밴드 파장이 감소와 증가할수록 일반 논벼 보다 쓰러짐 영역 반사도가 커졌다. 또한, 쓰러진 벼를 묶어 세운 복구 지역은 대부분의 밴드에 걸쳐 반사도가 크게 감소함을 볼 수 있었다. NDVI와 NDRE는 벼 쓰러짐 영역에 대해 민감하게 반응하였으나, 그 반응 대상 및 정도는 서로 달랐다. 본 연구의 결과는 향후 드론과 위성을 이용한 벼 쓰러짐 피해 조사 알고리즘에 기여될 것으로 기대한다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.