• 제목/요약/키워드: 데이터 자동복구

검색결과 22건 처리시간 0.022초

사이버 공격에 능동대응하기 위한 사이버 자산의 지능형 자가복구기술 연구 (A Study on Intelligent Self-Recovery Technologies for Cyber Assets to Actively Respond to Cyberattacks)

  • 최세호;임항섭;최중영;권오진;신동규
    • 인터넷정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.137-144
    • /
    • 2023
  • 사이버 공격 기술은 예측 불가할 정도로 진화하고 있으며, '언젠가는'이 아니라 '언제나' 일어날 수 있는 상황이다. 클라우드 컴퓨팅, 사물인터넷(Internet of Things) 등으로 초연결 글로벌화되고 있는 인프라는 그 어느 때보다 사이버 공격에 큰 피해를 받을 수 있는 환경이며, 사이버 공격은 지금도 진행 중이다. 사이버 공격이나 천재지변 등 외부적인 영향으로 피해가 발생하더라도 사이버 자산(OS, WEB, WAS, DB)의 다운 타임을 최소화하기 위해 사이버 레질리언스 관점에서 지능형 자가복구로 진화해야 한다. 본 논문에서는 사이버 자산이 사이버 공격을 받아 고유의 기능이 제대로 발휘하지 못할 경우 지속가능한 사이버 레질리언스를 보장하기 위한 지능형 자가복구기술을 제안한다. 평상시 사이버 자산의 원본 및 업데이트 이력을 타임슬롯 설계 및 스냅샷 백업 기술로 실시간 관리한다. 상용화된 파일 무결성 모니터링 프로그램과 연동하여 피해 상황을 자동 탐지하고 지능형 기반으로 피해 파일에 대한 백업 데이터의 연관성 분석을 통해 사이버 자산의 다운타임을 최소화하여 최적의 상태로 자가복구할 수 있는 기술을 확보해야 한다. 향후에는 사이버 자산이 피해 받은 상태에 적합한 자가복구 전략 학습 및 분석을 수행할 수 있는 운영모델과 자가복구기술의 고유기능이 적용된 시범체계 연구를 수행할 예정이다.

MPLS 망에서의 신속한 LSP 복구를 위한 MPLS OAM 기능 연구 (A Study on MPLS OAM Functions for Fast LSP Restoration on MPLS Network)

  • 신해준;임은혁;장재준;김영탁
    • 한국통신학회논문지
    • /
    • 제27권7C호
    • /
    • pp.677-684
    • /
    • 2002
  • 현재의 인터넷은 폭발적으로 증가하는 다양한 멀티미디어 트래픽의 QoS 제공을 위한 트래픽 엔지니어링 기능을 갖고 있지 않다. 이러한 기능적인 단점들은 현격한 서비스 품질의 저하와 대량의 멀티미디어 서비스와 실시간 서비스 제공을 더욱 어렵게 한다. 이러한 문제를 해결하기 위한 다양한 기술이 개발되고 있다. 현재 IETF(Internet Engineering Task Force)에서 제안한 MPLS(Multi-Protocol Label Switching)기술이 이러한 문제를 해결할 차세대 인터넷의 백본 기술로 가장 유력할 것으로 예상된다$^{[1][2]}$ . MPLS와 같은 고속통신망에서 발생하는 장애는 대량의 데이터 손실과 서비스의 품질을 저하시키게 된다. 그러므로 이러한 장애에 대한 신속한 통신망의 자동복구 기능 및 OAM(Operation, Administration and Maintenance)기능은 필수적이라 할 수 있다. MPLS 통신망은 2계층에 독립적이기에 이에 적용할 장애검출, 장애보고 같은 OAM 기능 또한 다른 계층의 OAM 기능과 독립적으로 동작해야 한다. 본 논문에서는 OPNET 네트워크 시뮬레이터를 기반으로 MPLS 통신망에서의 성능측정과 장애의 검출보고, 장애의 위치 파악을 위한 MPLS OAM의 실험적인 결과를 나타내었다.

최대 엔트로피 모델을 이용한 텍스트 단위화 학습 (Learning Text Chunking Using Maximum Entropy Models)

  • 박성배;장병탁
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2001년도 제13회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.130-137
    • /
    • 2001
  • 최대 엔트로피 모델(maximum entropy model)은 여러 가지 자연언어 문제를 학습하는데 성공적으로 적용되어 왔지만, 두 가지의 주요한 문제점을 가지고 있다. 그 첫번째 문제는 해당 언어에 대한 많은 사전 지식(prior knowledge)이 필요하다는 것이고, 두번째 문제는 계산량이 너무 많다는 것이다. 본 논문에서는 텍스트 단위화(text chunking)에 최대 엔트로피 모델을 적용하는 데 나타나는 이 문제점들을 해소하기 위해 새로운 방법을 제시한다. 사전 지식으로, 간단한 언어 모델로부터 쉽게 생성된 결정트리(decision tree)에서 자동적으로 만들어진 규칙을 사용한다. 따라서, 제시된 방법에서의 최대 엔트로피 모델은 결정트리를 보강하는 방법으로 간주될 수 있다. 계산론적 복잡도를 줄이기 위해서, 최대 엔트로피 모델을 학습할 때 일종의 능동 학습(active learning) 방법을 사용한다. 전체 학습 데이터가 아닌 일부분만을 사용함으로써 계산 비용은 크게 줄어 들 수 있다. 실험 결과, 제시된 방법으로 결정트리의 오류의 수가 반으로 줄었다. 대부분의 자연언어 데이터가 매우 불균형을 이루므로, 학습된 모델을 부스팅(boosting)으로 강화할 수 있다. 부스팅을 한 후 제시된 방법은 전문가에 의해 선택된 자질로 학습된 최대 엔트로피 모델보다 졸은 성능을 보이며 지금까지 보고된 기계 학습 알고리즘 중 가장 성능이 좋은 방법과 비슷한 성능을 보인다 텍스트 단위화가 일반적으로 전체 구문분석의 전 단계이고 이 단계에서의 오류가 다음 단계에서 복구될 수 없으므로 이 성능은 텍스트 단위화에서 매우 의미가 길다.

  • PDF

재난 전조 정보 추출 알고리즘 연구 (A Study of the extraction algorithm of the disaster sign data from web)

  • 이창열;김태환;차상열
    • 한국재난정보학회 논문집
    • /
    • 제7권2호
    • /
    • pp.140-150
    • /
    • 2011
  • 지구 온난화로 생활 환경이 급격히 변화하고 있으며, 대형 재난이 증가하고 있다. 이러한 재난 발생시 복구에 많은 자원을 투입하고 있지만, 재난의 예방 만큼 효과적인 대책은 없을 것이다. 재난전조 정보란 하인리히 법칙에 따라 예고되는 재난에 대한 전조이며, 이에 대한 정보를 자동으로 추출하여 대비할 수 있게 하는 것이 본 논문의 초점이다. 웹에 산재된 정보로부터 전조 정보를 정확히 추출하기 위한 기반이 되는 단어(명사)를 구축하고 이를 기반으로 정확한 데이터를 추출할 수 있는 알고리즘을 연구하였다. 본 연구의 결과물로 도출된 단어는 분석적인 연구결과이기 때문에 장기적으로 실제 데이터를 적용하면서 지속적으로 보완되어야 할 것이다.

디지털포렌식 관점에서의 디지털복합기내 데이터 복구 및 분석 (The Recovery and Analysis of Digital Data in Digital Multifunction Copiers with a Digital Forensics Perspective)

  • 박일신;강철훈;최성진
    • 정보보호학회논문지
    • /
    • 제20권6호
    • /
    • pp.23-32
    • /
    • 2010
  • IT 환경의 발전으로 일상생활에서의 임베디드 기기의 사용빈도가 증가하고 있다. 이러한 임베디드 기기중 대표적인 사무자동화기기인 디지털복합기는 복사기, 스캐너, 팩스, 파일서버 기능 등 다양한 용도로 사용되고 있다. 이러한 디지털복합기내에 스캔 등을 통하여 저장되어 있을 수 있는 데이터의 존재여부와 추출방법, 이를 이용한 증거자료로서의 활용방안에 대하여 논하여 보고자 한다.

무선 통신에서 DC 바이어스를 최소화하는 화이트닝 블록 설계 (Design of a Whitening Block Module for Minimizing DC Bias in Wireless Communications)

  • 문상국
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2008년도 추계종합학술대회 B
    • /
    • pp.673-676
    • /
    • 2008
  • 블루투스와 같은 무선통신의 경우, 베이스밴드에서는 송신단과 수신단의 데이터의 모뎀 인터페이스를 통과한 데이터에 대해 보안성 및 회로의 안정성을 위해 DC 바이어스를 제거해주어야 한다. 송신단에서는 송신할 데이터를 랜덤하게 섞어 에러 정정 모들에 보내주어야 하며 수신단에서는 랜덤하게 평준화된 데이터들을 원래 상태로 복구하여야 한다. 이러한 화이트닝 블록은 필터링을 위한 고유다항식을 목적에 맞게 선택하는 것이 매우 중요하다. 본 논문에서는 하드웨어의 효율성을 높이고 면적을 줄이기 위하여 고유다항식을 $g(D)=D^7+D^4+1$로 선택하여 화이트닝 블록을 설계하였다. 설계한 하드웨어 화이트닝 블록은 Verilog HDL로 기술하고 검증하여 자동 합성방식으로 합성하였다. 합성된 화이트닝 블록은 기준으로 삼는 베이스밴드 마이크로콘트롤러의 동작주파수인 40MHz에서 정상적으로 동작하였다.

  • PDF

효율적인 비용을 갖는 자동장애극복 네트워크의 설계방안 (Automatic Recovery Network Design for the Efficient Costs)

  • 송명규
    • 한국산학기술학회논문지
    • /
    • 제14권11호
    • /
    • pp.5885-5889
    • /
    • 2013
  • 일반적으로 서바이벌 특성이란 네트워크 장애 시 고객이 인식하기 전에 서비스가 복구 될 수 있는 것을 말한다. 예를 들면 데이터 전송 중에 링크장애가 발생하면 즉시 대체 경로를 찾아 데이터 전송이 중단되지 않도록 하는 것이다. 이때 이용되는 것이 이중경로를 찾는 알고리즘이고 이때 주요요소가 경로 비용이 된다. 한 노드에서 다른 노드로 데이터 전송을 할 때 최소비용경로를 찾는 것이 효율적이다. 이때 찾아진 최소비용경로는 네트워크 장애가 발생하지 않는 경우에는 최적의 경로가 될 수 있다. 다만 네트워크 장애가 발생한 경우 대체 경로를 찾아야 하는데 이때 대체 경로의 비용이 매우 높다고 하면 비용 면에서 비효율적일 수 있다. 따라서 본 논문에서는 네트워크 설계 시 서바이벌 특성을 고려하여 최소비용을 갖는 이중경로가 각각의 두 노드 사이에 최대한 존재 할 수 있는 방법을 찾는다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

Block based Smart Carving System for Forgery Analysis and Fragmented File Identification

  • 이한성;이형우
    • 인터넷정보학회논문지
    • /
    • 제21권3호
    • /
    • pp.93-102
    • /
    • 2020
  • 디지털 범죄 수사의 전 단계에 걸쳐 획득된 자료가 증거 능력으로 인정 받을 수 있기 위해서는 법적/기술적 요구사항을 만족하여야 한다. 본 논문에서는 파일 시스템에서 기본적으로 제공하는 정보에 의존하지 않고, 저장장치 디스크 내부의 비할당 영역을 블록 단위로 스캔/검사하여 파일을 자동 복구하여 디지털 포렌식 증거 자료로 확보하는 메커니즘을 제시하였고 이를 직접 SW로 구현하였다. 제시한 기법은 분석 대상 시스템의 RAW 디스크 데이터에 대해 운영체제에서 제공하는 파일 시스템 관련 정보를 참조하지 않으면서 디스크 내에 저장된 각종 파일의 저장 포맷/파일 구조에 관한 정보를 토대로 512 바이트 블록 단위로 검사/분석하는 파일 카빙 과정을 구현하였으며, 저장 장치 내에 삭제되거나 손상된 파일을 지능적으로 복원하는 Smart Carving 메커니즘을 제시하였다. 구현한 기법을 이용할 경우 디지털 포렌식 분석 과정에서 시스템 내부에 저장된 파일에 대한 위변조 여부를 지능적으로 판별할 수 있는 블록 기반 스마트 카빙 기능을 제공한다.

Stack-Attention을 이용한 흐릿한 영상 강화 기법 (Blurred Image Enhancement Techniques Using Stack-Attention)

  • 박채림;이광일;조석제
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권2호
    • /
    • pp.83-90
    • /
    • 2023
  • 컴퓨터 비전에서 흐릿한 영상은 영상 인식률을 저하시키는 중요한 요인이다. 이것은 주로 카메라가 불안정하게 초점을 맞추지 못하거나, 노출시간동안 장면의 물체가 빠르게 움직일 때 발생한다. 흐릿한 영상은 시각적 품질을 크게 저하시켜 가시성을 약화시키며, 이러한 현상은 디지털카메라의 기술이 지속적으로 발전하고 있음에도 불구하고 빈번하게 일어난다. 본 논문에서는 합성곱 신경망으로 설계된 심층 멀티 패치 계층 네트워크(Deep multi patch hierarchical network)를 기반으로 수정된 빌딩 모듈을 대체하여 입력 영상의 디테일을 잡고 주의 집중 기법을 도입하여 흐릿한 영상 속 물체에 대한 초점을 다방면으로 맞추어 영상을 강화한다. 이것은 서로 다른 스케일에서 각각의 가중치를 측정 및 부여하여 흐림의 변화를 차별적으로 처리하고 영상의 거친 수준에서 미세한 수준까지 순차적으로 복원하여 글로벌한 영역과 로컬 영역 모두 조정한다. 이러한 과정을 통해 저하된 화질을 복구하고 효율적인 객체 인식 및 특징을 추출하며 색 항상성을 보완하는 우수한 결과를 보여준다.