• 제목/요약/키워드: 그레이리스트

검색결과 7건 처리시간 0.019초

일본과 유럽의 침입외래생물 생태계위해성평가 기법 (Risk Assessment Tools for Invasive Alien Species in Japan and Europe)

  • 길지현;문새로미;김창기
    • Ecology and Resilient Infrastructure
    • /
    • 제2권3호
    • /
    • pp.191-197
    • /
    • 2015
  • 외래생물은 생물다양성을 감소시키는 주요 요인들 중 하나로 인식되고 있다. 도입된 외래생물에 대한 지속적인 모니터링과 위해성평가를 통한 관리방안 수립은 외래생물 관리정책의 핵심을 이룬다. 본 연구에서는 일본, 독일-오스트리아, 벨기에 등의 생태계 위해성평가 기법 및 적용 사례를 제시하여 합리적인 외래생물 관리 도구를 소개하고자 하였다. 일본은 생태계 등에 외래생물이 미칠 수 있는 부정적인 영향을 방지하고자 특정외래생물을 지정하여 수입과 사육 등을 금지하고 있다. 지정 기준은 토착생물에 대한 포식, 경합 및 구축, 환경의 교란 및 유전적 교란 등의 생태계의 피해, 인간의 생명 또는 신체와 관련한 피해, 농림수산업에 대한 피해 정도이다. 독일-오스트리아 블랙 리스트 정보시스템은 외래생물의 생물다양성에 대한 위해성, 분포 정도와 박멸 방안을 평가하여 블랙 리스트, 화이트 리스트 및 그레이 리스트로 구분하고 있다. 주로 외래생물의 생물다양성과 생태계의 구조와 기능에 대한 영향을 중점적으로 고려하며 인체 건강에 대한 피해나 농림수산업 등에 대한 경제적인 피해는 고려하지 않는다. 벨기에의 하모니아 정보시스템에서는 외래생물의 환경에 대한 영향과 국내에서의 침입 단계를 평가하여 블랙 리스트, 감시 리스트, 경계 리스트로 구분한다. 생태계위해성 평가를 위한 주요 항목은 잠재적 분산능력 또는 침입성, 보존가치가 높은 서식지로의 침입, 토착종에 대한 부정적인 영향, 생태계 기능의 변화, 국내에서의 침입 단계 등이 있다. 이러한 방법들은 국내 외래생물의 관리우선순위를 부여하기 위한 생태계위해성 평가 프로토콜을 수립하는데 도움이 될 수 있을 것이다.

원격코드검증을 통한 웹컨텐츠의 악성스크립트 탐지 (Detecting Malicious Scripts in Web Contents through Remote Code Verification)

  • 최재영;김성기;이혁준;민병준
    • 정보처리학회논문지C
    • /
    • 제19C권1호
    • /
    • pp.47-54
    • /
    • 2012
  • 최근 웹사이트는 매쉬업, 소셜 서비스 등으로 다양한 출처의 리소스를 상호 참조하는 형태로 변화하면서 해킹 시도도 사이트를 직접 공격하기보다 서비스 주체와 연계 서비스, 클라이언트가 상호 작용하는 접점에 악성스크립트를 삽입하는 공격이 증가하고 있다. 본 논문에서는 웹사이트 이용 시 신뢰관계에 있는 여러 출처로부터 다운받은 웹컨텐츠의 HTML 코드와 자바스크립트 코드가 클라이언트 브라우저에서 구동 시 삽입된 악성스크립트를 원격의 검증시스템으로부터 탐지하는 모델을 제안한다. 서비스 주체의 구현코드 정보를 활용하여 요청 출처에 따라 검증 항목을 분류하고 웹컨텐츠의 검증 요소를 추출하여 검증 평가결과를 화이트, 그레이, 블랙 리스트로 데이터베이스에 저장하였다. 실험평가를 통해 제안한 시스템이 악성스크립트를 효율적으로 탐지하여 클라이언트의 보안이 향상됨을 확인하였다.

VoIP 스팸 콜 탐지를 위한 음성신호의 DEVS 모델링 및 시뮬레이션 (DEVS Simulation of Spam Voice Signal Detection in VoIP Service)

  • 김지연;김형종;조영덕;김환국;원유재;김명주
    • 한국시뮬레이션학회논문지
    • /
    • 제16권3호
    • /
    • pp.75-87
    • /
    • 2007
  • VoIP 서비스 품질이 개선되고 많은 문제점들이 극복되면서 이에 대한 사용자들의 관심이 높아지고 있다. VoIP는 인스턴트 메시징 서비스 등 사용자들의 편익을 위한 서비스를 제공하고 있지만 비용 및 보안 문제는 사용자들의 이러한 서비스 사용을 주저하게 만들고 있다. 본 논문은 이와 같은 문제 중 하나인 VoIP 스팸 문제를 다루고자 한다. 스팸 콜에서의 음성 메시지 신호 패턴을 고려하여 정상 콜과 Noise가 포함된 정상 콜, 스팸 콜 이 세 가지 음성 모델을 설계하고, 논문에서 제시하는 음성 신호 정보량 기반의 스팸 탐지 알고리즘에 적용해 보았다. 각 모델의 모델링 및 시뮬레이션은 DEVS-$Java^{TM}$를 이용하였다. 본 연구는 스팸 콜 음성 신호를 탐지하기 위한 방법을 제시하고 이를 모델링 및 시뮬레이션 방법론을 통해 검증하는 것에 기여점을 둘 수 있다.

  • PDF

PET 영상의 정량적 개선을 위한 리스트-이벤트 데이터 재추출 (List-event Data Resampling for Quantitative Improvement of PET Image)

  • 우상근;유정우;김지민;강주현;임상무;김경민
    • 한국의학물리학회지:의학물리
    • /
    • 제23권4호
    • /
    • pp.309-316
    • /
    • 2012
  • 다중영상화기술은 진단 및 치료 반응평가의 성능향상을 위하여 활발히 연구되고 있으며 하드웨어의 통합에도 불구하고 기기간의 획득방법의 차이에 따라 영상간의 불일치와 계수부족으로 인하여 정합도를 떨어뜨린다. 이에 본 연구에서는 소동물 PET 리스트모드 데이터의 저장형식을 분석하고 잡음 및 통계적 특성을 향상시키기 위하여 이벤트 데이터를 재추출하여 정량적으로 개선된 PET 영상을 획득하고자 하였다. 소동물 리스트모드 Inveon PET 데이터는 소동물에 37 MBq/0.1 ml를 꼬리정맥에 주사하고 60분 후 10분 동안 정적데이터를 획득하였다. 생체신호와 같이 획득된 리스트모드 데이터형식은 48 비트의 패킷크기로 이루어져 있으며 패킷 내에서는 8 비트의 헤더와 40 비트의 payload 영역으로 나누어져 있다. 사이노그램 생성은 그레이코드로 각 패킷의 순서와 흐름을 평가하고 각 패킷의 순서를 CPU에서 검출기위치 변환과 단순 증가 그리고 비모수 부트스트랩 기법을 이용하여 재추출하여 새로운 사이노그램을 생성하였다. 영상은 3 span과 31 ring difference로 설정하여 생성된 사이노그램은 산란 및 감쇠보정을 고려하지 않고 16부분 집합으로 4회 반복하는 OSEM 2D 알고리즘을 이용하여 재구성하였다. 획득된 PET 데이터의 헤더정보에서의 동시계수의 총수는 1,394만 계수였으며, 리스트-이벤트 데이터의 패킷을 분석한 동시계수의 총수는 1,293만 계수였다. PET 데이터의 단순 증가는 최대값이 1.336에서 1.743으로 향상되었으나 잡음이 같이 증가됨을 확인하였다. PET 데이터 재추출 성능은 순차적인 패킷의 payload 값을 시프트연산을 통해 데이터의 위치를 이동시킴으로써 특정 잡음이 제거되거나 대조도가 향상되는 영상을 획득할 수 있었다. 부트스트랩 재추출 기법은 영상의 잡음과 통계적 특성이 개선된 PET 영상을 제공하여 다중영상화시 정합도를 향상시켜 질환의 조기 진단 성능을 향상시킬 수 있을 것으로 기대된다.

전자기록의 진본 평가 시스템 모형 연구 (The Model of Appraisal Method on Authentic Records)

  • 김익한
    • 기록학연구
    • /
    • 제14호
    • /
    • pp.91-117
    • /
    • 2006
  • 전자기록은 평가 시 가치 평가와 진본 여부 평가를 함께 수행해야 한다. 그간 기록의 가치 평가에 대해서는 여러 논의가 진행되어 왔지만 진본 평가에 대해서는 그러하지 못했다. 이 글에서는 진본 평가가 기록관리 각 과정의 어느 국면에서 필요하고 그 구체적인 방법은 무엇인가를 밝히고 있다. 대체로 입수단계에서는, 생산기관에서의 재생산 직후의 일치 검증, 수신된 전자기록의 품질 및 일치 검증, 입수기록패키지와 보존기록패키지의 일치 검증이 필요하다. 저장단계에서는 매체수록된 보존기록패키지의 일치 검증, 저장된 전자기록의 손상여부 검사와 복구가, 각종 처리의 단계에서는 관리기준값 변경 처리 후의 적절성 평가, 기록철 분류구조 변경 후의 평가, 마이그레이션 이후의 일치평가 및 기타 주기적 무결성 평가, 배부기록의 일치 평가 등이 요구된다. 이러한 진본 평가를 위해서는 일치검증평가, 내용적 동일성 확인 평가, 메타데이터 요소의 적절성 평가, 불법적 변경여부의 확인 평가, 물리적 상태평가 등의 방법이 적용되어야 한다.

프랙탈 기반의 가변블록을 이용한 컬러영상 부호화 (Color Image Coding using Variable Block of Fractal)

  • 박재홍;박철우
    • 한국방사선학회논문지
    • /
    • 제8권7호
    • /
    • pp.435-441
    • /
    • 2014
  • 본 논문에서는 프랙탈 부호화시 변환식의 계수를 찾는 과정에서 블럭의 탐색 영역을 줄이기 위해 탐색영역인 도메인 블록의 특성을 화소의 밝기의 평균에 의한 클라스와 분산에 의한 클라스로 분류하여 리스트를 구성한 후 레인지블록과 같은 클라스를 가지는 도메인블록만 검색하도록 하면서 도메인 블럭 탐색시 1차 허용 오차 한계값을 제어하여 부호화 시간을 향상시켰다. 또한 퀴드트리 분할법으로 레인지블록의 크기를 가변시켜 변환($W_i$)의 수를 줄임으로서 압축효율을 높이고 레인지블록의 크기에 따라 탐색 영역의 탐색 밀도를 변화시켜 화질 개선을 시도하였으며, 이러한 영상기법을 24-bpp 컬러 영상 압축에 적용하였다. 그 결과 영상의 화질에는 거의 손실이 생기지 않았고 컬러 RGB영상에 같은 부호화 방법을 사용 하였을 때 그레이레벨 영상과 같은 압축률이나 화질 면에서 우수한 성능을 나타내었다.

데이터 레이크 구축을 위한 Apache NiFi기반 ETL 프로세스 (Apache NiFi-based ETL Process for Building Data Lakes)

  • 이경민;이경희;조완섭
    • 한국빅데이터학회지
    • /
    • 제6권1호
    • /
    • pp.145-151
    • /
    • 2021
  • 최근 들어 인간의 모든 활동 영역에서 디지털 데이터가 생성되고 있고 데이터를 안전하게 저장하고 가공하여 유용한 서비스를 개발하려는 시도가 많아지고 있다. 데이터 레이크는 데이터의 출처나 데이터를 활용하는 분석 프레임워크에 독립된 데이터 저장소를 말한다. 본 논문에서는 스마트시티에서 생성되는 다양한 빅데이터를 데이터 레이크에 안전하게 저장하고 서비스에서 활용할 수 있게 ETL 하는 도구와 이를 효과적으로 사용하는데 필요한 웹기반 도구를 설계하고 구현한다. 원천 데이터를 품질검사하고 정제하여 데이터 레이크에 안전하게 저장한 다음 데이터 수명주기 정책에 따라 관리하는 일련의 과정(ETL)은 대부분 비용이 많이 드는 인프라와 개발 및 유지 관리에 상당한 노력이 필요한 기술이다. 구현기술을 통해 IT분야 전문지식이 없어도 가시적이고 효율적으로 ETL 작업 모니터링, 데이터 수명주기 관리 설정과 실행이 가능하다. 이와는 별개로 데이터 레이크에 신뢰할 수 있는 데이터를 저장하고 사용하려면 데이터 품질검사 리스트 가이드가 필요하다. 또한, 데이터 수명주기 관리 도구를 통해 데이터 마이그레이션 및 삭제 주기를 설정하고 예약하여 데이터 관리 비용을 줄일 수 있어야 한다.