• 제목/요약/키워드: OpenURL

검색결과 25건 처리시간 0.024초

오픈소스 기반 APT 공격 예방 Chrome extension 개발 (Development of an open source-based APT attack prevention Chrome extension)

  • 김희은;손태식;김두원;한광석;성지훈
    • Journal of Platform Technology
    • /
    • 제9권3호
    • /
    • pp.3-17
    • /
    • 2021
  • APT(advanced persistent threat) 공격이란 잠행적이고 지속적인 컴퓨터 해킹 프로세스들의 집합으로 특정 실체를 목표로 행해지는 공격이다[1]. 이러한 APT 공격은 대개 스팸 메일과 위장된 배너 광고 등 다양한 방식을 통해서 이뤄진다. 대부분 송장, 선적 서류(Shipment Document), 구매 주문서(P.O.-Purchase Order) 등으로 위장한 스팸 메일을 통해 유포되기 때문에 파일 이름도 동일하게 위와 같은 이름이 사용된다. 그리고 이러한 정보탈취형(Infostealer) 공격이 가장 2021년 2월 첫째 주 가장 많이 발견된 악성 코드였다[2]. Content Disarm & Reconstruction(이하 CDR)은 백신, 샌드박스에서 막아내지 못한 보안 위협에 대하여 파일 내 잠재적 보안 위협 요소를 원천 제거 후 안전한 파일로 재조합하여 악성코드 감염 위험을 사전에 방지할 수 있는 '콘텐츠 무해화 & 재조합' 기술이다. 글로벌 IT 자문기관 '가트너(Gartner)'에서는 첨부파일 형태의 공격에 대한 솔루션으로 CDR을 추천하고 있다. Open source로 공개된 CDR 기법을 사용하는 프로그램으로 'Dangerzone'이 있다. 해당 프로그램은 대부분의 문서 파일의 확장자를 지원하지만, 한국에서 많이 사용되는 HWP 파일의 확장자를 지원하지 않고 있다. 그리고 Gmail은 악성 URL을 1차적으로 차단해주지만 Naver, Daum 등의 메일 시스템에서는 악성 URL을 차단하지 않아 손쉽게 악성 URL을 유포할 수 있다. 이러한 문제점에서 착안하여 APT 공격을 예방하기 위한 HWP 확장자를 지원하는 'Dangerzone' 프로그램, Naver, Daum 메일 내 URL 검사, 배너형 광고 차단의 기능을 수행하는 Chrome extension을 개발하는 프로젝트를 진행했다.

피싱공격 차단을 위한 PSMS 설계 및 구현 (PSMS Design and Implementation for a Phishing Attack Intercept)

  • 유재형;이동휘;양재수;박상민;김귀남
    • 융합보안논문지
    • /
    • 제8권1호
    • /
    • pp.49-56
    • /
    • 2008
  • 최근의 공격은 URL과 사이트를 속이는 형태와 지능화된 악성코드를 침투하는 기술적 은닉기법을 이용한 공격이 사용되고 있다. 그러나 상대적으로 피싱보안 기술들은 아직 피싱 수법들을 따라가지 못하는 경우가 많다. 이에 본 연구에서는 웹 환경의 급변화함에 따른 개방된 정보교류 강화를 위해 웹서버와 클라이언트 간 네트워크 단에 프락시서버를 설치하여 유해사이트 분석 및 피싱URL을 화이트도메인리스트와 비교하여 필터링하고 안정된 웹 기반의 정보교류를 할 수 있도록 설계하여 최소한의 규제와 능동적인 제어를 통해 피싱차단 할 수 있는 설계 및 구조를 제시하고 이를 검증하고자 한다.

  • PDF

The French Underground Research Laboratory in Bure: An Essential Tool for the Development and Preparation of the French Deep Geological Disposal Facility Cigéo

  • Pascal Claude LEVERD
    • 방사성폐기물학회지
    • /
    • 제21권4호
    • /
    • pp.489-502
    • /
    • 2023
  • This article presents the crucial role played by the French underground research laboratory (URL) in initiating the deep geological repository project Cigéo. In January 2023, Andra finalized the license application for the initial construction of Cigéo. Depending on Government's decision, the construction of Cigéo may be authorized around 2027. Cigéo is the result of a National program, launched in 1991, aiming to safely manage high-level and intermediate level long-lived radioactive wastes. This National program is based on four principles: 1) excellent science and technical knowledge, 2) safety and security as primary goals for waste management, 3) high requirements for environment protection, 4) transparent and open-public exchanges preceding the democratic decisions and orientations by the Parliament. The research and development (R&D) activities carried out in the URL supported the design and the safety demonstration of the Cigéo project. Moreover, running the URL has provided an opportunity to gain practical experience with regard to the security of underground operations, assessment of environmental impacts, and involvement of the public in the preparation of decisions. The practices implemented have helped gradually build confidence in the Cigéo project.

REST 기반 M2M 플랫폼 기술 연구 (A Study of M2M Platform Technologies based on REST)

  • 이창열
    • 한국산학기술학회논문지
    • /
    • 제12권9호
    • /
    • pp.4153-4159
    • /
    • 2011
  • M2M은 사물에 통신 모듈을 부착하여 양방향 서비스를 할 수 있는 체계로 사물과 플랫폼, 그리고 (웹 기반) 응용 서비스로 구성되었다. M2M의 장점은 통신이 가능한 곳에서는 어디서나 실시간으로 서비스가 가능하기 때문에 사물에 대한 이동 중 가시성과 자산 가시성을 제공할 수 있다. 그렇지만 개별적으로 구축하여 서비스하기 때문에 플랫폼의 호환성에 대한 연구는 부진한 상태이다. 본 논문에서는 이러한 M2M 서비스에 플랫폼의 호환성 기술에 대한 연구를 진행하였다. SOA보다는 매쉬업 서비스에 적합한 ROA 기술을, 식별에는 URL보다는 URN 기반의 Open API를 채택하였며, 플랫폼과 응용 사이의 메시지 프로토콜로 MPM을 제시하였다.

GML 기반의 Web Map Server의 설계 및 구현 (Design and Implementation of a Web Map Server based on GML)

  • 강재호;백인구;한기준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.88-90
    • /
    • 2001
  • 최근 웹 확산에 따른 일반인들의 인터넷 이용이 급증하였고 이에 따른 정보 기술도 빠르게 변화하고 있다. GIS 분야에서도 시대의 흐름에 맞춰 지리정보 데이타를 웹상에서 제공하는 웹 GIS 분야가 등장하게 되었다. 그러나, 상호 이질적인 지리정보 데이타를 웹 기반 분산 환경에서 서비스하기 위해 표준 인터페이스와 각각의 웹 서비스 모델을 정의한 통합 시스템이 요구되고 있다. OGC(OpenGIS Consortium)에서는 기존 OpenGIS(Open Geodata Interoperabillty Specification)의 상호운용성을 웹 환경에서 지원하고, 또한 상호이질석인 지리정보의 접근을 위해 새로운 웹 맵 서버인터페이스 구현 명세(Web Map Server Interface Implementation Specification)를 제안하였다. 웹 맵 서버 인터페이스 구현 명세는 웹상에서 공간 질의를 처리하기 위안 URL 컴포넌트를 정의하고 있으며, URL 형식의 클라이언트 질의를 수행한 결과를 웹 브라우저에서 이미지 포맷으로 지리정보를 제공한다. 본 논문에서는 OGC가 최근 제안한 XML(eXtendible Markup Language)기반의 표준 공간 데이터 포맷인 GML(Geography Markup Language)과 웹 맵 서버 인터페이스를 이용해 분산된 지리정보 데이터를 웹 브라우서를 통하여 서비스할 수 있는 웹 맵 서버를 설계 및 구현하였다. 따라서 클라이언트는 본 논문에서 개발한 웹 맵 서버를 통하여 별도의 응용 프로그램을 개발하지 않고도 다양한 GIS 시버들의 종류와 위치에 관계없이 표준 인터페이스를 통해 이를 GIS 서버들로부터 공간 데이터를 접근할 수 있다.

  • PDF

XML과 관계형 데이타베이스 매핑을 통한 자료의 변환 (Data Transformation through Mapping between XML and Relation Database)

  • 김길준
    • 한국컴퓨터정보학회논문지
    • /
    • 제9권4호
    • /
    • pp.5-12
    • /
    • 2004
  • XML과 데이터베이스간의 자료 변환의 원리는 XML과 데이터베이스 간 매칭의 원리로 이루어진다. SQL Server의 데이터에 접근하기 위한 방법은 URL에 SQL 쿼리를 지정하는 방법과 template 파일을 이용하는 방법이 있다. MS-SQL 서버는 OpenXML 기능을 이용하여 기존의 관계형 데이터베이스에 대해 SQL 쿼리를 실행한 결과를 XML 문서로 변환한다. 즉, OpenXML은 노드 트리를 생성한 후에 XML 문서의 로우셋 데이터를 반환하고, XML 데이터를 관계형 형식으로 얻게 한다. XML 데이터를 데이터베이스 데이터로 삽입하기 위해서는 sp_xml_preparedocument 프로시져를 사용하여, XML 문서를 파싱해 데이터를 추출한 후. 그 문서의 노드 구조를 메모리의 트리 구조로 매핑해서 데이터베이스 테이블에 저장하게 된다. 결국 XML과 데이터베이스간의 자료 변환의 원리는 XML과 데이터베이스간 매칭의 원리로 이루어진다. 본 논문에서는 매핑 원리를 제시한 후 SQL Server의 지원하에 두 자료간의 변환을 구현해 보임으로서 자료의 확장성과 효율성 및 다양한 효과를 가져올 수 있음을 제시하고 있다.

  • PDF

DOI 수집 API 개발에 관한 연구 (A Study on the Development of DOI Lookup API)

  • 김선태;예용희
    • 정보관리연구
    • /
    • 제39권1호
    • /
    • pp.221-237
    • /
    • 2008
  • CrossRef는 DOI 식별자 및 학술메타정보를 수집할 수 있는 다양한 쿼리(OpenAPI)를 제공하고 있으며, 이를 활용해 출판사 및 정보서비스 기관에서 다양한 서비스를 개발하도록 독려하고 있다. 본 연구에서는 CrossRef에서 제공하는 쿼리를 면밀히 분석하였으며, 다양한 방법으로 DOI를 자동수집 하는 API를 개발하였다. 또한 자체적으로 학술메타데이터를 보유한 기관이 개발된 API를 활용할 수 있는 방법을 제시하였다.

과학데이터 관련 Z39.88 KEVFormat:Sch-Svc 확장 연구 (A Study on the expansion of the Z39.88 KEVFormat:Sch-Svc for Scientific Data)

  • 김선태;이태영
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2011년도 춘계 종합학술대회 논문집
    • /
    • pp.41-42
    • /
    • 2011
  • DataCite 메타데이터 요소를 분석하여 OpenURL 학술 서비스 유형을 기술하기 위한 메타태그를 Key/Encoded-Value (KEV) 형식으로 확장 제안하였다. 학술 서비스 유형 분석을 위해 Scopus와 Web of Science, NDSL 서비스를 비교 검토하여 8개의 학술서비스 유형을 도출하였다. 또한 과학데이터 기술을 위한 DataCite 컨소시엄의 메타데이터 요소를 집중적으로 분석하여 9개의 대표속성을 도출 하였다.

  • PDF

Mitigation of Phishing URL Attack in IoT using H-ANN with H-FFGWO Algorithm

  • Gopal S. B;Poongodi C
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1916-1934
    • /
    • 2023
  • The phishing attack is a malicious emerging threat on the internet where the hackers try to access the user credentials such as login information or Internet banking details through pirated websites. Using that information, they get into the original website and try to modify or steal the information. The problem with traditional defense systems like firewalls is that they can only stop certain types of attacks because they rely on a fixed set of principles to do so. As a result, the model needs a client-side defense mechanism that can learn potential attack vectors to detect and prevent not only the known but also unknown types of assault. Feature selection plays a key role in machine learning by selecting only the required features by eliminating the irrelevant ones from the real-time dataset. The proposed model uses Hyperparameter Optimized Artificial Neural Networks (H-ANN) combined with a Hybrid Firefly and Grey Wolf Optimization algorithm (H-FFGWO) to detect and block phishing websites in Internet of Things(IoT) Applications. In this paper, the H-FFGWO is used for the feature selection from phishing datasets ISCX-URL, Open Phish, UCI machine-learning repository, Mendeley website dataset and Phish tank. The results showed that the proposed model had an accuracy of 98.07%, a recall of 98.04%, a precision of 98.43%, and an F1-Score of 98.24%.

웹 검색을 활용한 기사 표절 탐지 시스템 (A Plagiarism Detection System for Newspaper Articles by using Web Search)

  • 조정현;김유섭
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (C)
    • /
    • pp.420-424
    • /
    • 2008
  • 최근 문서 저작권에 대한 관심과 중요도가 높아지고 있고 문서 표절에 관한 연구도 지속적으로 이루어지고 있다. 최근 기사의 표절 또는 무단도용 문제가 적지 않게 발생하고 있다. 현재까지의 문서 표절 연구는 실시간 특성이 매우 강한 신문 기사의 표절 문제에 적용하기 어려웠다. 따라서 현재는 이러한 표절 기사를 가려내기 위해 수 많은 신문사에서 하루 수천 건씩 올라오는 기사들을 눈으로 일일이 가려내는 상황이다. 본 논문에서는 이러한 시간과 비용의 문제를 줄이기 위해 네이버와 다음에서 제공하는 웹 검색 OpenAPI를 활용해 표절 가능성이 있는 기사들을 자동으로 탐지해 내는 시스템을 제안한다. 제안하는 시스템은 하나의 원본 기사에서 5개의 문장을 랜덤으로 추출하고 각각의 문장을 검색어(query)로 사용해 연동된 OpenAPI를 사용하여 웹에서 기사를 검색한다. 또한 5번의 검색에서 추출되는 URL의 검색 빈도를 계산하여 해당 기사의 표절 가능성을 사용자가 쉽게 예측 할 수 있도록 하였다.

  • PDF