• 제목/요약/키워드: Malicious web site

검색결과 23건 처리시간 0.026초

악성코드 유포 사이트 특성 분석 및 대응방안 연구 (A Study on Characteristic Analysis and Countermeasure of Malicious Web Site)

  • 김홍석;김인석
    • 정보보호학회논문지
    • /
    • 제29권1호
    • /
    • pp.93-103
    • /
    • 2019
  • 최근 드라이브 바이 다운로드 공격 기반의 웹사이트를 통한 랜섬웨어 악성코드 유포로 인해 웹사이트 서비스 마비, 일반 이용자 PC 파일 손상 등의 피해가 발생하고 있다. 따라서 악성코드 경유지 및 유포지 사이트의 현황과 추이 파악을 통해 악성코드 유포의 공격 대상 웹사이트 업종, 유포 시간, 악용되는 어플리케이션 종류, 유포되는 악성 코드 유형에 대한 특성을 분석하는 것은 공격자의 공격활동을 예측하고 대응이 가능하다는 점에서 의미가 크다. 본 논문에서는 국내 343만개의 웹사이트를 대상으로 악성코드 유포여부를 점검하여 탐지된 악성코드 경유지 사이트, 익스플로잇 사이트, 악성코드 유포지 사이트별로 어떠한 특징들이 나타나는지를 도출하고, 이에 대한 대응방안을 고찰하고자 한다.

Improving Malicious Web Code Classification with Sequence by Machine Learning

  • Paik, Incheon
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제3권5호
    • /
    • pp.319-324
    • /
    • 2014
  • Web applications make life more convenient. Many web applications have several kinds of user input (e.g. personal information, a user's comment of commercial goods, etc.) for the activities. On the other hand, there are a range of vulnerabilities in the input functions of Web applications. Malicious actions can be attempted using the free accessibility of many web applications. Attacks by the exploitation of these input vulnerabilities can be achieved by injecting malicious web code; it enables one to perform a variety of illegal actions, such as SQL Injection Attacks (SQLIAs) and Cross Site Scripting (XSS). These actions come down to theft, replacing personal information, or phishing. The existing solutions use a parser for the code, are limited to fixed and very small patterns, and are difficult to adapt to variations. A machine learning method can give leverage to cover a far broader range of malicious web code and is easy to adapt to variations and changes. Therefore, this paper suggests the adaptable classification of malicious web code by machine learning approaches for detecting the exploitation user inputs. The approach usually identifies the "looks-like malicious" code for real malicious code. More detailed classification using sequence information is also introduced. The precision for the "looks-like malicious code" is 99% and for the precise classification with sequence is 90%.

악성 URL 탐지를 위한 URL Lexical Feature 기반의 DL-ML Fusion Hybrid 모델 (DL-ML Fusion Hybrid Model for Malicious Web Site URL Detection Based on URL Lexical Features)

  • 김대엽
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.881-891
    • /
    • 2023
  • 최근에는 인공지능을 활용하여 악성 URL을 탐지하는 다양한 연구가 진행되고 있으며, 대부분의 연구 결과에서 높은 탐지 성능을 보였다. 그러나 고전 머신러닝을 활용하는 경우 feature를 분석하고 선별해야 하는 추가 비용이 발생하며, 데이터 분석가의 역량에 따라 탐지 성능이 결정되는 이슈가 있다. 본 논문에서는 이러한 이슈를 해결하기 위해 URL lexical feature를 자동으로 추출하는 딥러닝 모델의 일부가 고전 머신러닝 모델에 결합된 형태인 DL-ML Fusion Hybrid 모델을 제안한다. 제안한 모델로 직접 수집한 총 6만 개의 악성과 정상 URL을 학습한 결과 탐지 성능이 최대 23.98%p 향상되었을 뿐만 아니라, 자동화된 feature engineering을 통해 효율적인 기계학습이 가능하였다.

Assessment of Dynamic Open-source Cross-site Scripting Filters for Web Application

  • Talib, Nurul Atiqah Abu;Doh, Kyung-Goo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권10호
    • /
    • pp.3750-3770
    • /
    • 2021
  • This study investigates open-source dynamic XSS filters used as security devices in web applications to account for the effectiveness of filters in protecting against XSS attacks. The experiment involves twelve representative filters, which are examined individually by placing them into the final output function of a custom-built single-input-form web application. To assess the effectiveness of the filters in their tasks of sanitizing XSS payloads and in preserving benign payloads, a black-box testing method is applied using an automated XSS testing framework. The result in working with malicious and benign payloads shows an important trade-off in the filters' tasks. Because the filters that only check for dangerous or safe elements, they seem to neglect to validate their values. As some safe values are mistreated as dangerous elements, their benign payload function is lost in the way. For the filters to be more effective, it is suggested that they should be able to validate the respective values of malicious and benign payloads; thus, minimizing the trade-off. This particular assessment of XSS filters provides important insight regarding the filters that can be used to mitigate threats, including the possible configurations to improve them in handling both malicious and benign payloads.

취약점 분석을 통한 Web Site 해킹 연구 (A Study of Web Site Hacking Through Vulnerability Analysis)

  • 송진영;박대우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 춘계학술대회
    • /
    • pp.303-306
    • /
    • 2010
  • 웹사이트를 통한 해커들의 악의적인 웹 취약점 공격으로 개인정보와 개인자산이 유출되고 있다. 일부국가에서는 해커부대가 운용되어, 타 국가의 웹사이트를 통해 기밀정보 및 개인정보를 불법적으로 접근하여 자료를 획득하고 있다. 국내 웹사이트들은 프로그램뿐만 아니라 웹사이트 관리의 문제로 인해 많은 취약점을 갖고 있다. 본 논문에서는 국내뿐만 아니라 전 세계적으로 유행하는 XSS, SQL Injection, Web Shell 공격에 대한 취약점을 분석하고, XSS, SQL Injection, Web Shell 공격을 직접 공격한다. 공격 후에 해킹을 시연한 자료를 수집, 분석을 하여 보안 대응책을 제시한다. 본 연구는 웹사이트 보안과 안전한 웹사이트 관리를 향상 시킬 수 있는 기술연구에 이바지 할 것이다.

  • PDF

원격코드검증을 통한 웹컨텐츠의 악성스크립트 탐지 (Detecting Malicious Scripts in Web Contents through Remote Code Verification)

  • 최재영;김성기;이혁준;민병준
    • 정보처리학회논문지C
    • /
    • 제19C권1호
    • /
    • pp.47-54
    • /
    • 2012
  • 최근 웹사이트는 매쉬업, 소셜 서비스 등으로 다양한 출처의 리소스를 상호 참조하는 형태로 변화하면서 해킹 시도도 사이트를 직접 공격하기보다 서비스 주체와 연계 서비스, 클라이언트가 상호 작용하는 접점에 악성스크립트를 삽입하는 공격이 증가하고 있다. 본 논문에서는 웹사이트 이용 시 신뢰관계에 있는 여러 출처로부터 다운받은 웹컨텐츠의 HTML 코드와 자바스크립트 코드가 클라이언트 브라우저에서 구동 시 삽입된 악성스크립트를 원격의 검증시스템으로부터 탐지하는 모델을 제안한다. 서비스 주체의 구현코드 정보를 활용하여 요청 출처에 따라 검증 항목을 분류하고 웹컨텐츠의 검증 요소를 추출하여 검증 평가결과를 화이트, 그레이, 블랙 리스트로 데이터베이스에 저장하였다. 실험평가를 통해 제안한 시스템이 악성스크립트를 효율적으로 탐지하여 클라이언트의 보안이 향상됨을 확인하였다.

악성사이트 검출을 위한 안전진단 스케줄링 (Security Check Scheduling for Detecting Malicious Web Sites)

  • 최재영;김성기;민병준
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제2권9호
    • /
    • pp.405-412
    • /
    • 2013
  • 최근의 웹은 구현 방법과 이용 패턴이 변화되면서 서로 연결되고 융합되는 형태로 변화하였다. 서비스가 진화되고 사용자 경험이 향상되었으나 다양한 출처의 검증되지 않은 웹자원들이 서로 결합되어 보안 위협이 가중되었다. 이에 웹 확장의 역기능을 억제하고 안전한 웹서비스를 제공하기 위해 확장된 대상에 대한 안전성 진단이 필요하다. 본 논문에서는 웹사이트의 안전한 운영을 위해 안전진단을 외부 링크까지 확장하여, 진단 대상을 선별하고 지속적으로 진단하여 악성페이지를 탐지하고 웹사이트의 안전성을 확보하기 위한 스케줄링 방안을 제안한다. 진단 대상의 접속 인기도, 악성사이트 의심도, 검사 노후도 등의 특징을 추출하고 이를 통해 진단 순서를 도출하여 순서에 따라 웹페이지를 수집하여 진단한다. 실험을 통해 순차적으로 반복 진단하는 것보다 순위에 따라 진단 주기를 조정하는 것이 중요도에 따라 악성페이지 탐지에 효과적임을 확인하였다.

피싱공격 차단을 위한 PSMS 설계 및 구현 (PSMS Design and Implementation for a Phishing Attack Intercept)

  • 유재형;이동휘;양재수;박상민;김귀남
    • 융합보안논문지
    • /
    • 제8권1호
    • /
    • pp.49-56
    • /
    • 2008
  • 최근의 공격은 URL과 사이트를 속이는 형태와 지능화된 악성코드를 침투하는 기술적 은닉기법을 이용한 공격이 사용되고 있다. 그러나 상대적으로 피싱보안 기술들은 아직 피싱 수법들을 따라가지 못하는 경우가 많다. 이에 본 연구에서는 웹 환경의 급변화함에 따른 개방된 정보교류 강화를 위해 웹서버와 클라이언트 간 네트워크 단에 프락시서버를 설치하여 유해사이트 분석 및 피싱URL을 화이트도메인리스트와 비교하여 필터링하고 안정된 웹 기반의 정보교류를 할 수 있도록 설계하여 최소한의 규제와 능동적인 제어를 통해 피싱차단 할 수 있는 설계 및 구조를 제시하고 이를 검증하고자 한다.

  • PDF

웹 취약점 점검 및 취약점별 조치 우선 순위 산정에 관한 연구 (A Study on Web Vulnerability Assessment and Prioritization of Measures by Vulnerabilities)

  • 성종혁;이후기;고인제;김귀남
    • 융합보안논문지
    • /
    • 제18권3호
    • /
    • pp.37-44
    • /
    • 2018
  • 오늘날 우리는 웹 사이트의 홍수 속에 살고 있으며, 다양한 정보를 얻기 위해서 인터넷을 통해 수많은 웹 사이트에 접속을 하고 있다. 하지만 웹 사이트의 보안성이 담보되지 않는다면, 여러 악의적인 공격들로부터 웹 사이트의 안전성을 확보할 수가 없다. 특히 금전적인 목적, 정치적인 목적 등 다양한 이유로 웹 사이트의 보안 취약점을 악용한 해킹 공격이 증가하고 있다. SQL-Injection, 크로스사이트스크립트(XSS), Drive-By-Download 등 다양한 공격기법들이 사용되고 있으며, 그 기술 또한 갈수록 발전하고 있다. 이와 같은 다양한 해킹 공격들을 방어하기 위해서는 웹 사이트의 개발단계부터 취약점을 제거하여 개발하여야 하지만, 시간 및 비용 등 여러 문제들로 인해 그러지 못하는 것이 현실이다. 이를 보완하기 위해 웹 취약점 점검을 통해 웹 사이트의 취약점을 파악하고 조치하는 것이 중요하다. 이에 본 논문에서는 웹 취약점 및 진단기법에 대해 알아보고 실제 웹 취약점 진단 사례를 통해 각 사례별 조치현황에 따른 개발단계에서의 취약점별 조치 우선 순위에 대해 알아보고자 한다.

  • PDF

인터넷뱅킹에서의 상호인증에 관한 연구 (A Study of the Cross Certification in Internet Banking)

  • 이영교;안정희
    • 디지털산업정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.87-97
    • /
    • 2014
  • Pharming attack is a confidence trick that the hacker catch away customers financial information on Internet banking. At first, a hacker installs malicious execution code on customers PC in secret. As a customer tries to connect a Internet banking Web site, the malicious code changes it to phishing site in Internet explorer. The hacker catch away customers financial information in process of internet banking. The hacker steals money from customer's bank account using stolen information. PKI is a widespread and strong technology for providing the security using public key techniques. The main idea of PKI is the digital certificate that is a digitally signed statement binding an user's identity information and his public key. The Internet banking service stands on the basis of PKI. However, the bank is trusted in natural, the only customer is certified in the present Internet banking. In this paper, we propose a method of cross certification in Internet banking. The customer certify a bank and the bank certify the customer in proposed method. The method can service to customer the secure Internet banking about pharming attack. We compare the proposed method with other methods.