• 제목/요약/키워드: URL information

검색결과 329건 처리시간 0.025초

OOPL을 이용한 정보 검색 최적화 시스템에 관한 연구 (A Study on Information Search Optimization System Using OOPL)

  • 김용호;오근탁;이윤배
    • 한국정보통신학회논문지
    • /
    • 제8권5호
    • /
    • pp.1028-1034
    • /
    • 2004
  • 최근 멀티미디어 기반의 WWW(World Wide Web) 서비스를 중심으로 하는 인터넷의 사용이 일반화되면서 전 세계의 컴퓨터망에 존재하는 수많은 정보들을 취득할 수 있게 되었다. 인터넷의 사용이 일반화되고 있는 현대의 사회에서는 정확한 정보를 신속하게 취득하는 것이 중요한 문제로 대두되고 있다. 본 논문에서는 OOPL(Object-Oriented Programming Language)인 JAVA를 이용하여 검색엔진을 설계하고 최적화된 URL을 추출하여 이용자에게 제공함으로써 더욱 정확한 정보를 획득할 수 있음을 보였다. 또한 기존의 국내 제작 검색엔진들과 비교하여 제안한 시스템에서는 배드 링크율이 개선됨을 보였다.

URL 패턴을 이용한 동적 웹 컨텐트 출판 시스템의 설계 (Design of Dynamic Web Content Publishing System using URL Pattern)

  • 조재호;구흥서
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (하)
    • /
    • pp.1773-1776
    • /
    • 2002
  • 기업의 웹사이트가 비즈니스의 중요한 부분으로 정착되면서 급격히 증가한 웹사이트의 컨텐트를 관리하기 위한 CMS의 필요성이 급증하였다. 그러나 CMS의 출판은 기존의 출판 방식과 비교하여 추가적인 처리과정으로 인한 성능 저하의 문제점이 있다. 본 논문에서는 XML 기반 CMS의 효율적인 동적 웹 컨텐트 출판을 지원하기 위하여 XML 기반의 CMS의 출판에서 필요한 컨텐트 저장소로부터 XML 객체의 추출과 XSLT를 이용한 HTML 변환의 추가적인 처리과정을 전처리하여 컨텐트 컴포넌트를 생성 및 캐싱함으로써 효율적인 출판을 지원하고, 동적 컨텐트 캐싱의 효율성을 높이기 위하여 URL 패턴을 이용한 페이지와 컴포넌트의 그룹화 관리를 지원하는 출판 시스템을 설계하였다.

  • PDF

뉴럴네트워크 기반에 악성 URL 탐지방법 설계 (Design of detection method for malicious URL based on Deep Neural Network)

  • 권현;박상준;김용철
    • 융합정보논문지
    • /
    • 제11권5호
    • /
    • pp.30-37
    • /
    • 2021
  • 사물인터넷 등을 통하여 각종 기기들이 인터넷으로 연결되어 있고 이로 인하여 인터넷을 이용한 공격이 발생하고 있다. 그러한 공격 중 악성 URL를 이용하여 사용자에게 잘못된 피싱 사이트로 접속하게 하거나 악성 바이러스를 유포하는 공격들이 있다. 이러한 악성 URL 공격을 탐지하는 방법은 중요한 보안 이슈 중에 하나이다. 최근 딥러닝 기술 중 뉴럴네트워크는 이미지 인식, 음성 인식, 패턴 인식 등에 좋은 성능을 보여주고 있고 이러한 뉴럴네트워크를 이용하여 악성 URL 탐지하는 분야가 연구되고 있다. 본 논문에서는 뉴럴네트워크를 이용한 악성 URL 탐지 성능을 각 파라미터 및 구조에 따라서 성능을 분석하였다. 뉴럴네트워크의 활성화함수, 학습률, 뉴럴네트워크 모델 등 다양한 요소들에 따른 악성 URL 탐지 성능에 어떠한 영향을 미치는 지 분석하였다. 실험 데이터는 Alexa top 1 million과 Whois에서 크롤링하여 데이터를 구축하였고 머신러닝 라이브러리는 텐서플로우를 사용하였다. 실험결과로 층의 개수가 4개이고 학습률이 0.005이고 각 층마다 노드의 개수가 100개 일 때, 97.8%의 accuracy와 92.94%의 f1 score를 갖는 것을 볼 수 있었다.

Whois 와 DNS 정보를 활용한 RealURL 안티피싱 기법 (RealURL Anti-Phishing using Whois and DNS Record)

  • 하정애;이희조
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.1111-1114
    • /
    • 2007
  • 해들 거듭하면서 피싱 사이트의 수는 지속적으로 증가하고 이로 인한 피해가 끊임없이 보고 되고 있는 가운데, 보안업체들은 블랙리스트 데이터베이스를 이용한 피싱 방지 브라우저 플러그인을 제안, 공급하고 있다. 한편, 2007 년 APWG 에 의한 보고에 따르면 피싱 사이트의 평균 수명은 짧게는 몇 시간에서 길게는 30 일 이내로 평균 3.8 일 밖에 되지 않는 것으로 보고 되었다. 이는 블랙리스트 데이터베이스를 이용하는 기존 안티피싱 플러그인이 신규 피싱 사이트에 대해서는 대처 할 수 없는 한계를 가지고 있음을 의미한다. 피싱 사이트의 라이프사이클을 가만하여 실시간 사이트의 진위 여부를 판단하고, 사용자 정보 유출을 방지하는 것이 시급함에도 불구하고 지금까지의 안티피싱 플러그인은 실시간 사이트 진위 여부를 판단할 수 없어 신규 피싱 사이트에 대처하지 못하고 있다. 이에 본 논문은 Whois 와 DNS 정보를 활용하여 실시간 사이트의 진위여부를 판단하는 개선된 안티피싱 기법(RealURL)을 제안한다. 또한 제안하는 기법은 사용자의 적극적인 개입을 유도하는 브라우저 플러그인으로 구현 되었다. RealURL 은 기존 블랙리스트를 데이터베이스를 이용한 방법을 탈피하여 사이트의 진위여부를 실시간 판단하는 새로운 방법으로 사용될 수 있다.

전자서명을 이용한 스미싱 공격 방어 기법 (Defense Techniques of Smishing Attacks Using Electronic signature on Network Environment)

  • 최병환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 추계학술발표대회
    • /
    • pp.399-402
    • /
    • 2014
  • 본 논문에서는 스미싱 공격에 대해서 Host기반에 의한 탐지가 아닌 네트워크 기반에서 전자서명을 이용한 모델을 제안한다. 본 모델은 네트워크 기반에서 유입된 트래픽 중 문자 메시지를 분석하여, 문자메시지 중에서 URL이 포함된 경우 트래픽을 우회하여 라우팅을 전환시켜 URL을 포함한 문자메시지 트래픽에 대해서 별도의 망구간으로 분리를 시킨다. 별도 분리된 URL이 포함된 트래픽에 대해서 apk파일 다운로드가 없는 경우에는 통과를 시키고, apk 파일 다운로드를 시도하는 트래픽에 대해서는 전자서명을 검사후, 등록이 안되어 있는 경우 차단을 한다. 이는 기본적으로 전자서명이 되지 않은 apk파일에 대한 다운로드를 원천적으로 봉쇄함으로써 스미싱 공격에 대한 근복적인 방어를 하는 방식이다. 본 모델은 Host기반에서 발생할 수 있는 우회공격을 방지하여 스미싱 위협을 해소할 수 있다. 기존 Host기반 스미싱 방지 모델의 동작 방식과 설계를 통해 장점과 단점을 언급하고 네트워크 기반에서 전자서명을 이용한 스미싱 방어의 타당성을 증명하도록 한다.

아파치 웹서버의 URL 공격에 대한 보안취약성 분석 (Analysis of a Security Vulnerability of URL Attack on Apache Web Server)

  • 최종천;최진우;조성제
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 춘계학술발표대회
    • /
    • pp.1027-1030
    • /
    • 2004
  • 본 논문에서는 기계어 프로그램만 주어진 환경에서 디버깅 및 역공학 도구를 사용하여 소프트웨어 보안취약성을 분석하는 방법에 대한 연구를 수행하였다. 즉, MS사의 윈도우즈 2000 서버 운영체제 상에서 아파치(Apache) 웹서버를 대상으로, URL 공격에 대한 한 취약성을 재연하고, 취약점이 있는 코드 부분을 추출하였다. 이는 기계어 프로그램을 실행하면서 보안 취약성 분석 절차를 이해하고 보안 결함을 발견해 내는 기반 자료로 활용될 수 있을 것이다.

  • PDF

유비쿼터스 정보네트워크에서의 편리한 정보액세스를 위한 한글 자음모음 도메인명의 응용 (Application of Korean Alphabet Domain-Names for Convenient Information Access in a Ubiquitous Information Network)

  • 김영복
    • 정보처리학회논문지C
    • /
    • 제12C권7호
    • /
    • pp.1067-1074
    • /
    • 2005
  • 모바일 사용자 인터페이스가, 특히 유비쿼터스 컴퓨팅 환경에서, 정보를 빨리 그리고 편리하게 액세스하는데 중요해지고 있다. 모바일 컴퓨팅 환경에서의 많은 신규서비스들 중에서, 한글1자 도메인명을 포함하여, 한글알파벳(자음과 모음) 도메인명을 이용한 유비쿼터스 정보네트워킹서비스가 연구되었다. 긴 영어나 한글의 URL 스트링 대신에, 정보 액세스를 위한 편리한 사용자 인터페이스로서, 유선 인터넷에서 뿐만아니라 모바일 인터넷에서, 한글1자/자음/모음 도메인명이 정보를 액세스하고 정보를 알리는데 긴 URL스트링보다 더 편리하다. PC뿐만아니라 휴대폰에서 한글1자/자음/모음 도메인명의 편리함을 연구하였고, 음성변환(TTS) 기능을 가지고 있으며 한글1자/자음/모음 도메인명으로 액세스할 수 있는 유비쿼터스 정보포털의 구현과 응용을 소개한다

트위터를 활용한 공공 정보서비스 연구 - 주요 광역도시 트위터들을 중심으로 - (A Study on Public Information Service using Twitter - Focused on Twitters of Major Metropolitans -)

  • 김지현
    • 한국도서관정보학회지
    • /
    • 제46권1호
    • /
    • pp.115-133
    • /
    • 2015
  • 본 연구는 서울시와 지방 광역도시의 대표 트위터들에서 제공하는 공공정보의 내용을 심층 분석하고, 시민들의 질의와 시 트위터에서 제공되는 정보를 비교 분석하여 트위터를 통한 정보서비스에 대해 평가하였다. 주 연구방법은 내용분석(content analysis)을 사용하였으며, 6개 도시의 트위터(서울, 부산, 대구, 인천, 대전, 광주)에 게재되었던 석 달 동안의 트윗 내용을 모두 기록하여 분석하였다. 트위터상의 정보게재에 대한 빈도수 분석에서 가장 많은 트윗을 게재한 도시는 부산시였으며, 서울시는 URL링크를 활용한 트윗글 게재 수가 가장 높았다. 트위터에서 제공되는 공공정보에 대한 내용분석 결과 가장 많이 제공되었던 정보는 시민의 생활 편의에 관련된 정보였으며, URL링크를 제공하는 트윗글 또한 생활정보, 공모, 서비스 안내 순이었다. 시민들의 질의를 분석하였을 때, 시민들은 생활정보와 교통에 관련된 더 많은 정보를 요구하였다. 끝으로 트위터를 통한 더 나은 공공 정보서비스를 위해 몇 가지의 의미있는 제안을 하였다.

Taint Inference for Cross-Site Scripting in Context of URL Rewriting and HTML Sanitization

  • Pan, Jinkun;Mao, Xiaoguang;Li, Weishi
    • ETRI Journal
    • /
    • 제38권2호
    • /
    • pp.376-386
    • /
    • 2016
  • Currently, web applications are gaining in prevalence. In a web application, an input may not be appropriately validated, making the web application susceptible to cross-site scripting (XSS), which poses serious security problems for Internet users and websites to whom such trusted web pages belong. A taint inference is a type of information flow analysis technique that is useful in detecting XSS on the client side. However, in existing techniques, two current practical issues have yet to be handled properly. One is URL rewriting, which transforms a standard URL into a clearer and more manageable form. Another is HTML sanitization, which filters an input against blacklists or whitelists of HTML tags or attributes. In this paper, we make an analogy between the taint inference problem and the molecule sequence alignment problem in bioinformatics, and transfer two techniques related to the latter over to the former to solve the aforementioned yet-to-be-handled-properly practical issues. In particular, in our method, URL rewriting is addressed using local sequence alignment and HTML sanitization is modeled by introducing a removal gap penalty. Empirical results demonstrate the effectiveness and efficiency of our method.

스타일에 따른 웹 문서의 자동 분류 (Automatic Classification of Web documents According to their Styles)

  • 이공주;임철수;김재훈
    • 정보처리학회논문지B
    • /
    • 제11B권5호
    • /
    • pp.555-562
    • /
    • 2004
  • 스타일 또는 장르는 문서의 주제와는 다른 문서를 보는 또 하나의 관점이 될 수 있다. 그렇기 때문에 문서의 스타일은 문서 분류의 기준으로 사용될 수 있다. 문서의 스타일에 따른 자동 분류 시스템에 대한 여러 연구들이 수행되어 왔다. 그러나 이런 연구들의 대부분이 일반 문서를 대상으로 수행하였으며, 몇몇 일부의 연구만이 웹 문서를 대상으로 스타일 분류에 대한 연구를 수행하였다. 웹 문서는 일반 문서와는 달리 URL HTML을 갖고 있다. 본 연구에서는 이와 같은 URL과 HTML로부터 추출한 자질들을 웹 문서의 스타일 분류에 사용해 보고자 한다. 실험을 통해서 이와 같은 자질들이 웹 문서의 스타일 분류에 어떤 영향을 미치는지를 밝혀보고자 한다.