• Title/Summary/Keyword: 웹베이스

Search Result 379, Processing Time 0.026 seconds

OWL 질의 처리를 위한 시그너처 기반 최적화 기법 (An Optimization Technique based on Signatures for OWL Query Processing)

  • 임동혁;정호영;김형주
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제32권6호
    • /
    • pp.585-592
    • /
    • 2005
  • 시맨틱 웹은 차세대 웹으로 연구되고 있으며 시맨틱 웹 상에서는 사람이 아닌 컴퓨터가 이해할 수 있는 정보를 처리해야 한다. 이러한 웹 자원의 내용을 기술하기 위해 온톨로지(Ontology)들을 이용한다. 이러한 온톨로지 중에 현재 W3C에서 제안한 OWL이 부각되고 있다. OWL을 처리하는 데이타 베이스에서 데이타는 그래프 형태로 저장되어 그래프 탐색을 통해 질의 처리를 수행한다. 본 논문에서는 OWL 데이타를 효율적으로 처리하기 위하여 시그니처를 이용한 최적화 기법을 제안한다. 논문에서 제안한 최적화 기법은 질의 수행 시 각 노드의 탐색 회수를 줄여 질의 수행을 빠르게 할 수 있게 한다.

미디에이터 시스템에서의 이질 분산데이타베이스의 통합을 위한 효율적인 뷰관리 방법 (An Effective View Management in a Mediator System for the Integration of Heterogeneous Distributed Database)

  • 주길홍;이원석
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제28권4호
    • /
    • pp.620-632
    • /
    • 2001
  • 본 논문에서는 다양한 운영체제와 데이타베이스 여러 소프트웨어를 포함하는 이질적인 컴퓨팅 환경에서 뷰관리 기능을 제공하는 미디에이터 시스템을 설계한다. 또한 기존의 미디에이터 시스템들이 수 정(modification)방법으로만 뷰를 관리했던 것에 비해 구체화(materialization)방법을 병행하는 관리방법을 설계하고, 구체화시키기 위해 필요한 접근방법과 최적화 방법을 제안한다. 이를 위해서 유에 대한 접근내 역에 감쇄율을 적용함으로써 최근의 접근내역의 변화가 뷰관리에 적절히 반영되도록 설계하였다. 또한 이 질적인 환경의 데이타베이스와 운영체제를 극복하기 위해 코바(CORBA)를 웹과 연동하여 사용자가 일반 적으로 사용하는 웹 브라우저를 통해 뷰를 관리하는 시스템을 구현한다.

  • PDF

정확도 높은 검색 엔진을 위한 문서 수집 방법 (A Document Collection Method for More Accurate Search Engine)

  • 하은용;최선완
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1999년도 가을 학술발표논문집 Vol.26 No.2 (3)
    • /
    • pp.471-473
    • /
    • 1999
  • 인터넷상의 정보 검색 엔진들은 웹 로봇을 실행해서 인터넷에 연결되어 있는 수많은 웹 서버들을 방문해서 웹 문서를 획득하고, 인덱싱 기법을 써서 자료를 추출하고 분류해서 검색 엔진의 기초가 되는 데이터 베이스를 구축한다. 정보 추출을 위해 웹 로봇을 운영할 때 웹 서버에 대한 사전 지식 없이 진행된다면 수많은 불필요한 요구가 전송돼서 인터넷 트래픽을 증가시키는 요인이 된다. 하지만 웹 서버가 사전에 자신이 공개할 문서에 대한 요약 정보를 웹 로봇에게 통보하고, 웹 로봇은 이 정보를 이용해서 웹 서버의 해당 문서에 대한 정보 수집 작업을 처리한다면 불필요한 인터넷 트래픽을 줄일 수 있을 뿐만 아니라 검색 엔진의 정보의 정확도를 높이고, 웹 서버상의 웹 문서 파일의 변동 사항을 자동으로 검사하고 변동된 사항들을 종합 정리해서 등록된 각 웹 로봇에게 전송하는 문서 감시 통보 시스템과 통보된 요약 정보를 토대로 웹 서버로부터 해당 문서를 전송받아 필요한 인덱스 정보를 추출하는 효율적인 웹 로봇을 제안한다.

  • PDF

웹 기반 GIS 응용을 위한 변경 프로토콜 (Update Protocols for Web-Based GIS Applications)

  • 안성우;서영덕;김진덕;홍봉희
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제29권4호
    • /
    • pp.321-333
    • /
    • 2002
  • 웹 기반 서비스의 급속한 성장으로 다양한 서비스를 이용할 수 있도록 웹 환경에서 공간 데이타의 동시 변경이 가능해야 한다. 웹 기반 GIS 응용은 다양한 사용자 층에 대한 요구를 만족시키기 위하여 다양한 서비스 데이타를 필요로 하고, 이 데이타들은 지속적으로 변경되어야 한다. 또한 웹 환경에서 사용하는 HTTP 프로토콜은 연결 해제(Connectionless)와 상태 비유지(Stateless)를 가정한다. 그러나 웹 환경에서 웹 클라이언트에 의한 데이타 변경 시, 긴 트랜잭션이 특징인 공간 데이타베이스 등의 응용은 클라이언트 간의 동시성과 서버 데이타의 일관성 유지에 문제점을 발생시킨다. 이 논문에서는 웹 환경에서 웹 클라이언트가 서버 측의 공간 데이타를 변경할 때 서버 데이타의 일관성 유지를 위한 해결책을 제시한다. 웹 환경에서 공간 데이타를 변경할 때 HTTP 프로토콜의 연결 해제와 상태 비유지에 의해서 발생하는 휴면 영역 잠금(Dormancy Region Lock) 문제를 영역 잠금 기법인 RX(Region-exclusive) 잠금과 주기적인 메시지(ALIVE_CLIENTi) 전송에 의해서 해결한다. 그리고 이 방법을 기반으로 한 프로토콜을 제시하고, 메인 메모리 공간 데이타베이스 시스템인 사이버맵을 이용한 시스템 설계 및 구현을 통하여 검증하고 있다.

한국어 디비피디아의 자동 스키마 진화를 위한 방법 (A method of Automatic Schema Evolution on DBpedia Korea)

  • 김선동;강민서;이재길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.741-744
    • /
    • 2014
  • 디비피디아 온톨로지는 위키피디아에서 구조화된 데이터를 추출한 지식 베이스이다. 이러한 지식 베이스의 자동 증강은 웹을 구조화하는 속도를 증가시키는데 큰기여를 할 수 있다. 본 연구에서는 한국어 디비피디아를 기반으로 새로운 트리플을 입력받아 기존의 지식 베이스를 자동 증강시키는 시스템을 소개한다. 스키마를 자동 증강하는 두 가지 알고리즘은 최하위 레벨인 인스턴스가 지닌 프로퍼티, 즉 rdf-triple 단위에서 진행되었다. 알고리즘을 사용한 결과 첫째, 확률적 격상 방법을 통해 단계별로 입력받는 인스턴스와 하위 클래스의 프로퍼티를 이용하여 상위 클래스의 스키마가 정교해졌다. 둘째, 이를 바탕으로 타입 분류가 되어 있지 않았던 인스턴스들이 가장 가까운 타입에 자동 분류되었다. 지식 베이스가 정교해지면서 재분류된 인스턴스와 새로운 트리플셋을 바탕으로 두 가지 알고리즘은 반복적으로 작동하며, 한국어 디비피디아 지식 베이스의 자동 증강을 이루었다.

사용자 의도 정보를 사용한 웹문서 분류

  • 장영철
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2008년도 추계 공동 국제학술대회
    • /
    • pp.292-297
    • /
    • 2008
  • 복잡한 시맨틱을 포함한 웹 문서를 정확히 범주화하고 이 과정을 자동화하기 위해서는 인간의 지식체계를 수용할 수 있는 표준화, 지능화, 자동화된 문서표현 및 분류기술이 필요하다. 이를 위해 키워드 빈도수, 문서내 키워드들의 관련성, 시소러스의 활용, 확률기법 적용 등에 사용자의도(intention) 정보를 활용한 범주화와 조정 프로세스를 도입하였다. 웹 문서 분류과정에서 시소러스 등을 사용하는 지식베이스 문서분류와 비 감독 학습을 하는 사전 지식체계(a priori)가 없는 유사성 문서분류 방법에 의도정보를 사용할 수 있도록 기반체계를 설계하였고 다시 이 두 방법의 차이는 Hybrid조정프로세스에서 조정하였다. 본 연구에서 설계된 HDCI(Hybrid Document Classification with Intention) 모델은 위의 웹 문서 분류과정과 이를 제어 및 보조하는 사용자 의도 분석과정으로 구성되어 있다. 의도분석과정에 키워드와 함께 제공된 사용자 의도는 도메인 지식(domain Knowledge)을 이용하여 의도간 계층트리(intention hierarchy tree)를 구성하고 이는 문서 분류시 제약(constraint) 또는 가이드의 역할로 사용자 의도 프로파일(profile) 또는 문서 특성 대표 키워드를 추출하게 된다. HDCI는 문서간 유사성에 근거한 상향식(bottom-up)의 확률적인 접근에서 통제 및 안내의 역할을 수행하고 지식베이스(시소러스) 접근 방식에서 다양성에 한계가 있는 키워들 간 관계설정의 정확도를 높인다.

  • PDF

시맨틱웹을 위한 효율적인 온톨로지 객체 모델 (Efficient Ontology Object Model for Semantic Web)

  • 윤보현;서창호
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권2호
    • /
    • pp.7-13
    • /
    • 2006
  • 시멘틱 웹의 대두로 인해 웹 상에서 데이터를 접근 할 수 있는 방법도 다양화 되었다. 이에 현재 진행되고 있는 웹 온톨로지 뿐만 아니라 기존에 구축된 지식베이스 시스템에 접근하여 데이터를 핸들링 할 수 있는 모델이 필요하다. 웹 온톨로지를 표현하기 위한 언어로 RDF(Resource Description Framework), DAML-OIL, OWL(Web Ontology Language)등이 사용되고 있다. 본 논문은 웹 온톨로지와 기존의 구축된 지식 베이스의 데이터를 접근, 표현 및 처리할 수 있는 온톨로지 객체 모델의 생성과 그 방법에 관한 것이다. 웹 온톨로지에 대한 접근 방법으로 각각의 언어에 맞는 파서(Parser)를 이용하여 메모리 상에 모델을 생성하여 접근하게 되어 있는 기존의 방법과는 다르게 본 논문에서는 웹 온톨로지를 표현하기 위한 모델을 계층별로 구별하여 프레임 기반의 상위 온톨로지(frame-based ontology layer), 다른 도메인에서도 사용이 가능한 공통된 어휘(vocabulary)를 표현한 핵심 온톨로지(generic ontology layer)와 각각의 온톨로지 언어에 의존적인 어휘를 표현한 기능 온톨로지(functional ontology layer)로 구성한다. 이는 표현의 중복을 없애고 재 사용성을 높이기 위한 모델을 제공함으로써, 외부 어플리케이션(온톨로지 추론, 온톨로지 병합, 온톨로지 저작 도구 등)에서의 온톨로지에 대한 쉬운 지식 표현과 접근 및 핸들링을 제공할 수 있다.

  • PDF

통계 및 데이터마이닝 기법을 이용한 웹 사이트 분석 (Analysis of E-biz Site Using Statistics and Data Mining Techniques)

  • 류창수;서용무
    • 한국데이타베이스학회:학술대회논문집
    • /
    • 한국데이타베이스학회 2001년도 춘계 Conference: CRM과 DB응용 기술을 통한 e-Business혁신
    • /
    • pp.369-387
    • /
    • 2001
  • 인터넷 기술의 발달과 인터넷 비즈니스의 발전으로 인해 오늘날 사람들은 더욱 많은 시간을 인터넷 상에서 보내고 있다. 사용자가 기업의 웹 사이트를 방문한 기록은 웹 로그파일이라는 형태로 기업의 서버에 남게 되는데 이러한 로그 파일을 이용해 고객의 행동을 더욱 잘 이해하는 것이 매우 중요한 경쟁력의 요소로 자리 잡게 되었다. 이제까지는 웹 로그를 분석하기 위해 웹 로그 분석 도구를 이용해 왔는데, 경영 의사 결정에 도움이 되는 지식을 발견하기보다는 단순한 기술적인 통계량을 구하는데 그쳤다. 본 연구에서는 통계와 데이터마이닝 기법을 웹 데이터에 적용하여 경영 의사 결정에 도움이 되는 의미 있는 정보를 추출한다. 이를 위해 실제 인터넷 기업의 데이터를 기반으로 하여 대량 데이터를 데이터마이닝을 위해 전처리 하는 과정과 준비된 데이터를 분석하는 과정을 소개한다. 웹 사이트의 분석은 경영 지식을 찾아내기 위한 과정으로 개별 사이트가 처한 상황에 따라 분석과정이 상이해 질 수 있기 때문에 실제 기업의 데이터를 가지고 분석해 나가는 과정을 보이는 것은 의미 있는 연구라 생각된다.

  • PDF

오디세우스 대용량 검색 엔진을 위한 병렬 웹 크롤러의 구현 (Implementation of a Parallel Web Crawler for the Odysseus Large-Scale Search Engine)

  • 신은정;김이른;허준석;황규영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제14권6호
    • /
    • pp.567-581
    • /
    • 2008
  • 웹의 크기가 폭발적으로 증가함에 따라 인터넷에서 정보를 얻는 수단으로서 검색 엔진의 중요성이 부각되고 있다. 검색 엔진은 사용자에게 최신의 정보를 검색 결과로서 제공하기 위해 웹 페이지를 주기적으로 수집하고 이를 데이타베이스에 저장한다. 웹 크롤러는 이러한 목적으로 웹 페이지를 수집하는 프로그램이다. 대부분의 검색 엔진은 제한된 시간 내에 많은 수의 웹 페이지를 수집하기 위해 다수의 머신을 사용하는 병렬 웹 크롤러를 이용한다. 그러나, 병렬 웹 크롤러의 아키텍처와 세부 구현 방법이 잘 알려져 있지 않기 때문에 실제로 병렬 웹 크롤러를 구현하는 데에 어려움이 많다. 본 논문에서는 병렬 웹 크롤러(parallel web crawler)의 아키텍처와 세부 구현 방법을 제시한다. 병렬 웹 크롤러는 다수의 머신에서 웹 페이지를 병렬적으로 수집하기 위해 조정자(coordinator) 대리자(agent) 구조의 2-티어(tier) 모델을 사용한다. 조정자/대리자 모델은 각 머신에서 웹 페이지를 수집하기 위한 다수의 대리자들과 이 대리자들을 관리하기 위한 하나의 조정자로 구성된다. 병렬 웹 크롤러는 웹 페이지를 수집하기 위한 크롤링(crawling) 모듈, 수집한 웹 페이지를 데이타베이스 로딩 포맷으로 변환하기 위한 컨버팅(converting) 모듈, 수집된 웹 페이지의 중요도를 계산하기 위한 랭킹(ranking) 모듈로 구성된다. 본 논문에서는 병렬 웹 크롤러의 각 모듈들을 설명하고, 세부 구현 방법을 설명한다. 마지막으로, 실험을 통해 병렬 웹 크롤러의 성능을 평가하였다. 실험 결과, 제안된 병렬, 웹 크롤러가 수집해야할 웹 페이지 개수와 머신 개수에 따라 확장 가능함을 보였다.

대학 지원 경쟁률 WEB DISPLAY (Web Display of University Application Records)

  • 이연구;송정호;이호석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (1)
    • /
    • pp.324-326
    • /
    • 1998
  • 대학 행정의 전산화 프로젝트는 여러 부분에서 진행되어 왔다. 본 논문은 학사 행정 업무에 관한 프로토타입으로 사용될 목적으로 개발되었으며, 웹에 대학 지원 경쟁률을 실시간으로 사용자에게 보여지도록 했다. 개발 환경은 Unix 운영체제에 오라클 데이터 베이스가 기반이며 호스트 언어로 Pro*C를 사용하였다. 구현 원리는 TCP/IP 프로토콜을 거치지 않고 웹 서버를 이용하여 웹 상에 데이터베이스의 데이터를 주기적으로 갱신하여 보여준다는 점이 특색이다.