• 제목/요약/키워드: Ontology Query Model

검색결과 50건 처리시간 0.023초

RDF/S 데이터의 관리를 위한 그래프 데이터 모델 기반 저장 기법 (Storing Scheme based on Graph Data Model for Managing RDF/S Data)

  • 김연희;최재언;임해철
    • 디지털콘텐츠학회 논문지
    • /
    • 제9권2호
    • /
    • pp.285-293
    • /
    • 2008
  • 차세대 웹으로 인식되고 있는 시맨틱 웹에서는 정보 리소스의 개념과 의미적 관계를 정의하는 메타데이터와 온톨로지의 역할이 무엇보다 중요시되고 있다. 따라서 RDF와 RDF 스키마 같은 시맨틱 웹 언어로 표현되어 있는 시맨틱 데이터의 효과적인 저장 및 검색 기법이 요구된다. 본 논문에서는 RDF와 RDF 스키마를 함께 고려하여 시맨틱 웹 데이터의 질의 유형을 크게 3가지로 분류하였다. 그리고 RDF와 RDF 스키마가 그래프 데이터 모델로 표현이 가능하고 다양한 질의의 형태가 그래프 모델에서 추출 가능한 경로식으로 표현될 수 있다는데 초점을 맞추고 효율적인 질의 처리를 위한 저장 기법을 제안한다. 본 논문에서 제안한 저장 구조는 RDF와 RDF 스키마에 기본적으로 기술되어 있는 클래스, 프로퍼티, 리소스에 대한 정의나 계층 정보는 물론 추출 가능한 모든 경로 정보를 유지할 수 있다. 본 논문에서 제안한 저장 기법을 통해 일반적인 질의 유형은 물론 그래프 모델 상의 복잡한 경로식으로 표현되는 질의 유형에 대해서도 테이블의 조인 횟수를 최소화하면서 특정 클래스나 프로퍼티로부터 시작하는 모든 경로에 대한 질의 처리가 가능한 장점이 있다.

  • PDF

Middleware for Context-Aware Ubiquitous Computing

  • Hung Q.;Sungyoung
    • 정보처리학회지
    • /
    • 제11권6호
    • /
    • pp.56-75
    • /
    • 2004
  • In this article we address some system characteristics and challenging issues in developing Context-aware Middleware for Ubiquitous Computing. The functionalities of a Context-aware Middleware includes gathering context data from hardware/software sensors, reasoning and inferring high-level context data, and disseminating/delivering appropriate context data to interested applications/services. The Middleware should facilitate the query, aggregation, and discovery for the contexts, as well as facilities to specify their privacy policy. Following a formal context model using ontology would enable syntactic and semantic interoperability, and knowledge sharing between different domains. Moddleware should also provide different kinds of context classification mechanical as pluggable modules, including rules written in different types of logic (first order logic, description logic, temporal/spatial logic, fuzzy logic, etc.) as well as machine-learning mechanical (supervised and unsupervised classifiers). Different mechanisms have different power, expressiveness and decidability properties, and system developers can choose the appropriate mechanism that best meets the reasoning requirements of each context. And finally, to promote the context-trigger actions in application level, it is important to provide a uniform and platform-independent interface for applications to express their need for different context data without knowing how that data is acquired. The action could involve adapting to the new environment, notifying the user, communicating with another device to exchange information, or performing any other task.

  • PDF

단일머신 환경에서의 논리적 프로그래밍 방식 기반 대용량 RDFS 추론 기법 (Scalable RDFS Reasoning using Logic Programming Approach in a Single Machine)

  • 바트셀렘 작바랄;김제민;이완곤;박영택
    • 정보과학회 논문지
    • /
    • 제41권10호
    • /
    • pp.762-773
    • /
    • 2014
  • 시맨틱 웹상에서 RDFS로 표현된 데이터의 사용 증가로 인하여, 대용량 데이터의 추론에 대한 많은 요구가 생겨나고 있다. 많은 연구자들은 대용량 온톨로지 추론을 수행하기 위해서 하둡과 같은 고가의 분산 프레임워크를 활용한다. 그러나, 적절한 사이즈의 RDFS 트리플 추론을 위해서는 굳이 고가의 분산 환경 시스템을 사용하지 않고 단일 머신에서도 논리적 프로그래밍을 이용하면 분산 환경과 유사한 추론 성능을 얻을 수 있다. 본 논문에서는 단일 머신에 논리적 프로그래밍 방식을 적용한 대용량 RDFS 추론 기법을 제안하였고 다중 머신을 기반으로 한 분산 환경 시스템과 비교하여 2억개 정도의 트리플에 대한 RDFS 추론 시스템을 적용한 경우 분산환경과 비슷한 성능을 보이는 것을 실험적으로 증명하였다. 효율적인 추론을 위해 온톨로지 모델을 세부적으로 분리한 메타데이터 구조와 대용량 트리플의 색인 방안을 제안하고 이를 위해서 전체 트리플을 하나의 모델로 로딩하는 것이 아니라 각각 온톨로지 추론 규칙에 따라 적절한 트리플 집합을 선택하였다. 또한 논리 프로그래밍이 제공하는 Unification 알고리즘 기반의 트리플 매칭, 검색, Conjunctive 질의어 처리 기반을 활용하는 온톨로지 추론 방식을 제안한다. 제안된 기법이 적용된 추론 엔진을 LUBM1500(트리플 수 2억개) 에 대해서 실험한 결과 166K/sec의 추론 성능을 얻었는데 이는 8개의 노드(8 코아/노드)환경에서 맵-리듀스로 수행한 WebPIE의 185K/sec의 추론 속도와 유사함을 실험적으로 증명하였다. 따라서 단일 머신에서 수행되는 본 연구 결과는 트리플의 수가 2억개 정도까지는 분산환경시스템을 활용하지 않고도 분산환경 시스템과 비교해서 비슷한 성능을 보이는 것을 확인할 수 있었다.

ISO 15926 기반의 참조 데이터 라이브러리 편집기의 개발 (Development of an Editor for Reference Data Library Based on ISO 15926)

  • 전영준;변수진;문두환
    • 한국CDE학회논문집
    • /
    • 제19권4호
    • /
    • pp.390-401
    • /
    • 2014
  • ISO 15926 is an international standard for integration of lifecycle data for process plants including oil and gas facilities. From the viewpoint of information modeling, ISO 15926 Parts 2 provides the general data model that is designed to be used in conjunction with reference data. Reference data are standard instances that represent classes, objects, properties, and templates common to a number of users, process plants, or both. ISO 15926 Parts 4 and 7 provide the initial set of classes, objects, properties and the initial set of templates, respectively. User-defined reference data specific to companies or organizations are defined by inheriting from the initial reference data and the initial set of templates. In order to support the extension of reference data and templates, an editor that provides creation, deletion and modification functions of user-defined reference data is needed. In this study, an editor for reference data based on ISO 15926 was developed. Sample reference data were encoded in OWL (web ontology language) according to the specification of ISO 15926 Part 8. iRINGTools and dot15926Editor were benchmarked for the design of GUI (graphical user interface). Reference data search, creation, modification, and deletion functions were implemented with XML (extensible markup language) DOM (document object model), and SPARQL (SPARQL protocol and RDF query language).

지식경영시스템의 기술적 한계요인분석을 통한 시맨틱 웹의 적용에 관한 탐색적 연구 (An Exploratory Study on Applications of Semantic Web through the Technical Limitation Factors of Knowledge Management Systems)

  • 주재훈;장길상
    • 한국전자거래학회지
    • /
    • 제10권3호
    • /
    • pp.111-134
    • /
    • 2005
  • 본 연구는 기존의 지식경영시스템의 한계요인을 분석하여, 시맨틱 웹 기술혁신이 이들 한계요인을 어떻게 극복할 수 있는가에 대한 방안을 제시하고자 하였다. 기존의 지식경영시스템의 한계요인을 분석하기 위해서는 설문조사 방법을 이용하였는데, 시스템 사용의 시간 및 공간적 한계, 시스템 사용의 불편성, 검색 한계, 통합한계라는 시스템 품질의 한계와 지식의 부적합성/불완전성과 비신뢰성이라는 지식품질의 한계가 비즈니스의 가치흐름에 장애요인으로 작용하는 것으로 나타났다. 또한 본 연구에서는 특히 시스템 한계를 극복하는데 시맨틱 웹이 적용될 수 있다는 것을 지식경영과정이라는 관점에서 분석하고 시맨틱 기반의 지식경영시스템의 개념적 모델을 제안하였다.

  • PDF

엠비언트 서비스 모델 기반의 실시간 구매활동 지원 시스템 설계 및 구현 (Design and Implementation of Real-Time Support System for Purchasing Activities Based on Ambient Service Model)

  • 서경석;이용;장용희;권용진
    • Spatial Information Research
    • /
    • 제18권2호
    • /
    • pp.67-75
    • /
    • 2010
  • 사용자가 자신이 원하는 상품 또는 그와 관련된 상품을 구매하려고 할 때, 일반적으로 여러 상점들에 방문하여 상품들을 비교해 보고 구매를 결정한다. 본 논문에서는, 관련된 상품을 판매하는 상점을 사용자가 쉽게 검색할 수 있게 하여 효율적인 구매활동을 할 수 있도록 지원하기 위해, 사용자의 상황기반 검색을 통해 관련상점들의 정보를 지도상에 계층적으로 제공하는 엠비언트 서비스 모델 기반 시스템을 설계하고 구현한다. 이 시스템에서 사용자는 자신의 위치정보와 휴대단말로 인식한 상점정보를 통해 자동으로 생성되는 엠비언트 쿼리를 이용하여 관련상점정보를 검색한다. 그리고 검색결과로써 관련상점정보를 키워드들의 계층구조 형태로 획득하고, 이 관련상점들의 위치정보를 지도 인터페이스를 이용하여 확인한다. 또한 제공된 키워드들의 계층구조를 선택하여 추가적인 다른 종류의 관련상점정보를 검색한다. 이로써 사용자는 검색을 위한 복잡한 검색과정 없이 직관적인 형태로 관련상점정보들을 획득할 수 있다. 이 시스템은 RFID기술, 지도기반기술, 위치정보 활용기술, 온톨로지 기술 등을 적용하여 구현한다. 그리고 구체적인 실생활 공간인 특정 상점지역 (경기도 고양시 일산 라페스타 쇼핑몰)을 대상으로 구현된 시스템에 대한 실험을 수행하고, 사용자가 관련상점들의 위치정보를 효율적으로 획득할 수 있음을 확인한다.

유사도 알고리즘을 활용한 시맨틱 프로세스 검색방안 (Semantic Process Retrieval with Similarity Algorithms)

  • 이홍주
    • Asia pacific journal of information systems
    • /
    • 제18권1호
    • /
    • pp.79-96
    • /
    • 2008
  • One of the roles of the Semantic Web services is to execute dynamic intra-organizational services including the integration and interoperation of business processes. Since different organizations design their processes differently, the retrieval of similar semantic business processes is necessary in order to support inter-organizational collaborations. Most approaches for finding services that have certain features and support certain business processes have relied on some type of logical reasoning and exact matching. This paper presents our approach of using imprecise matching for expanding results from an exact matching engine to query the OWL(Web Ontology Language) MIT Process Handbook. MIT Process Handbook is an electronic repository of best-practice business processes. The Handbook is intended to help people: (1) redesigning organizational processes, (2) inventing new processes, and (3) sharing ideas about organizational practices. In order to use the MIT Process Handbook for process retrieval experiments, we had to export it into an OWL-based format. We model the Process Handbook meta-model in OWL and export the processes in the Handbook as instances of the meta-model. Next, we need to find a sizable number of queries and their corresponding correct answers in the Process Handbook. Many previous studies devised artificial dataset composed of randomly generated numbers without real meaning and used subjective ratings for correct answers and similarity values between processes. To generate a semantic-preserving test data set, we create 20 variants for each target process that are syntactically different but semantically equivalent using mutation operators. These variants represent the correct answers of the target process. We devise diverse similarity algorithms based on values of process attributes and structures of business processes. We use simple similarity algorithms for text retrieval such as TF-IDF and Levenshtein edit distance to devise our approaches, and utilize tree edit distance measure because semantic processes are appeared to have a graph structure. Also, we design similarity algorithms considering similarity of process structure such as part process, goal, and exception. Since we can identify relationships between semantic process and its subcomponents, this information can be utilized for calculating similarities between processes. Dice's coefficient and Jaccard similarity measures are utilized to calculate portion of overlaps between processes in diverse ways. We perform retrieval experiments to compare the performance of the devised similarity algorithms. We measure the retrieval performance in terms of precision, recall and F measure? the harmonic mean of precision and recall. The tree edit distance shows the poorest performance in terms of all measures. TF-IDF and the method incorporating TF-IDF measure and Levenshtein edit distance show better performances than other devised methods. These two measures are focused on similarity between name and descriptions of process. In addition, we calculate rank correlation coefficient, Kendall's tau b, between the number of process mutations and ranking of similarity values among the mutation sets. In this experiment, similarity measures based on process structure, such as Dice's, Jaccard, and derivatives of these measures, show greater coefficient than measures based on values of process attributes. However, the Lev-TFIDF-JaccardAll measure considering process structure and attributes' values together shows reasonably better performances in these two experiments. For retrieving semantic process, we can think that it's better to consider diverse aspects of process similarity such as process structure and values of process attributes. We generate semantic process data and its dataset for retrieval experiment from MIT Process Handbook repository. We suggest imprecise query algorithms that expand retrieval results from exact matching engine such as SPARQL, and compare the retrieval performances of the similarity algorithms. For the limitations and future work, we need to perform experiments with other dataset from other domain. And, since there are many similarity values from diverse measures, we may find better ways to identify relevant processes by applying these values simultaneously.

토픽맵과 카산드라를 이용한 그래프 구조와 트랜잭션 동시 처리 기법 (Technique for Concurrent Processing Graph Structure and Transaction Using Topic Maps and Cassandra)

  • 신재현
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권3호
    • /
    • pp.159-168
    • /
    • 2012
  • SNS, 클라우드, Web3.0과 같은 새로운 IT환경은 '관계(relation)'가 중요한 요소가 되고 있다. 그리고 이들 관계(relation)는 거래, 즉, 트랜잭션을 발생시킨다. 그러나 우리가 사용하고 있는 관계형 데이터베이스(RDBMS)나 그래프 데이터베이스는 관계(relation)를 나타내는 그래프 구조와 트랜잭션을 동시에 처리하지 못한다. 본 논문은 확장 가능한 복잡 네트워크 시스템에서 활용할 수 있는 그래프 구조와 트랜잭션을 동시에 처리할 수 있는 방법을 제안한다. 제안 기법은 토픽맵의 데이터 모델을 응용하여 그래프 구조와 트랜잭션을 동시에 저장하고 탐색한다. 토픽맵은 시멘틱 웹(Web3.0)을 구현하는 온톨로지 언어 중 하나로써, 정보자원들 사이의 연관 '관계(relation)'를 통해 정보의 네비게이터로써 활용되고 있다. 또한 본 논문에서는 컬럼형 데이터베이스인 카산드라를 이용하여 제안 기법의 아키텍처를 설계, 구현하였다. 이는 분산처리를 이용하여 빅데이터 레벨의 데이터까지 처리할 수 있도록 하기 위함이다. 마지막으로 대표적인 RDBMS인 오라클과 제안 기법을 동일한 데이터 소스, 동일한 질문에 대해 저장 및 질의를 하는 과정을 실험으로 보였다. 이는 조인(join) 없이 관계(relation)를 표현함으로써 RDBMS의 역할까지 충분히 대체 가능함을 보이고자 한다.

배추의 조직 특이적 발현유전자 데이터베이스 (The Brassica rapa Tissue-specific EST Database)

  • 유희주;박신기;오미진;황현주;김남신;정희;손성한;박범석;문정환
    • 원예과학기술지
    • /
    • 제29권6호
    • /
    • pp.633-640
    • /
    • 2011
  • 배추는 배추속 식물의 A genome을 대표하는 모델로서 다양한 배추과 작물의 유전학 및 유전체학과 육종연구의 기반이 되는 중요한 작물이다. 최근 들어 배추 유전체 해독이 완료됨에 따라 유전체의 기능 연구가 보다 활발히 진행될 것으로 기대된다. 유전체 정보로부터 유전자의 구조를 예측하고, 기능을 분석하여 프로모터를 포함한 유용 유전자를 개발하기 위한 필수 재료로 이용되는 것이 다양한 조직 또는 실험 처리로부터 생성된 발현 유전자 데이터이다. 2011년 7월 현재 공공 데이터베이스에는 39개의 cDNA library로부터 분석된 147,217개의 배추 발현유전자가 보고되어 있다. 그러나 이들 발현 유전자들은 체계적으로 분석되거나 데이터베이스 형태로 정리되어 있지 않기 때문에 연구자들이 유전자 서열로부터 유용한 정보를 추출하여 사용하기 어려운 문제점이 있다. 따라서 해독 완료된 배추 유전체와 함께 발현 유전자 정보를 보다 잘 활용하기 위하여 배추의 조직 특이적 발현유전자 데이터베이스인 BrTED를 개발하였다. 데이터베이스는 EST 서열 처리-정보 검색 단위와 조직특이성 발현 특성 분석 단위로 이루어져 있으며, 각 정보들은 상호 연결되어 유기적인 검색 환경을 제공하게 하였다. BrTED는 23,962개의 단일 조합 유전자서열을 포함하고 있으며, 각 서열들의 유전자 주석과 암호화하고 있는 단백질의 기능을 동시에 제공한다. 또한 각 단일 조합 유전자서열들의 조직별 발현 특이성을 통계 분석을 통해 조사하여 연구자의 검색 기준에 따라 제공한다. BrTED의 실효성을 검증하기 위하여 데이터베이스를 통해 조직 특이적 발현 유전자 29개를 선발하고, 이들의 발현 특성을 RT-PCR로 확인한 결과, 선발한 유전자 모두 목표한 조직에서 특이적이거나 강한 발현을 보였다. BrTED는 조직 특이적 발현유전자를 신속하게 선발할 수 있는 공공 데이터베이스로서 배추의 기능 유전체 연구뿐만 아니라 근연 배추속 작물의 유전학과 유전체학 연구에 유용한 공공 연구 자원으로 이용될 수 있을 것이다.

시맨틱 웹 자원의 랭킹을 위한 알고리즘: 클래스중심 접근방법 (A Ranking Algorithm for Semantic Web Resources: A Class-oriented Approach)

  • 노상규;박현정;박진수
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.31-59
    • /
    • 2007
  • We frequently use search engines to find relevant information in the Web but still end up with too much information. In order to solve this problem of information overload, ranking algorithms have been applied to various domains. As more information will be available in the future, effectively and efficiently ranking search results will become more critical. In this paper, we propose a ranking algorithm for the Semantic Web resources, specifically RDF resources. Traditionally, the importance of a particular Web page is estimated based on the number of key words found in the page, which is subject to manipulation. In contrast, link analysis methods such as Google's PageRank capitalize on the information which is inherent in the link structure of the Web graph. PageRank considers a certain page highly important if it is referred to by many other pages. The degree of the importance also increases if the importance of the referring pages is high. Kleinberg's algorithm is another link-structure based ranking algorithm for Web pages. Unlike PageRank, Kleinberg's algorithm utilizes two kinds of scores: the authority score and the hub score. If a page has a high authority score, it is an authority on a given topic and many pages refer to it. A page with a high hub score links to many authoritative pages. As mentioned above, the link-structure based ranking method has been playing an essential role in World Wide Web(WWW), and nowadays, many people recognize the effectiveness and efficiency of it. On the other hand, as Resource Description Framework(RDF) data model forms the foundation of the Semantic Web, any information in the Semantic Web can be expressed with RDF graph, making the ranking algorithm for RDF knowledge bases greatly important. The RDF graph consists of nodes and directional links similar to the Web graph. As a result, the link-structure based ranking method seems to be highly applicable to ranking the Semantic Web resources. However, the information space of the Semantic Web is more complex than that of WWW. For instance, WWW can be considered as one huge class, i.e., a collection of Web pages, which has only a recursive property, i.e., a 'refers to' property corresponding to the hyperlinks. However, the Semantic Web encompasses various kinds of classes and properties, and consequently, ranking methods used in WWW should be modified to reflect the complexity of the information space in the Semantic Web. Previous research addressed the ranking problem of query results retrieved from RDF knowledge bases. Mukherjea and Bamba modified Kleinberg's algorithm in order to apply their algorithm to rank the Semantic Web resources. They defined the objectivity score and the subjectivity score of a resource, which correspond to the authority score and the hub score of Kleinberg's, respectively. They concentrated on the diversity of properties and introduced property weights to control the influence of a resource on another resource depending on the characteristic of the property linking the two resources. A node with a high objectivity score becomes the object of many RDF triples, and a node with a high subjectivity score becomes the subject of many RDF triples. They developed several kinds of Semantic Web systems in order to validate their technique and showed some experimental results verifying the applicability of their method to the Semantic Web. Despite their efforts, however, there remained some limitations which they reported in their paper. First, their algorithm is useful only when a Semantic Web system represents most of the knowledge pertaining to a certain domain. In other words, the ratio of links to nodes should be high, or overall resources should be described in detail, to a certain degree for their algorithm to properly work. Second, a Tightly-Knit Community(TKC) effect, the phenomenon that pages which are less important but yet densely connected have higher scores than the ones that are more important but sparsely connected, remains as problematic. Third, a resource may have a high score, not because it is actually important, but simply because it is very common and as a consequence it has many links pointing to it. In this paper, we examine such ranking problems from a novel perspective and propose a new algorithm which can solve the problems under the previous studies. Our proposed method is based on a class-oriented approach. In contrast to the predicate-oriented approach entertained by the previous research, a user, under our approach, determines the weights of a property by comparing its relative significance to the other properties when evaluating the importance of resources in a specific class. This approach stems from the idea that most queries are supposed to find resources belonging to the same class in the Semantic Web, which consists of many heterogeneous classes in RDF Schema. This approach closely reflects the way that people, in the real world, evaluate something, and will turn out to be superior to the predicate-oriented approach for the Semantic Web. Our proposed algorithm can resolve the TKC(Tightly Knit Community) effect, and further can shed lights on other limitations posed by the previous research. In addition, we propose two ways to incorporate data-type properties which have not been employed even in the case when they have some significance on the resource importance. We designed an experiment to show the effectiveness of our proposed algorithm and the validity of ranking results, which was not tried ever in previous research. We also conducted a comprehensive mathematical analysis, which was overlooked in previous research. The mathematical analysis enabled us to simplify the calculation procedure. Finally, we summarize our experimental results and discuss further research issues.