• 제목/요약/키워드: Large-scale database

검색결과 298건 처리시간 0.036초

GOMS: Large-scale ontology management system using graph databases

  • Lee, Chun-Hee;Kang, Dong-oh
    • ETRI Journal
    • /
    • 제44권5호
    • /
    • pp.780-793
    • /
    • 2022
  • Large-scale ontology management is one of the main issues when using ontology data practically. Although many approaches have been proposed in relational database management systems (RDBMSs) or object-oriented DBMSs (OODBMSs) to develop large-scale ontology management systems, they have several limitations because ontology data structures are intrinsically different from traditional data structures in RDBMSs or OODBMSs. In addition, users have difficulty using ontology data because many terminologies (ontology nodes) in large-scale ontology data match with a given string keyword. Therefore, in this study, we propose a (graph database-based ontology management system (GOMS) to efficiently manage large-scale ontology data. GOMS uses a graph DBMS and provides new query templates to help users find key concepts or instances. Furthermore, to run queries with multiple joins and path conditions efficiently, we propose GOMS encoding as a filtering tool and develop hash-based join processing algorithms in the graph DBMS. Finally, we experimentally show that GOMS can process various types of queries efficiently.

Large scale word recognizer를 위한 음성 database - POW (The Speech Database for Large Scale Word Recognizer)

  • 임연자
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1995년도 제12회 음성통신 및 신호처리 워크샵 논문집 (SCAS 12권 1호)
    • /
    • pp.291-294
    • /
    • 1995
  • 본논문은 POW algorithm과 알고리즘을 통해 수행된 결과인 large scale word recognizer를 위한 POW set에 대하여 설명하겠다. Large scale word recognizer를 위한 speech database를 구축하기 위해서는 모든 가능한 phonological phenomenon이 POW set에 포함 되어얗 ks다. 또한 POW set의 음운 현상들의 분포는 추출하고자 하는 모집단의 음운현상들의 분포와 유사해야 한다. 위와 같은 목적으로 다음과 같이 3가지 성질을 갖는 POW set을 추출하기 위한 새로운 algorithm을 제안한다. 1. 모집단에서 발생하는 모든 음운현상을 포함해야 한다. 2, 최소한의 단어 집합으로 구성되어야 한다. 3. POW set과 모집단의 음운현상의 분포가 유사해야 한다. 우리는 약 300만 어절의 한국어 text corpus로부터 5천 단어의 고빈도 어절을 추출하고 이로부터 한국어 POW set을 추출하였다.

  • PDF

An Efficient Face Recognition using Feature Filter and Subspace Projection Method

  • Lee, Minkyu;Choi, Jaesung;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제2권2호
    • /
    • pp.64-66
    • /
    • 2015
  • Purpose : In this paper we proposed cascade feature filter and projection method for rapid human face recognition for the large-scale high-dimensional face database. Materials and Methods : The relevant features are selected from the large feature set using Fast Correlation-Based Filter method. After feature selection, project them into discriminant using Principal Component Analysis or Linear Discriminant Analysis. Their cascade method reduces the time-complexity without significant degradation of the performance. Results : In our experiments, the ORL database and the extended Yale face database b were used for evaluation. On the ORL database, the processing time was approximately 30-times faster than typical approach with recognition rate 94.22% and on the extended Yale face database b, the processing time was approximately 300-times faster than typical approach with recognition rate 98.74 %. Conclusion : The recognition rate and time-complexity of the proposed method is suitable for real-time face recognition system on the large-scale high-dimensional face database.

Development of the design methodology for large-scale database based on MongoDB

  • Lee, Jun-Ho;Joo, Kyung-Soo
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권11호
    • /
    • pp.57-63
    • /
    • 2017
  • The recent sudden increase of big data has characteristics such as continuous generation of data, large amount, and unstructured format. The existing relational database technologies are inadequate to handle such big data due to the limited processing speed and the significant storage expansion cost. Thus, big data processing technologies, which are normally based on distributed file systems, distributed database management, and parallel processing technologies, have arisen as a core technology to implement big data repositories. In this paper, we propose a design methodology for large-scale database based on MongoDB by extending the information engineering methodology based on E-R data model.

창고 모델 실물화재 특성에 대한 실험적 연구 (An Experimental Study on the Warehouse Mock-up Fire Test)

  • 권오상;유용호;김흥열
    • 한국화재소방학회논문지
    • /
    • 제24권4호
    • /
    • pp.47-54
    • /
    • 2010
  • 본 연구에서는 창고 화재 사고의 위험성을 파악하기 위해서 중규모 실물 화재 실험 장비인 룸코너 시험기(Room Corner Tester)를 통해 구축된 단위 구성품의 화재 특성 DB를 바탕으로 화재에 취약할 것으로 판단되는 의류 창고를 실험 모델로 구성하여 실물 화재실험 장비인 라지 스케일 칼로리미터(Large Scale Calorimeter)에서 실물 화재실험을 실시하였다. 창고 모델의($3m{\times}3m{\times}2.4m$) 벽체는 불연등급의 그라스울과 일반 스티로폼 샌드위치 패널로 구성하였다. 실험결과 최대 열방출률은 그라스울 샌드위치 패널 창고모델에서 5MW, 스티로폼 샌드위치 패널 창고모델에서 11MW를 나타내었다.

원형 실린더를 지나는 난류 유동장의 직접수치해석과 큰 에디모사를 위한 스케일 간 상호작용 연구 (DNS and Analysis on the Interscale Interactions of the Turbulent Flow past a Circular Cylinder for Large Eddy Simulation)

  • 김택근;박노마;유정열
    • 대한기계학회:학술대회논문집
    • /
    • 대한기계학회 2004년도 춘계학술대회
    • /
    • pp.1801-1806
    • /
    • 2004
  • Stochastic nature of subgrid-scale stress causes the predictability problem in large eddy simulation (LES) by which the LES solution field decorrelates with field from filtered directnumerical simulation (DNS). In order to evaluate the predictability limit in a priori sense, the information on the interplay between resolved scale and subgrid-scale (SGS) is required. In this study, the analysis on the inter-scale interaction is performed by applying tophat and cutoff filters to DNS database of flow over a circular cylinder at Reynolds number of 3900. The effect of filter shape is investigated on the interpretation of correlation between scales. A critique is given on the use of tophat filter for SGS analysis using DNS database. It is shown that correlations between Karman vortex and SGS kinetic energy drastically decrease when the cutoff filter is used, which implies that the small scale universality holds even in the presence of the large scale coherent structure.

  • PDF

대규모 데이터베이스 시스템에서 인덱스를 이용한 범위 질의 방법 (A Range Query Method using Index in Large-scale Database Systems)

  • 김치연
    • 한국전자통신학회논문지
    • /
    • 제7권5호
    • /
    • pp.1095-1101
    • /
    • 2012
  • 최근 데이터 양이 폭발적으로 증가함에 따라, 데이터를 저장하고 검색하고 다루기 위한 대규모 데이터베이스 시스템이 등장하였다. 이 환경에서는 일관성과 가용성, 결함 허용 등 다양한 이슈가 존재한다. 이 논문에서는 데이터 관리와 트랜잭션 관리가 분리된 구조를 갖는 대규모 데이터베이스 시스템에서, 효율적인 범위 질의 방법에 대하여 다룬다. 동일한 구조에서 두 모듈의 독립성을 보장하고, 팬텀 문제를 해결하기 위하여 파티션을 이용한 범위 질의 방법에 대한 연구가 있었지만, 범위 질의가 키 값으로 명세되는 경우에만 효율적이었다. 이에 이 논문에서는 키 값이 아닌 다른 속성으로 범위 질의가 주어질 때 효율을 개선할 수 있는 방법을 제안하고자 한다. 제안하는 방법에서는 분리된 두 모듈의 독립성은 보장하며, 부분 인덱스를 사용함으로써 범위 질의를 위한 오버헤드를 줄일 수 있다.

소용량 데이터베이스 처리를 위한 DBMS의 성능 비교 (Comparison of DBMS Performance for processing Small Scale Database)

  • 장시웅
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2008년도 추계종합학술대회 B
    • /
    • pp.139-142
    • /
    • 2008
  • 대규모 용량의 데이터베이스를 처리하기 위한 상용 DBMS에 대한 성능의 비교는 벤치마크 테스트로 결과가 주어진 경우가 많은 반면, 소규모 용량의 데이터베이스를 처리하기 위한 DBMS의 성능에 대해서는 많이 알려져 있지 않다. 따라서 본 연구에서는 소규모 용량의 데이터베이스를 처리하기 위한 상용 DBMS 및 공개용 DBMS의 성능에 대해 비교하고 분석하였다. 분석결과, 오라클은 데이터 갱신 및 삽입에 관한 연산에서는 데이터의 안전성 보장을 위한 rollback 기능의 준비 작업이 많아 좋지 못한 성능을 보인 반면, MySQL이나 MS-SQL 등의 경우에는 별다른 오버 헤드가 없어 오라클에 비해 좋은 성능을 보였다.

  • PDF

소용량 데이터베이스 처리를 위한 DBMS의 성능 비교 (Comparison of DBMS Performance for processing Small Scale Database)

  • 장시웅
    • 한국정보통신학회논문지
    • /
    • 제12권11호
    • /
    • pp.1999-2004
    • /
    • 2008
  • 대규모 용량의 데이터베이스를 처리하기 위한 상용 DBMS에 대한 성능의 비교는 벤치마크 테스트로 결과가 주어진 경우가 많은 반면, 소규모 용량의 데이터베이스를 처리하기 위한 DBMS의 성능에 대해서는 많이 알려져 있지 않다. 따라서 본 연구에서는 소규모 용량의 데이터 베이스를 처리하기 위한 상용 DBMS 및 공개용 DBMS의 성능에 대해 비교하고 분석하였다. 분석 결과, 오라클은 데이터 갱신 및 삽입에 관한 연산에서는 데이터의 안전성 보장을 위한 rollback 기능의 준비 작업이 많아 좋지 못한 성능을 보인 반면, MySQL이나 MS-SQL등의 경우에는 별다른 오버헤드가 없어 오라클에 비해 좋은 성능을 보였다.

불균형 이분 데이터 분류분석을 위한 데이터마이닝 절차 (A Data Mining Procedure for Unbalanced Binary Classification)

  • 정한나;이정화;전치혁
    • 대한산업공학회지
    • /
    • 제36권1호
    • /
    • pp.13-21
    • /
    • 2010
  • The prediction of contract cancellation of customers is essential in insurance companies but it is a difficult problem because the customer database is large and the target or cancelled customers are a small proportion of the database. This paper proposes a new data mining approach to the binary classification by handling a large-scale unbalanced data. Over-sampling, clustering, regularized logistic regression and boosting are also incorporated in the proposed approach. The proposed approach was applied to a real data set in the area of insurance and the results were compared with some other classification techniques.