• 제목/요약/키워드: Data Transactions

검색결과 8,770건 처리시간 0.03초

메타데이터 기반 데이터 통합 관리 동향에 관한 연구 (A Study on Metadata-Driven Data Integration)

  • 강양석;홍순구;이영상;허진석
    • 한국IT서비스학회지
    • /
    • 제8권1호
    • /
    • pp.1-9
    • /
    • 2009
  • It is essential for companies to manage massive data for dealing with large volume of transactions and customers' needs. To this end, the companies have operated data warehouse with many complex tools for data gathering and reporting to the end-users. However, the data from the heterogeneous tools at the various sources cannot be exchanged because of the different interfaces. Therefore, the data cannot be controlled with integrated manner, and furthermore the companies do not focus the quality of data resulting in the data quality problem. Thus, this study suggests how to manage massive data with a metadata. In particular, we investigate current status of metadata management, its appliance, and perspectives. The contribution of this research is to apply the metadata management system to the real world and to suggest its management procedure.

클라우드 환경에서 확장성을 지원하는 트랜잭션 처리 방법 (A Study for Transaction Processing Supporting Scalability in the Cloud)

  • 김치연
    • 한국전자통신학회논문지
    • /
    • 제7권4호
    • /
    • pp.873-879
    • /
    • 2012
  • 최근에 클라우드 컴퓨팅 패러다임은 다양한 응용에서 받아들여지고 있다. 클라우드 환경의 데이터 관리 시스템은 대용량의 데이터와 확장성을 지원하는 능력이 요구된다. 대용량의 데이터를 다루기 위해 일관성과 트랜잭션의 제약을 완화하는 것이 필요하고, 확장성을 지원하기 위해 구성 요소의 가감을 허용해야 한다. 이 논문에서는 클라우드 환경에서 트랜잭션을 처리할 때 필요한 시스템 모델과 확장가능한 모듈 관리 알고리즘에 대하여 제안한다. 시스템 모델은 트랜잭션 관리 모듈과 데이터 관리 모듈로 구성된다. 모듈 관리 알고리즘은 불필요한 재분배가 발생하지 않고, 기존 모듈의 부하를 덜어줄 수 있다. 성능 분석 결과, 모듈의 확장으로 응답 시간을 향상시키고 트랜잭션 철회율을 감소시킬 수 있음을 알 수 있었다.

지식 결합을 이용한 서로 다른 모델들의 통합 (Integration of Heterogeneous Models with Knowledge Consolidation)

  • 배재권;김진화
    • 경영과학
    • /
    • 제24권2호
    • /
    • pp.177-196
    • /
    • 2007
  • For better predictions and classifications in customer recommendation, this study proposes an integrative model that efficiently combines the currently-in-use statistical and artificial intelligence models. In particular, by integrating the models such as Association Rule, Frequency Matrix, and Rule Induction, this study suggests an integrative prediction model. Integrated models consist of four models: ASFM model which combines Association Rule(A) and Frequency Matrix(B), ASRI model which combines Association Rule(A) and Rule Induction(C), FMRI model which combines Frequency Matrix(B) and Rule Induction(C), and ASFMRI model which combines Association Rule(A), Frequency Matrix(B), and Rule Induction(C). The data set for the tests is collected from a convenience store G, which is the number one in its brand in S. Korea. This data set contains sales information on customer transactions from September 1, 2005 to December 7, 2005. About 1,000 transactions are selected for a specific item. Using this data set. it suggests an integrated model predicting whether a customer buys or not buys a specific product for target marketing strategy. The performance of integrated model is compared with that of other models. The results from the experiments show that the performance of integrated model is superior to that of all other models such as Association Rule, Frequency Matrix, and Rule Induction.

빅데이타 분석을 이용한 지역내 산업클러스터 연구 (A Study On the Industrial Clusters In a Region Using Big data)

  • 정재헌
    • 한국콘텐츠학회논문지
    • /
    • 제17권2호
    • /
    • pp.543-554
    • /
    • 2017
  • 우리는 한국기업정보(KED)에서 제공하는 기업 간 거래에 관한 8만 여건의 데이터로부터, 부산, 울산, 경남 지역에 위치한 기업 간의 거래관계만으로 네트워크를 구성하고 사회네트워크 분석 기법을 사용하여 정책적으로 유용한 정보를 얻고자 하였다. 먼저 주 거래기업만으로 거래관계를 한정시켜 이 거래관계만으로 연결된 기업들로서 그룹핑(클러스터링)하여 보면 3개 이상의 기업으로 이루어진 클러스터들이 282개로 나타난다. 대부분의 클러스터들은 대기업들이 주기업이 되어 해당 클러스터의 매출액 대부분을 차지하면서 다른 클러스터와는 거래가 거의 없는 폐쇄적 위계적 거래를 하고 있는 것으로 나타났다. 네트워크 분석지표들로서 살펴보면 거래의 중심선에서 주요한 역할을 하는 대기업이 아닌 기업들이 발견되며, 어떤 클러스터들은 다른 클러스터들과 다수의 거래를 하고 있는 것으로 나타났다. 부산, 울산, 경남 지역외의 기업들과의 거래관계를 살펴보면 외부지역과의 거래관계는 외부로부터의 매입거래관계가 대부분이며 외부로의 매출거래는 거의 없는 것으로 드러났다. 정책적으로 보면 부산, 울산, 경남 지역 기업들 간의 거래관계를 좀 더 다변화해야 할 필요성이 있다. 이 경우 몇몇 다소 개방적인 거래를 주도하는 예외적인 기업들 및 클러스터들을 적극 활용할 필요성이 있다.

웹 트랜잭션 클러스터링의 정확성을 높이기 위한 흥미가중치 적용 유사도 비교방법 (Similarity Measurement with Interestingness Weight for Improving the Accuracy of Web Transaction Clustering)

  • 강태호;민영수;유재수
    • 정보처리학회논문지D
    • /
    • 제11D권3호
    • /
    • pp.717-730
    • /
    • 2004
  • 최근 들어 원 사이트 개인화(Web Personalization)에 관한 연구가 활발히 진행되고 있다. 웹 개인화는 클러스터링과 같은 데이터 마이닝 기법을 이용하여 가 사용자에게 가장 흥미를 가질만한 URL 집합을 예측하는 것이라 할 수 있다. 기존의 클러스터링을 이용한 방식에서는 웹 트랜잭션들을 웹 사이트의 각 URL들에 방문했는지 안했는지를 나타내는 비트 벡터(bit vector)로 표현하였다. 그리고 이들 비트 벡터의 방문 패턴이 일치하는 정도에 따라 유사성을 결정하였다. 하지간 이것은 유사한 성향을 가지는 웹 트랜잭션을 클러스터링 하는데 있어 사용자의 흥미를 배제하고 단순히 방문 여부만을 반영하게 되는 문제점이 발생하게 된다. 즉 방문 목적 또는 성향이 유사하지 않은 웹 트랜잭션들을 같은 그룹으로 분류할 가능성이 존재하게 된다 이에 본 논문에서는 기존의 비트 벡터를 이용한 트랜잭션 모델을 사용자의 흥미도(Interestingness)를 반영할 수 있도록 보완하여 새로운 점 트랜잭션 모델을 제시하고 흥미가중치를 적용한 유사도 비교방법을 제안한다. 그리고 성능평가를 통하여 제안만 방법이 기졸 방법에 비해 클러스터링의 정확성을 높임을 보인다.

한 번의 데이터베이스 탐색에 의한 빈발항목집합 탐색 (Frequent Patterns Mining using only one-time Database Scan)

  • 채덕진;김룡;이용미;황부현;류근호
    • 정보처리학회논문지D
    • /
    • 제15D권1호
    • /
    • pp.15-22
    • /
    • 2008
  • 본 논문에서는 한 번의 데이터베이스 스캔으로 빈발항목집합들을 생성할 수 있는 효율적인 알고리즘을 제안한다. 제안하는 알고리즘은 빈발 항목과 그 빈발항목을 포함하고 있는 트랜잭션과의 관계를 나타내는 이분할 그래프(bipartite graph)를 생성한다. 그리고 생성된 이분할 그래프를 이용하여 후보 항목집합들을 생성하지 않고 빈발 항목집합들을 추출할 수 있다. 이분할 그래프는 빈발항목들을 추출하기위해 대용량의 트랜잭션 데이터베이스를 스캔할 때 생성된다. 이분할 그래프는 빈발항목들과 그들이 속한 트랜잭션들 간의 관계를 엣지(edge)로 연결한 그래프이다. 즉, 본 논문에서의 이분할 그래프는 대용량의 데이터베이스에서 쉽게 발견할 수 없는 빈발항목과 트랜잭션의 관계를 검색하기 쉽게 색인(index)화한 그래프이다. 본 논문에서 제안하는 방법은 한 번의 데이터베이스 스캔만을 수행하고 후보 항목집합들을 생성하지 않기 때문에 기존의 방법들보다 빠른 시간에 빈발 항목집합들을 찾을 수 있다.

A Survey of Homomorphic Encryption for Outsourced Big Data Computation

  • Fun, Tan Soo;Samsudin, Azman
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권8호
    • /
    • pp.3826-3851
    • /
    • 2016
  • With traditional data storage solutions becoming too expensive and cumbersome to support Big Data processing, enterprises are now starting to outsource their data requirements to third parties, such as cloud service providers. However, this outsourced initiative introduces a number of security and privacy concerns. In this paper, homomorphic encryption is suggested as a mechanism to protect the confidentiality and privacy of outsourced data, while at the same time allowing third parties to perform computation on encrypted data. This paper also discusses the challenges of Big Data processing protection and highlights its differences from traditional data protection. Existing works on homomorphic encryption are technically reviewed and compared in terms of their encryption scheme, homomorphism classification, algorithm design, noise management, and security assumption. Finally, this paper discusses the current implementation, challenges, and future direction towards a practical homomorphic encryption scheme for securing outsourced Big Data computation.

Efficient Certificate-Based Proxy Re-encryption Scheme for Data Sharing in Public Clouds

  • Lu, Yang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권7호
    • /
    • pp.2703-2718
    • /
    • 2015
  • Nowadays, public cloud storage is gaining popularity and a growing number of users are beginning to use the public cloud storage for online data storing and sharing. However, how the encrypted data stored in public clouds can be effectively shared becomes a new challenge. Proxy re-encryption is a public-key primitive that can delegate the decryption right from one user to another. In a proxy re-encryption system, a semi-trusted proxy authorized by a data owner is allowed to transform an encrypted data under the data owner's public key into a re-encrypted data under an authorized recipient's public key without seeing the underlying plaintext. Hence, the paradigm of proxy re-encryption provides a promising solution to effectively share encrypted data. In this paper, we propose a new certificate-based proxy re-encryption scheme for encrypted data sharing in public clouds. In the random oracle model, we formally prove that the proposed scheme achieves chosen-ciphertext security. The simulation results show that it is more efficient than the previous certificate-based proxy re-encryption schemes.

Encoding of XML Elements for Mining Association Rules

  • Hu Gongzhu;Liu Yan;Huang Qiong
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제14권3호
    • /
    • pp.37-47
    • /
    • 2005
  • Mining of association rules is to find associations among data items that appear together in some transactions or business activities. As of today, algorithms for association rule mining, as well as for other data mining tasks, are mostly applied to relational databases. As XML being adopted as the universal format for data storage and exchange, mining associations from XML data becomes an area of attention for researchers and developers. The challenge is that the semi-structured data format in XML is not directly suitable for traditional data mining algorithms and tools. In this paper we present an encoding method to encode XML tree-nodes. This method is used to store the XML data in Value Table and Transaction Table that can be easily accessed via indexing. The hierarchical relationship in the original XML tree structure is embedded in the encoding. We applied this method to association rules mining of XML data that may have missing data.

  • PDF

자율이동로봇의 효율적인 충돌회피를 위한 오도메트리 정보와 거리센서 데이터 융합기법 (A Data Fusion Method of Odometry Information and Distance Sensor for Effective Obstacle Avoidance of a Autonomous Mobile Robot)

  • 서동진;고낙용
    • 전기학회논문지
    • /
    • 제57권4호
    • /
    • pp.686-691
    • /
    • 2008
  • This paper proposes the concept of "virtual sensor data" and its application for real time obstacle avoidance. The virtual sensor data is virtual distance which takes care of the movement of the obstacle as well as that of the robot. In practical application, the virtual sensor data is calculated from the odometry data and the range sensor data. The virtual sensor data can be used in all the methods which use distance data for collision avoidance. Since the virtual sensor data considers the movement of the robot and the obstacle, the methods utilizing the virtual sensor data results in more smooth and safer collision-free motion.