• 제목/요약/키워드: Data Merge

검색결과 189건 처리시간 0.022초

방송통신융합 서비스를 위한 3D 모델별 고유 코드에 관한 연구 (Study on unique code by each 3D model for broadcast communication harmony service.)

  • 박인규;박준열;김준원
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2007년도 하계종합학술대회 논문집
    • /
    • pp.49-50
    • /
    • 2007
  • We are now using separate ID Database, Permission System, OS and Standard Data Format in PC, Cell phone, IPTV service and these are not good in many kind of usage, data sharing, contents servicing and supervising efficiency To merge these multiple services into one system we need to make a single ID systems for all and this paper will gide you to the new ID system that was much better than the old one. This new type of ID system is made with 3D Data and this will give fantastic visual effect & rich information data to the ID users in 3D way which is much better than 2D image & Text information technology.

  • PDF

효율적인 플래시 변환 계층을 위한 블록 연관성 제한 기법 (Block Associativity Limit Scheme for Efficient Flash Translation Layer)

  • 옥동석;이태훈;정기동
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권6호
    • /
    • pp.673-677
    • /
    • 2010
  • 최근 NAND 플래시 메모리는 소형, 경량, 저전력 소모, 빠른 접근 속도 등의 장점으로 내장형 시스템과 개인용 컴퓨터, 서버 시스템에서 널리 사용되고 있다. 플래시 메모리를 하드 디스크처럼 사용하기 위해서는 플래시 변환 계층이 필요하다. 이전에 많은 플래시 변환 계층들이 제안되었지만 이전에 제안되었던 플래시 변환 계층들은 블록 스래싱 문제와 블록 연관성 등 몇 가지 문제점을 가지고 있다. 이 논문에서는 위의 문제를 해결하기 위한 새로운 플래시 변환 계층을 제안한다. 이 기법은 로그 블록의 연관성을 제한하고 데이터 블록의 연관성을 제한하지 않아 합병 연산의 횟수를 최소화 하고, 새로운 공간 회수 기법은 로그 블록 가비지 컬렉션을 이용하여 합병 연산의 비용을 줄인다.

합병한 국내 제조기업들의 특징에 관한 실증적 연구 : 환경적 요인과 기업성과를 중심으로 (An Empirical Analysis of the Characteristics of Acquiring Manufacturing Firms in Korea : The Focus on Environmental Factors and Firm Performance)

  • 이윤숙;박수훈
    • 경영과학
    • /
    • 제32권2호
    • /
    • pp.91-109
    • /
    • 2015
  • The M&A of firms has been emerged as the effective means of fast diversification and growth in dynamic environment. However, the empirical research about M&A in Korea has not been implemented rich due to the difficulty of obtaining M&A data. In this research, we empirically investigate the relationships among M&A, environment and firms' performance focused on Korean manufacturing firms, understanding the current practice of M&A in Korea. We use the Manufacturing Productivity Panel Survey Data, which are collected by Korea Productivity Center in 2013. The sample size is 575 and the sample is divided into M&A group and non-M&A group. We conduct logit analysis with the independent variables of environment factors (munificence, dynamic, uncertainty), and firms' performance (sales growth, ROS, labor productivity and Inventory turnover), and dependent variable of M&A group or non M&A group. The results show that M&A is closely related to environment feature and firm performance: M&A firms are likely to be the higher munificence and dynamic and the lower sales growth and higher profitability than non-M&A group. In addition, we also examine the characteristics of firms by M&A types (competitors, customer/supplier and firms from unrelated industry). These results imply that if firms confront the pressure of uncertainty (dynamic) and the lower growth, they tend to choose M&A. Futhermore, to profoundly understand the behavior of firms about M&A, it is required to classify the M&A firms by merge types.

색인 구조 예측을 통한 이동체의 지연 다량 삽입 기법 (Lazy Bulk Insertion Method of Moving Objects Using Index Structure Estimation)

  • 김정현;박순영;장용일;김호석;배해영
    • 한국공간정보시스템학회 논문지
    • /
    • 제7권3호
    • /
    • pp.55-65
    • /
    • 2005
  • 본 논문은 이동체의 잦은 갱신에 의해 발생하는 색인 재구성에 대한 비용을 줄이기 위해 이동체의 지연 다량 삽입 기법을 제안한다. 기존 이동체 색인에 대한 연구는 주로 색인 구성 후에 발생하는 질의 처리 효율성에 초점을 두었다. 이들은 이동체 데이터의 갱신 연산에 의한 색인 재구성에 대한 디스크 접근 오버헤드를 거의 고려하지 않았다. 이러한 이동체 데이터의 갱신 연산에 대한 비용을 줄이기 위해 다량 삽입 기법과 여러 색인이 제안되었다. 하지만 제안된 기법들은 매우 가변적이고 대량인 데이터를 효율적으로 처리하는데 많은 디스크 I/O 비용을 필요로 한다. 본 논문에서는 빠른 데이터 생성 속도에 적합하도록 디스크 접근 오버헤드를 고려해서 R-트리를 관리할 수 있는 현재색인에 대한 다량 삽입 기법을 제안한다. 이 기법에서는 다차원 색인 구조에서의 다량 삽입 기법을 위한 버퍼링 기법을 사용한다. R-트리의 단말 노드 정보를 관리하는 보조 색인을 추가하여 노드의 분할과 합병을 예상한다. 또한 연산을 종류에 따라 분류하여 불필요한 삽입과 삭제 연산을 줄인다. 노드의 변환를 최소화하는 방향으로 이동 객체의 처리 순서를 정하여 데이터 갱신에 따른 노드의 분할과 합병을 최소화한다. 실험을 통해 제안한 기법을 이용한 다량 삽입 기법이 기존의 삽입 기법들보다 색인의 갱신 비용을 감소시키는 것을 알 수 있다.

  • PDF

컴포넌트 소프트웨어 품질 평가 모듈 설계 (Design of Quality Evaluation Criteria for Component Software)

  • 유지현;이병걸
    • 인터넷정보학회논문지
    • /
    • 제4권1호
    • /
    • pp.39-52
    • /
    • 2003
  • 사회 및 경제가 발전함에 따라 소프트웨어 품질에 관심이 많아지며 고품질의 소프트웨어 생산을 위한 노력이 많이 이루어지고 있다. 이러한 소프트웨어의 가치를 평가하기 위해 ISO/IEC 9126 등의 표준안들이 많이 제공되고 있지만, 이러한 표준안들은 소프트웨어 항목 특성 및 평가 프로세스의 모형만을 제시하고 있을 뿐 평가 시 측정되는 평가 항목의 가중치에 대한 언급은 없다. 이에 본 논문에서는 ISO/IEC 9126의 지침에 따라 소프트웨어의 품질을 평가함에 있어 평가 항목간의 중요도 관계를 나타내는 평가 항목 가중치를 객관적이고 정량적인 방법으로 산출하여 품질 평가의 신뢰성을 높이고자 한다. 이러한 평가 항목에 대한 가중치 계산 방법의 바탕이 되는 이론으로, 각각의 평가 항목에 대한 신뢰 함수를 사용하여 평가 기준의 불확실성을 제거할 수 있게 하는 Dempster-Shafer 이론을 사용하며 더 나아가 Dempster-Shafer이론의 결합 규칙의 문제점을 개선하여 상호 배타적인 가설들의 결합 문제에도 효율적으로 적용하였다. 또한 평가자들의 정성적 인 표현으로부터 기초확률할당함수 값을 도출하는 정량화 기법의 사용으로 보다 효율적인 가중치 결정 기법을 제안하였다.

  • PDF

대용량 그래프에서 k-차수 인덱스 테이블을 이용한 RDBMS 기반의 효율적인 최단 경로 탐색 기법 (RDBMS Based Efficient Method for Shortest Path Searching Over Large Graphs Using K-degree Index Table)

  • 홍지혜;한용구;이영구
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권5호
    • /
    • pp.179-186
    • /
    • 2014
  • 소셜 네트워크, 웹 페이지 링크, 교통 네트워크 등과 같은 최근의 네트워크들은 노드와 에지의 수가 방대한 빅 데이터이다. 소셜 네트워크 서비스나 네비게이션 서비스와 같이 이와 같은 네트워크를 이용하는 애플리케이션이 많아지고 있다. 대용량 네트워크는 전체를 메모리에 적재할 수 없어, 기존의 네트워크 분석 기술을 활용할 수 없다. 최근 대용량 그래프의 효율적 탐색을 제공하는 RDB 기반 연산자들이 프레임워크(Frontier-expand-merge framework, FEM)로 제안되었다. FEM은 효율적인 최단 경로 탐색을 위해 부분 최단 경로를 저장하는 RDB 기반의 인덱스 테이블을 구축하였다. 그러나 FEM의 인덱스 테이블은 최단 경로에 포함될 확률보다 인덱스의 거리에 의해 결정되기 때문에 인덱스 테이블 참조율이 떨어진다. 본 논문에서는 효율적인 최단 경로 탐색을 지원하는 인덱스 참조율이 높은 차수가 큰 노드들을 이용한 인덱스 테이블 구축 기법을 제안한다. 실험을 통하여 제안하는 인덱스 테이블 구축 기법이 실세계 데이터 셋에서 효율적인 최단 경로 탐색을 지원함을 보인다.

A Robust Approach of Regression-Based Statistical Matching for Continuous Data

  • Sohn, Soon-Cheol;Jhun, Myoung-Shic
    • 응용통계연구
    • /
    • 제25권2호
    • /
    • pp.331-339
    • /
    • 2012
  • Statistical matching is a methodology used to merge microdata from two (or more) files into a single matched file, the variants of which have been extensively studied. Among existing studies, we focused on Moriarity and Scheuren's (2001) method, which is a representative method of statistical matching for continuous data. We examined this method and proposed a revision to it by using a robust approach in the regression step of the procedure. We evaluated the efficiency of our revised method through simulation studies using both simulated and real data, which showed that the proposed method has distinct advantages over existing alternatives.

Depth first search 알고리듬을 이용한 윤곽선 영상의 효과적인 부호화 기법 (An Efficient Contour Coding Method Using Depth First Search Algorithm)

  • 김종훈;김한수;김성대;김재균
    • 대한전자공학회논문지
    • /
    • 제25권12호
    • /
    • pp.1677-1685
    • /
    • 1988
  • In this paper, a new contour coding algorithm is investigated for use in region based image coding. Generally the contour data may be encoded by its chain codes or chain difference codes. But the data compression efficiency is low because of heavy burden for initial absolute coordinates of each chain. To alleviate this problem, the depth first search in graph traversal algorithm, is applied to the chain difference coding method. The proposed coding scheme is shown to be very efficient for contour images obtained by split-merge segmentation. Finally, we can reuce data about 60% in comparison with modified chain difference coding.

  • PDF

Implementation of Effective Automatic Foreground Motion Detection Using Color Information

  • Kim, Hyung-Hoon;Cho, Jeong-Ran
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권6호
    • /
    • pp.131-140
    • /
    • 2017
  • As video equipments such as CCTV are used for various purposes in fields of society, digital video data processing technology such as automatic motion detection is essential. In this paper, we proposed and implemented a more stable and accurate motion detection system based on background subtraction technique. We could improve the accuracy and stability of motion detection over existing methods by efficiently processing color information of digital image data. We divided the procedure of color information processing into each components of color information : brightness component, color component of color information and merge them. We can process each component's characteristics with maximum consideration. Our color information processing provides more efficient color information in motion detection than the existing methods. We improved the success rate of motion detection by our background update process that analyzed the characteristics of the moving background in the natural environment and reflected it to the background image.

Design and Implementation of Incremental Learning Technology for Big Data Mining

  • Min, Byung-Won;Oh, Yong-Sun
    • International Journal of Contents
    • /
    • 제15권3호
    • /
    • pp.32-38
    • /
    • 2019
  • We usually suffer from difficulties in treating or managing Big Data generated from various digital media and/or sensors using traditional mining techniques. Additionally, there are many problems relative to the lack of memory and the burden of the learning curve, etc. in an increasing capacity of large volumes of text when new data are continuously accumulated because we ineffectively analyze total data including data previously analyzed and collected. In this paper, we propose a general-purpose classifier and its structure to solve these problems. We depart from the current feature-reduction methods and introduce a new scheme that only adopts changed elements when new features are partially accumulated in this free-style learning environment. The incremental learning module built from a gradually progressive formation learns only changed parts of data without any re-processing of current accumulations while traditional methods re-learn total data for every adding or changing of data. Additionally, users can freely merge new data with previous data throughout the resource management procedure whenever re-learning is needed. At the end of this paper, we confirm a good performance of this method in data processing based on the Big Data environment throughout an analysis because of its learning efficiency. Also, comparing this algorithm with those of NB and SVM, we can achieve an accuracy of approximately 95% in all three models. We expect that our method will be a viable substitute for high performance and accuracy relative to large computing systems for Big Data analysis using a PC cluster environment.