• 제목/요약/키워드: information granularity

검색결과 124건 처리시간 0.032초

Migration Strategies for Temporal Data based on Time-Segmented Storage Structure

  • Yun, Hongwon
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.329-332
    • /
    • 2000
  • Research interests on temporal data have been almost focused on data models. There has been relatively less research in the area of temporal data management. In this paper, we propose two data migration strategies based on time-segmented storage structure: the migration strategy by Time Granularity, the migration strategy by LST-GET. We describe the criterion for data migration and moving process. We simulated the performance of the migration strategy by Time Granularity in order to compare it with non-segmentation method. We compared and analyzed two data migration strategies for temporal data.

  • PDF

유스케이스 재구성을 통한 서비스 식별 (Services Identification based on Use Case Recomposition)

  • 김유경
    • 한국전자거래학회지
    • /
    • 제12권4호
    • /
    • pp.145-163
    • /
    • 2007
  • 서비스 지향 아키텍처는 느슨하게 연결되고 상호 호환 가능한 서비스들의 결합을 통해 어플리케이션을 구현하는 기술이다. 서비스는 적절한 입도를 갖는 구현된 비즈니스 함수로 정의할 수 있고, 잘 구성된 인터페이스를 통해 외부에 노출된다. 서비스 모델링 단계에서 서비스의 입도(granularity)가 너무 작아지면, 서비스의 재사용성, 유연성이 낮아진다. 이런 서비스 입도의 문제로 인해 도메인 분석 모델로부터 적절한 추상화 레벨을 갖는 서비스를 식별하고 정의하는 것은 매우 중요한 일이다. 본 논문에서는 도메인 분석 모델인 유스케이스 모델로부터 서비스를 식별하기 위한 절차를 제안한다. 유스케이스와 유스케이스 기술서(description)로부터 태스크 트리를 생성하고, 태스크 트리의 분할과 결합을 통해 유스케이스를 재구성한다. 이렇게 재구성된 유스케이스들로부터 서비스를 식별하고, 명세할 수 있다. 본 논문에서 제안하는 방법은 이미 널리 사용되는 UML 유스케이스 모델을 사용하므로 다양한 플랫폼과 도메인에서 서비스 모델링을 위한 개발 시간과 노력을 최소화 할 수 있을 것으로 기대된다.

  • PDF

실행시간 적응에 의한 병렬처리시스템의 성능개선 (Performance Improvement of Parallel Processing System through Runtime Adaptation)

  • 박대연;한재선
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권7호
    • /
    • pp.752-765
    • /
    • 1999
  • 대부분 병렬처리 시스템에서 성능 파라미터는 복잡하고 프로그램의 수행 시 예견할 수 없게 변하기 때문에 컴파일러가 프로그램 수행에 대한 최적의 성능 파라미터들을 컴파일 시에 결정하기가 힘들다. 본 논문은 병렬 처리 시스템의 프로그램 수행 시, 변화하는 시스템 성능 상태에 따라 전체 성능이 최적화로 적응하는 적응 수행 방식을 제안한다. 본 논문에서는 이 적응 수행 방식 중에 적응 프로그램 수행을 위한 이론적인 방법론 및 구현 방법에 대해 제안하고 적응 제어 수행을 위해 프로그램의 데이타 공유 단위에 대한 적응방식(적응 입도 방식)을 사용한다. 적응 프로그램 수행 방식은 프로그램 수행 시 하드웨어와 컴파일러의 도움으로 프로그램 자신이 최적의 성능을 얻을 수 있도록 적응하는 방식이다. 적응 제어 수행을 위해 수행 시에 병렬 분산 공유 메모리 시스템에서 프로세서 간 공유될 수 있은 데이타의 공유 상태에 따라 공유 데이타의 크기를 변화시키는 적응 입도 방식을 적용했다. 적응 입도 방식은 기존의 공유 메모리 시스템의 공유 데이타 단위의 통신 방식에 대단위 데이타의 전송 방식을 사용자의 입장에 투명하게 통합한 방식이다. 시뮬레이션 결과에 의하면 적응 입도 방식에 의해서 하드웨어 분산 공유 메모리 시스템보다 43%까지 성능이 개선되었다. Abstract On parallel machines, in which performance parameters change dynamically in complex and unpredictable ways, it is difficult for compilers to predict the optimal values of the parameters at compile time. Furthermore, these optimal values may change as the program executes. This paper addresses this problem by proposing adaptive execution that makes the program or control execution adapt in response to changes in machine conditions. Adaptive program execution makes it possible for programs to adapt themselves through the collaboration of the hardware and the compiler. For adaptive control execution, we applied the adaptive scheme to the granularity of sharing adaptive granularity. Adaptive granularity is a communication scheme that effectively and transparently integrates bulk transfer into the shared memory paradigm, with a varying granularity depending on the sharing behavior. Simulation results show that adaptive granularity improves performance up to 43% over the hardware implementation of distributed shared memory systems.

Extended Forecasts of a Stock Index using Learning Techniques : A Study of Predictive Granularity and Input Diversity

  • ;이동윤
    • Asia pacific journal of information systems
    • /
    • 제7권1호
    • /
    • pp.67-83
    • /
    • 1997
  • The utility of learning techniques in investment analysis has been demonstrated in many areas, ranging from forecasting individual stocks to entire market indexes. To date, however, the application of artificial intelligence to financial forecasting has focused largely on short predictive horizons. Usually the forecast window is a single period ahead; if the input data involve daily observations, the forecast is for one day ahead; if monthly observations, then a month ahead; and so on. Thus far little work has been conducted on the efficacy of long-term prediction involving multiperiod forecasting. This paper examines the impact of alternative procedures for extended prediction using knowledge discovery techniques. One dimension in the study involves temporal granularity: a single jump from the present period to the end of the forecast window versus a web of short-term forecasts involving a sequence of single-period predictions. Another parameter relates to the numerosity of input variables: a technical approach involving only lagged observations of the target variable versus a fundamental approach involving multiple variables. The dual possibilities along each of the granularity and numerosity dimensions entail a total of 4 models. These models are first evaluated using neural networks, then compared against a multi-input jump model using case based reasoning. The computational models are examined in the context of forecasting the S&P 500 index.

  • PDF

Batch Resizing Policies and Techniques for Fine-Grain Grid Tasks: The Nuts and Bolts

  • Muthuvelu, Nithiapidary;Chai, Ian;Chikkannan, Eswaran;Buyya, Rajkumar
    • Journal of Information Processing Systems
    • /
    • 제7권2호
    • /
    • pp.299-320
    • /
    • 2011
  • The overhead of processing fine-grain tasks on a grid induces the need for batch processing or task group deployment in order to minimise overall application turnaround time. When deciding the granularity of a batch, the processing requirements of each task should be considered as well as the utilisation constraints of the interconnecting network and the designated resources. However, the dynamic nature of a grid requires the batch size to be adaptable to the latest grid status. In this paper, we describe the policies and the specific techniques involved in the batch resizing process. We explain the nuts and bolts of these techniques in order to maximise the resulting benefits of batch processing. We conduct experiments to determine the nature of the policies and techniques in response to a real grid environment. The techniques are further investigated to highlight the important parameters for obtaining the appropriate task granularity for a grid resource.

Concepts and Design Aspects of Granular Models of Type-1 and Type-2

  • Pedrycz, Witold
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제15권2호
    • /
    • pp.87-95
    • /
    • 2015
  • In this study, we pursue a new direction for system modeling by introducing the concept of granular models, which produce results in the form of information granules (such as intervals, fuzzy sets, and rough sets). We present a rationale and several key motivating arguments behind the use of granular models and discuss their underlying design processes. The development of the granular model includes optimal allocation of information granularity through optimizing the criteria of coverage and specificity. The emergence and construction of granular models of type-2 and type-n (in general) is discussed. It is shown that achieving a suitable coverage-specificity tradeoff (compromise) is essential for developing granular models.

Content Modeling Based on Social Network Community Activity

  • Kim, Kyung-Rog;Moon, Nammee
    • Journal of Information Processing Systems
    • /
    • 제10권2호
    • /
    • pp.271-282
    • /
    • 2014
  • The advancement of knowledge society has enabled the social network community (SNC) to be perceived as another space for learning where individuals produce, share, and apply content in self-directed ways. The content generated within social networks provides information of value for the participants in real time. Thus, this study proposes the social network community activity-based content model (SoACo Model), which takes SNC-based activities and embodies them within learning objects. The SoACo Model consists of content objects, aggregation levels, and information models. Content objects are composed of relationship-building elements, including real-time, changeable activities such as making friends, and participation-activity elements such as "Liking" specific content. Aggregation levels apply one of three granularity levels considering the reusability of elements: activity assets, real-time, changeable learning objects, and content. The SoACo Model is meaningful because it transforms SNC-based activities into learning objects for learning and teaching activities and applies to learning management systems since they organize activities -- such as tweets from Twitter -- depending on the teacher's intention.

공동저작 시스템에서의 동시성 제어와 쓰기 권한 제어 (A Framework for Concurrency Control and Writing Authority Control in Collaborative Writing Systems)

  • 유재홍;성미영
    • 한국정보처리학회논문지
    • /
    • 제7권2호
    • /
    • pp.347-354
    • /
    • 2000
  • 이 논문에서는 공동제작 시스템에서의 동시성 제어와 쓰기 권한 제어를 위한 효율적인 방안을 제시한다. 본 연구에서 다루는 공동젖작시스템의 문서는 논리 객체들로 구성된 트리 구조와 트리 구조의 단말에 연결된 내용 조작들로 표현된다. 이러한 문서의 논리구조를 다루는 공동저작 시스템의 동시성 제어 기법을 우리는 계층적으로 구성된 객체들에 대해 각 계층별로 잠금을 요청할 수 있는 다중 잠금(multiple granularity locking) 기법을 확장하는 접근을 채택하였다. 계층적으로 구성된 객체들에 대한 연산을 세분화하여 잠금 호환 테이블(locking compatibility table)을 정의하고, 이 테이블을 기반으로 잠금을 허락하는 확장된 다중 장금(extended multiple granularity locking) 기법을 제안한다. 이 기법은 여러 사용자들의 공유 객체에 대한 동시 접근을 극대화하는 장점이 있다. 또한 이 논문에서는 그룹/비그룹(Group/Non-Group) 개념을 적용하여 비그룹 사용자들의 쓰기를 방지함으로써 매우 합리적으로 저작권을 보호할 수 있는 쓰기 권한 기법을 제안한다.

  • PDF

잡음 제거를 위한 윤곽선 보존 기법에 관한 연구 (A Study on the Contour-Preserving Image Filtering for Noise Removal)

  • 유충웅;유대현;배강열
    • 전자공학회논문지T
    • /
    • 제36T권4호
    • /
    • pp.24-29
    • /
    • 1999
  • In this paper, a simple contour-preserving filtering algorithm is proposed. The goal of the contour-preserving filtering method is to remove noise ad granularity as the preprocessing for the image segmentation procedure. Our method finds edge map and separates the image into the edge region and the non-edge region using this edge map. For the non-edge region, typical smoothing filters could be used to remove the noise and the small areas during the segmentation procedure. The result of simulation shows that our method is slightly better than the typical methods such as the median filtering and gradient inverse weighted filtering in the point of view of analysis of variance (ANOVA).

  • PDF

입자화 정도를 기반으로 하는 개념계층구조의 구축 (A Study on Construction of Granular Concept Hierarchies based Granularity Level)

  • 강유경;황석형
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 춘계학술발표대회
    • /
    • pp.1542-1545
    • /
    • 2011
  • 형식개념분석기법(FCA : Formal Concept Analysis)은 주어진 데이터로부터 공통속성을 갖는 객체들을 클러스터링하여 정보의 최소단위로써 개념(Concept)들을 추출하고 그들 사이의 관계를 토대로 계층화하여 데이터에 내재된 개념들의 구조를 가시화 해주는 Granular Computing의 한 종류이다. 형식 개념분석기법에서는 공통속성을 갖는 객체들을 추출한다는 전제조건을 토대로 개념을 추출하기 때문에 다양한 상황이나 조건에 적합한 새로운 개념들을 추출하기에는 한계가 있다. 이와 같은 문제를 해결하기 위한 한 가지 방법으로써, 본 논문에서는 입자화 정도(granularity level)를 기반으로 하는 형식 개념분석기법을 제안한다. 본 논문에서 제안하는 기법에서는 형식개념분석기법에 입자화 정도를 도입하여 다양한 조건과 추상화 수준을 토대로 하여, 개념들을 추출하고 개념계층구조를 구축할 수 있다.