• Title/Summary/Keyword: 각도 매핑

Search Result 271, Processing Time 0.031 seconds

Development of CPLD technology mapping algorithm for Sequential Circuit under Time Constraint (시간제약 조건하에서 순차 회로를 위한 CPLD 기술 매핑 알고리즘 개발)

  • Youn, Chung-Mo;Kim, Hi-Seok
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.1
    • /
    • pp.224-234
    • /
    • 2000
  • In this paper, we propose a new CPLD technology mapping algorithm for sequential circuit under time constraints. The algorithm detects feedbacks of sequential circuit, separate each feedback variables into immediate input variable, and represent combinational part into DAG. Also, among the nodes of the DAG, the nodes that the number of outdegree is more than or equal to 2 is not separated, but replicated from the DAG, and reconstructed to fanout-free-tree. To use this construction method is for reason that area is less consumed than the TEMPLA algorithm to implement circuits, and process time is improved rather than TMCPLD within given time constraint. Using time constraint and delay of device the number of partitionable multi-level is defined, the number of OR terms that the initial costs of each nodes is set to and total costs that the costs is set to after merging nodes is calculated, and the nodes that the number of OR terms of CLBs that construct CPLD is excessed is partitioned and is reconstructed as subgraphs. The nodes in the partitioned subgraphs is merged through collapsing, and the collapsed equations is performed by bin packing so that if fit to the number of OR terms in the CLBs of a given device. In the results of experiments to MCNC circuits for logic synthesis benchmark, we can shows that proposed technology mapping algorithm reduces the number of CLBs bu 15.58% rather than the TEMPLA, and reduces process time rather than the TMCPLD.

  • PDF

A Semantic-based transaction protocol for guaranteeing transaction interoperability (트랜잭션 상호호환성 보장을 위한 시맨틱스 기반의 트랜잭션 프로토콜)

  • Gang Dong-U;Lee Sun-Jae;Kim Gwang-Su;Lee Jae-Yeol
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 2006.05a
    • /
    • pp.258-264
    • /
    • 2006
  • 웹 서비스 기반의 비즈니스 프로세스 관리 시스템은 트랜잭션에 대한 신뢰도의 확보를 위하여 트랜잭션 관리가 필요하다. 트랜잭션 관리를 위한 여러 트랜잭션 프로토콜들이 제시되었지만, 다양한 프로토콜들은 서로간의 이질성으로 인해 비즈니스 프로세스 관리 시스템들 간의 상호호환을 저해한다. 이를 해결하기 위하여 본 연구에서는 시맨틱스 기반의 트랜잭션 프로토콜을 제안한다. 시맨틱스 기반의 트랜잭션 프로토콜은 상태와 메시지에 대한 정적 시맨틱스(Static Semantics)와 상태 전이에 관한 동작 시맨틱스(Operational Semantics)로 구성된다. 정적 시맨틱스는 프로토콜의 상태와 메시지를 Web Ontology Language(OWL)을 사용하여 온톨로지 기반으로 정의한 모델로서, 트랜잭션 프로토콜에 대한 상호 이해도를 높일 수 있을 것으로 기대된다. 동작 시맨틱스는 비즈니스 트랜잭션의 상태전이를 Abstract State Machine(ASM)으로 정의한 모델로서, 트랜잭션 실행에 대한 자동화와 체계적인 모니터링을 지원할 것으로 기대된다. 트랜잭션 프로토콜들간의 상호호환을 위하여 이러한 정적 시맨틱스와 동작 시맨틱스를 기반으로 하여 각 트랜잭션 프로토콜 및 중립 트랜잭션 프로토콜의 시맨틱스를 정의한다. 정의된 각 트랜잭션 프로토콜의 정적 시맨틱스는 중립 트랜잭션 프로토콜의 정적 시맨틱스와 온톨로지 기반의 매핑 관계를 형성한다. 중립 트랜잭션 프로토콜의 정적 시맨틱스를 매개로 한 온톨로지 매핑은 각 트랜잭션 프로토콜들 간의 상호호환을 지원할 것으로 기대된다.

  • PDF

Design of a Pipelined High Performance RSA Crypto_chip (파이프라인 구조의 고속 RSA 암호화 칩 설계)

  • Lee, Seok-Yong;Kim, Seong-Du;Jeong, Yong-Jin
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.28 no.6
    • /
    • pp.301-309
    • /
    • 2001
  • 본 논문에서는 RSA 암호 시스템의 핵심 과정인 모듈로 멱승 연산에 대한 새로운 하드웨어 구조를 제시한다. 본 방식은 몽고메리 곱셈 알고리즘을 사용하였으며 기존의 방법들이 데이터 종속 그래프(DG : Dependence Graph)를 수직으로 매핑한 것과는 달리 여기서는 수평으로 매핑하여 1차원 선형 어레이구조를 구성하였다. 그 결과로 멱승시에 중간 결과값이 순차적으로 나와서 바로 다음 곱셈을 위한 입력으로 들어갈 수 있기 때문에 100%의 처리율(throughput)을 이룰 수 있고, 수직 매핑 방식에 비해 절반의 클럭 횟수로 연산을 해낼 수 있으며 컨트롤 또한 단순해지는 장점을 가진다. 각 PE(Processing Element)는 2개의 전가산기와 3개의 멀티플렉서로 이루어져 있고, 암호키의 비트수를 k비트라 할 때 k+3개의 PE만으로 파이프라인구조를 구현하였다. 1024비트 RSA데이터의 암호 똔느 복호를 완료하는데 2k$^2$+12k+19의 클럭 수가 소요되며 클럭 주파수 100Mhz에서 약 50kbps의 성능을 보인다. 또한, 제안된 하드웨어는 내부 계산 구조의 지역성(locality), 규칙성(regularity) 및 모듈성(modularity) 등으로 인해 실시간 고속 처리를 위한 VLSI 구현에 적합하다.

  • PDF

Techniques and Patterns for Designing Business Operations in EJB (EJB 에서 비즈니스 오퍼레이션의 설계 기법 및 패턴)

  • 박지환;이상덕;김수동
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.1_2
    • /
    • pp.1-18
    • /
    • 2003
  • Precise and systematic mapping techniques are required for mapping object-oriented artifacts into a platform-specific design. An effective and systematic mapping approach for an adequate platform or programming language in needed, because the characteristics of an initial design are independent from an implementation language and a platform. In this paper, we propose systematic and concrete methods, guidelines, and design patterns that can be used to design business operations at EJB (Enterprise JavaBeans) source code level. We show how various EJB mechanism can be utilized in designing business operations for beans. We believe these proposed methods can yield high-performance EJB applications that can also be well maintainable.

Human Limbs Modeling from 3D Scan Data (3차원 스캔 데이터로부터의 인체 팔, 다리 형상 복원)

  • Hyeon, Dae-Eun;Yun, Seung-Hyeon;Kim, Myeong-Su
    • Journal of the Korea Computer Graphics Society
    • /
    • v.8 no.4
    • /
    • pp.1-7
    • /
    • 2002
  • This paper presents a new approach for modeling human limbs shape from 3D scan data. Based on the cylindrical structure of limbs, the overall shape is approximated with a set of ellipsoids through ellipsoid fitting and interpolation of fit-ellipsoids. Then, the smooth domain surface representing the coarse shape is generated as the envelope surface of ellipsoidal sweep, and the fine details are reconstructed by constructing parametric displacement function on the domain surface. For fast calculation, the envelope surface is approximated with ellipse sweep surface, and points on the reconstructed surface are mapped onto the corresponding ellipsoid. We demonstrate the effectiveness of our approach for skeleton-driven body deformation.

  • PDF

Building a Schema of the Korean DBpedia Ontology (한글 DBpedia 온톨로지 스키마 구축)

  • Kang, Min-Seo;Kim, Jae-Sung;Kim, Sun-Dong;Lee, Jae-Gil
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.139-142
    • /
    • 2014
  • 시맨틱웹의 구현 도구로써 온톨로지가 있다. 온톨로지는 지식개념의 의미적 연결을 하는데 사용된다. 영어 위키피디아를 토대로 한 영어 DBpedia 온톨로지는 스키마(owl파일 형태)와 인스턴스 모두 잘 구축이 되어있다. 그리고 영어 DBpedia의 각 Class에 한글은 레이블의 형태로 달려있다. 하지만 한글 레이블을 가지고 있지 않은 영어 DBpedia의 Class들이 절반이 넘기 때문에 한글 Class들만으로 된 스키마 구축은 의미가 있다. 한글 Class들로 만들어진 스키마가 있다면 두 한글 온톨로지 사이의 클래스 매칭 알고리즘을 위한 실험이나 한글 온톨로지 자동 증강 알고리즘의 연구 등에 유용하게 쓰일 수 있을 것이다. 본 논문에서 구축한 한글 DBpedia 온톨로지 스키마는 영문 DBpedia 온톨로지의 계층구조와 한글 클래스와 영문 클래스 사이의 매핑정보를 바탕으로 구축되었다. 그리고 기존에 제공되는 한글 DBpedia 온톨로지 클래스의 영어매핑 정보가 있는 한글 프로퍼티와 영어매핑 정보가 없는 한글 프로퍼티를 모두 한글 클래스의 프로퍼티로 입력해주었다.

  • PDF

An Efficient Hybrid Spatial Index Structure based on the R-tree (R-tree 기반의 효율적인 하이브리드 공간 인덱스 구조)

  • Kang, Hong-Koo;Kim, Joung-Joon;Han, Ki-Joon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.771-772
    • /
    • 2009
  • 최근 대표적인 공간 인덱스 구조인 R-tree를 기반으로 KD-tree나 Quad-tree와 같은 공간 분할 특성을 이용하여 인덱싱 성능을 향상시키기 위한 연구가 활발하다. 본 논문에서는 기존에 제시된 R-tree 기반 인덱스 구조인 SQR-tree와 PMR-tree의 특성을 결합하여 대용량 공간 데이타를 보다 효율적으로 처리하는 인덱스 구조인 MSQR-tree(Mapping-based SQR-tree)를 제시한다. SQR-tree는 Quad-tree를 확장한 SQ-tree와 각 SQ-tree 리프 노드마다 실제로 공간 객체를 저장하는 R-tree가 연계되어 있는 인덱스 구조이고, PMR-tree는 R-tree에 R-tree 리프 노드를 직접 접근할 수 있는 매핑 트리를 적용한 인덱스 구조이다. 본 논문에서 제시하는 MSQR-tree는 SQR-tree를 기본 구조로 가지고 R-tree마다 매핑 트리가 적용된 구조를 갖는다. 따라서, MSQR-tree에서는 SQR-tree와 같이 질의가 여러 R-tree에서 분산 처리되고, PMR-tree와 같이 매핑 트리를 통해 R-tree 리프 노드를 빠르게 접근할 수 있다. 마지막으로 성능 실험을 통해 MSQR-tree의 우수성을 입증하였다.

Locally adaptive intelligent interpolation for population distribution modeling using pre-classified land cover data and geographically weighted regression (지표피복 데이터와 지리가중회귀모형을 이용한 인구분포 추정에 관한 연구)

  • Kim, Hwahwan
    • Journal of the Korean association of regional geographers
    • /
    • v.22 no.1
    • /
    • pp.251-266
    • /
    • 2016
  • Intelligent interpolation methods such as dasymetric mapping are considered to be the best way to disaggregate zone-based population data by observing and utilizing the internal variation within each source zone. This research reviews the advantages and problems of the dasymetric mapping method, and presents a geographically weighted regression (GWR) based method to take into consideration the spatial heterogeneity of population density - land cover relationship. The locally adaptive intelligent interpolation method is able to make use of readily available ancillary information in the public domain without the need for additional data processing. In the case study, we use the preclassified National Land Cover Dataset 2011 to test the performance of the proposed method (i.e. the GWR-based multi-class dasymetric method) compared to four other popular population estimation methods (i.e. areal weighting interpolation, pycnophylactic interpolation, binary dasymetric method, and globally fitted ordinary least squares (OLS) based multi-class dasymetric method). The GWR-based multi-class dasymetric method outperforms all other methods. It is attributed to the fact that spatial heterogeneity is accounted for in the process of determining density parameters for land cover classes.

  • PDF

Analysis of Metadata Standards of Record Management for Metadata Interoperability From the viewpoint of the Task model and 5W1H (메타데이터 상호운용성을 위한 기록관리 메타데이터 표준 분석 5W1H와 태스크 모델의 관점에서)

  • Baek, Jae-Eun;Sugimoto, Shigeo
    • The Korean Journal of Archival Studies
    • /
    • no.32
    • /
    • pp.127-176
    • /
    • 2012
  • Metadata is well recognized as one of the foundational factors in archiving and long-term preservation of digital resources. There are several metadata standards for records management, archives and preservation, e.g. ISAD(G), EAD, AGRkMs, PREMIS, and OAIS. Consideration is important in selecting appropriate metadata standards in order to design metadata schema that meet the requirements of a particular archival system. Interoperability of metadata with other systems should be considered in schema design. In our previous research, we have presented a feature analysis of metadata standards by identifying the primary resource lifecycle stages where each standard is applied. We have clarified that any single metadata standard cannot cover the whole records lifecycle for archiving and preservation. Through this feature analysis, we analyzed the features of metadata in the whole records lifecycle, and we clarified the relationships between the metadata standards and the stages of the lifecycle. In the previous study, more detailed analysis was left for future study. This paper proposes to analyze the metadata schemas from the viewpoint of tasks performed in the lifecycle. Metadata schemas are primarily defined to describe properties of a resource in accordance with the purposes of description, e.g. finding aids, records management, preservation and so forth. In other words, the metadata standards are resource- and purpose-centric, and the resource lifecycle is not explicitly reflected in the standards. There are no systematic methods for mapping between different metadata standards in accordance with the lifecycle. This paper proposes a method for mapping between metadata standards based on the tasks contained in the resource lifecycle. We first propose a Task Model to clarify tasks applied to resources in each stage of the lifecycle. This model is created as a task-centric model to identify features of metadata standards and to create mappings among elements of those standards. It is important to categorize the elements in order to limit the semantic scope of mapping among elements and decrease the number of combinations of elements for mapping. This paper proposes to use 5W1H (Who, What, Why, When, Where, How) model to categorize the elements. 5W1H categories are generally used for describing events, e.g. news articles. As performing a task on a resource causes an event and metadata elements are used in the event, we consider that the 5W1H categories are adequate to categorize the elements. By using these categories, we determine the features of every element of metadata standards which are AGLS, AGRkMS, PREMIS, EAD, OAIS and an attribute set extracted from DPC decision flow. Then, we perform the element mapping between the standards, and find the relationships between the standards. In this study, we defined a set of terms for each of 5W1H categories, which typically appear in the definition of an element, and used those terms to categorize the elements. For example, if the definition of an element includes the terms such as person and organization that mean a subject which contribute to create, modify a resource the element is categorized into the Who category. A single element can be categorized into one or more 5W1H categories. Thus, we categorized every element of the metadata standards using the 5W1H model, and then, we carried out mapping among the elements in each category. We conclude that the Task Model provides a new viewpoint for metadata schemas and is useful to help us understand the features of metadata standards for records management and archives. The 5W1H model, which is defined based on the Task Model, provides us a core set of categories to semantically classify metadata elements from the viewpoint of an event caused by a task.

Implementation and Evaluation of Dynamic and Distributed Mapping System in ID-LOC Separation Internet Architecture (ID-LOC 분리 기반 인터넷 구조에서 분산형 매핑 시스템의 구현 및 평가)

  • Kang, Hyung-Woo;Choi, Nak-Jung;Kim, Ji-In;Jung, Heeyoung;Koh, Seck-Joo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.37B no.11
    • /
    • pp.984-992
    • /
    • 2012
  • In this paper, we discuss a new architecture of future Internet for mobile-oriented environments, named Mobile-Oriented Future Internet (MOFI). The MOFI architecture is designed with Host Identifier and Local Locator (HILL) for identifier and locator separation. Based on the HILL separation architecture, we propose a Dynamic and Distributed Mapping System (DDMS) for identifier-locator mapping control. In DDMS, the mapping control function is distributed onto each access router in the domain, which is different from the centralized approach using a central anchor. For validation of the proposed MOFI-DDMS architecture, we implemented the data delivery and mapping control functions using Linux platform. From the testbed experimental results, we see that the DDMS architecture can give better performance than the existing Proxy Mobile IP (PMIP) protocol in terms of data transmission throughput.