• 제목/요약/키워드: graph structure

검색결과 506건 처리시간 0.026초

ON FINITE GROUPS WITH THE SAME ORDER TYPE AS SIMPLE GROUPS F4(q) WITH q EVEN

  • Daneshkhah, Ashraf;Moameri, Fatemeh;Mosaed, Hosein Parvizi
    • 대한수학회보
    • /
    • 제58권4호
    • /
    • pp.1031-1038
    • /
    • 2021
  • The main aim of this article is to study quantitative structure of finite simple exceptional groups F4(2n) with n > 1. Here, we prove that the finite simple exceptional groups F4(2n), where 24n + 1 is a prime number with n > 1 a power of 2, can be uniquely determined by their orders and the set of the number of elements with the same order. In conclusion, we give a positive answer to J. G. Thompson's problem for finite simple exceptional groups F4(2n).

구조해석에 의한 필기체 한글의 온라인 인식 (On-Line Recongnition of Handwritten Hangeul by Structure Analysis)

  • 홍성민;김은원;박종국;조원경
    • 대한전자공학회논문지
    • /
    • 제23권1호
    • /
    • pp.114-119
    • /
    • 1986
  • In this paper, an algorithm for the on-line recognition of handwritten Hangeul is proposed. The strokes are recognized by the minimum distance parser. The phonemes are separated by the finite-state automata resulted from the state graph of phonemes which are produced by the order of strokes. By simulation result for 3,000 characteristics in practical sentences, the recognition rate of strokes is obtained to be 98.5% and the separation rate of phonemes is obtained to be 92.5%.

  • PDF

하이브리드 메모리 시스템의 지역 가중 선형회귀 프리페치 방법 (Locally weighted linear regression prefetching method for hybrid memory system)

  • 당천;김정근;김신덕
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 추계학술발표대회
    • /
    • pp.12-15
    • /
    • 2020
  • Data access characteristics can directly affect the efficiency of the system execution. This research is to design an accurate predictor by using historical memory access information, where highly accessible data can be migrated from low-speed storage (SSD/HHD) to high-speed memory (Memory/CPU Cache) in advance, thereby reducing data access latency and further improving overall performance. For this goal, we design a locally weighted linear regression prefetch scheme to cope with irregular access patterns in large graph processing applications for a DARM-PCM hybrid memory structure. By analyzing the testing result, the appropriate structural parameters can be selected, which greatly improves the cache prefetching performance, resulting in overall performance improvement.

Reconstruction of Collagen Using Tensor-Voting & Graph-Cuts

  • Park, Doyoung
    • 한국정보기술학회 영문논문지
    • /
    • 제9권1호
    • /
    • pp.89-102
    • /
    • 2019
  • Collagen can be used in building artificial skin replacements for treatment of burns and towards the reconstruction of bone as well as researching cell behavior and cellular interaction. The strength of collagen in connective tissue rests on the characteristics of collagen fibers. 3D confocal imaging of collagen fibers enables the characterization of their spatial distribution as related to their function. However, the image stacks acquired with confocal laser-scanning microscope does not clearly show the collagen architecture in 3D. Therefore, we developed a new method to reconstruct, visualize and characterize collagen fibers from fluorescence confocal images. First, we exploit the tensor voting framework to extract sparse reliable information about collagen structure in a 3D image and therefore denoise and filter the acquired image stack. We then propose to segment the collagen fibers by defining an energy term based on the Hessian matrix. This energy term is minimized by a min cut-max flow algorithm that allows adaptive regularization. We demonstrate the efficacy of our methods by visualizing reconstructed collagen from specific 3D image stack.

멀티플렉서 트리 합성이 통합된 FPGA 매핑 (FPGA Mapping Incorporated with Multiplexer Tree Synthesis)

  • 김교선
    • 전자공학회논문지
    • /
    • 제53권4호
    • /
    • pp.37-47
    • /
    • 2016
  • 광폭입력함수 전용 멀티플렉서가 슬라이스 구조에 포함되는 상용 FPGA의 현실적 제약 조건을 학계의 대표적 논리 표현 방식인 AIG (And-Inverter Graph)를 근간으로 개발된 FPGA 매핑 알고리즘에 적용하였다. AIG를 LUT (Look-Up Table)으로 매핑할 때 중간 구조로서 컷을 열거하는 데 이들 중에서 멀티플렉서를 인식해 낸 후 이들이 매핑될 때 지연 시간 및 면적을 복잡도 증가 없이 계산하도록 하였다. 이 때 트리 형성 전제 조건인 대칭성과 단수 제약 요건도 검사하도록 하였다. 또한, 멀티플렉서 트리의 루트 위치를 RTL 코드에서 찾아내고 이를 보조 출력 형태로 AIG에 추가하도록 하였다. 이 위치에서 섀넌확장을 통해 멀티플렉서 트리 구조를 의도적으로 합성한 후 최적 AIG에 겹치도록 하는 접근 방법을 최초로 제안하였다. 이때 무손실 합성을 가능하게 하는 FRAIG 방식이 응용되었다. 두 가지 프로세서에 대해 제안된 접근 방법과 기법들을 적용하여 약 13~30%의 면적 감소 및 최대 32%까지의 지연 시간 단축을 달성하였다. AIG 트리에 특정 구조를 의도적으로 주입시키는 접근 방법은 향후 캐리 체인 등에 확장 적용하는 연구가 진행될 것이다.

이미지 데이터베이스에서 매개변수를 필요로 하지 않는 클러스터링 및 아웃라이어 검출 방법 (A Parameter-Free Approach for Clustering and Outlier Detection in Image Databases)

  • 오현교;윤석호;김상욱
    • 전자공학회논문지CI
    • /
    • 제47권1호
    • /
    • pp.80-91
    • /
    • 2010
  • 이미지 데이터가 증가함에 따라 효율적인 검색을 위해서 이미지 데이터를 구조화해야 할 필요성이 증가하고 있다. 이미지 데이터를 구조화하기 위한 대표적인 방법으로는 클러스터링이 있다. 그러나 기존 클러스터링 방법들은 클러스터링을 수행하기 전에 매개변수로서 클러스터의 개수를 사용자로부터 제공 받아야 되는 어려움이 있다. 본 논문에서는 클러스터의 개수를 사용자에게 제공 받지 않고 이미지 데이터를 클러스터링 하는 방안에 대해서 논의 한다. 제안하는 방안은 객체들 간의 상호 연관관계를 이용하여 매개변수 없이 데이터의 감추어진 구조나 패턴을 찾아내는 방법인 Cross-Association을 기반으로 한다. 이미지 데이터 클러스터링에 Cross-Association을 적용하기 위해서는 먼저 이미지 데이터를 그래프로 변환해야 한다. 그런 후에 생성된 그래프를 Cross-Association에 적용시키고 그 결과를 클러스터링 관점에서 해석한다. 본 논문에서는 또한 Cross-Association을 기반으로 계층적 클러스터링 하는 방법과 아웃라이어 검출 방법을 제안한다. 실험을 통해서 제안하는 방법의 우수성을 규명하고 이미지 데이터를 클러스터링 하는데 적절한 k-최근접 이웃검색에서의 k값과 더 나은 그래프 생성 방법이 무엇인지를 제시한다.

시각적 측면에서 랜드마크 요소의 최적입지선정 분석방법에 관한 연구 (A Study on Optimal Location Selection and Analytic Method of Landmark Element in terms of Visual Perception)

  • 김석태
    • 한국산학기술학회논문지
    • /
    • 제16권9호
    • /
    • pp.6360-6367
    • /
    • 2015
  • 랜드마크와 같이 시각적 인지가 용이해야 하는 요소의 입지 선택은 공간설계과정에서 많이 등장하는 화두이다. 최근에는 이러한 시각적 요소의 가시성을 평가하기 위해서 컴퓨터를 활용한 그래프 분석기술이 많이 적용되고 있으나, 분석의 틀이 평면적이고 시점과 대상점의 설정이 고정적이어서, 실질적인 분석결과를 얻는데 한계가 컸다. 이에 본 연구에서는 3차원 환경에서 동적 시점에 대한 분석이 가능한 비지향성 다차원 가시도 분석(MDVC-N) 분석방법론을 제시하였으며, 3차원 컴퓨터그래픽기술을 이용하여 분석어플리케이션을 구축하고, 시점과 대상점을 설정하는 스크립트 구조를 설계하였다. 여기에 고저차를 갖는 지형에 다양한 높이의 건물이 배치되어 있는 복합화된 대지를 예시모델로 적용하여 분석방법론을 검증하고 입지별 대안의 시각적 특성을 파악하였다. 연구를 통하여 다음과 같은 결론을 얻을 수 있었다. 1) 6개의 대안을 설정하여 정량적인 가시도를 측정할 수 있었다. 2) 3차원 그래프로 재현하여 직관적인 분석이 가능하였다. 3)공간구문론의 국부통합도를 공간이용행태 변수로 보정한 결과를 산출함으로서 분석의 적용성을 향상시켰다.

에지 확장을 통한 제어 흐름 그래프의 효과적인 비교 방법 (An Effective Method for Comparing Control Flow Graphs through Edge Extension)

  • 임현일
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제2권8호
    • /
    • pp.317-326
    • /
    • 2013
  • 본 논문에서는 바이너리 프로그램의 정적인 구조를 표현하는 제어 흐름 그래프를 비교하는 방법을 제안한다. 제어 흐름 그래프를 비교하기 위해서 기본 블록에 포함된 프로그램의 명령어 및 구문 정보를 비교한 후 기본 블록 사이의 유사한 정도를 측정한다. 또한, 에지 확장을 통해 기본 블록들 간의 제어 흐름을 표현하는 그래프 에지의 유사성을 함께 반영한다. 각 기본 블록 사이의 유사도 결과를 기반으로 기본 블록을 서로 매칭하고, 기본 블록 사이의 매칭 정보를 이용해서 전체 제어 흐름 그래프의 유사도를 측정한다. 본 논문에서 제안한 방법은 자바 프로그램으로부터 추출한 제어 흐름 그래프를 대상으로 제어 흐름 구조의 유사성에 따라 두 가지 기준으로 실험을 수행하였다. 그리고, 성능을 평가하기 위해서 기존의 구조적 비교 방법을 함께 실험하였다. 실험 결과로부터 에지 확장 방법은 서로 다른 프로그램에 대해 충분한 변별력을 가지고 있음을 확인할 수 있다. 프로그램 비교에 좀 더 많은 시간이 소요되지만, 구조가 유사한 프로그램에 대한 매칭 능력에서 기존의 구조적 비교 방법에 비해 우수한 결과를 보였다. 제어 흐름 그래프는 프로그램의 분석에 다양하게 활용될 수 있으며, 제어 흐름 그래프의 비교 방법은 프로그램의 유사성 비교를 통한 코드의 최적화, 유사 코드 검출, 코드의 도용 탐지 등 다양한 분야에서 응용될 수 있을 것이라 기대된다.

가변 시상수를 이용한 자동 노출제어 시스템 (Auto Exposure Control System using Variable Time Constants)

  • 김현식;이성목;장원우;하주영;김주현;강봉순;이기동
    • 한국정보통신학회논문지
    • /
    • 제11권2호
    • /
    • pp.257-264
    • /
    • 2007
  • 사진을 찍을 때 카메라는 보기 좋은 사진을 얻을 수 있도록 많은 기능을 제공하고 있다. 대표적인 기능으로 자동 초점거리 조정(Auto Focus), 자동 색온도 보정(Auto White Balance), 자동 노출 조정(Auto Exposure)이 있다. 본 논문에서는 편리한 기능들 중 하나로서 새로운 자동 노출제어 시스템을 제안한다. 본 논문에서 제안하는 자동 노출제어 시스템은 가변 시상수(Variable Time Constant)를 가지는 IIR Filter를 이용한다. 먼저 노출제어의 기준을 정하기 위해서 사진에서 밝기변화와 Zone System에서 보여주는 사물의 휘도정보를 비교하여 이상적인 휘도변화 특성 그래프를 얻는다. 얻어진 이상적인 휘도 변화 그래프와 현재의 노출설정을 비교하여 적정 노출의 설정을 찾는다. 제안하는 자동 노출제어 시스템은 적정 노출을 얻을 수 있는 설정으로 조정하기 위해 기존의 마이크로 콘트롤러 등을 이용하여 구현하는 방법과 달리 IIR Filter를 사용하므로 간단한 구성을 가지며 콤팩트 이미지 센서모듈(ISM)를 구성하기 위하여 사용할 수 있다.

시맨틱 웹 자원의 랭킹을 위한 알고리즘: 클래스중심 접근방법 (A Ranking Algorithm for Semantic Web Resources: A Class-oriented Approach)

  • 노상규;박현정;박진수
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.31-59
    • /
    • 2007
  • We frequently use search engines to find relevant information in the Web but still end up with too much information. In order to solve this problem of information overload, ranking algorithms have been applied to various domains. As more information will be available in the future, effectively and efficiently ranking search results will become more critical. In this paper, we propose a ranking algorithm for the Semantic Web resources, specifically RDF resources. Traditionally, the importance of a particular Web page is estimated based on the number of key words found in the page, which is subject to manipulation. In contrast, link analysis methods such as Google's PageRank capitalize on the information which is inherent in the link structure of the Web graph. PageRank considers a certain page highly important if it is referred to by many other pages. The degree of the importance also increases if the importance of the referring pages is high. Kleinberg's algorithm is another link-structure based ranking algorithm for Web pages. Unlike PageRank, Kleinberg's algorithm utilizes two kinds of scores: the authority score and the hub score. If a page has a high authority score, it is an authority on a given topic and many pages refer to it. A page with a high hub score links to many authoritative pages. As mentioned above, the link-structure based ranking method has been playing an essential role in World Wide Web(WWW), and nowadays, many people recognize the effectiveness and efficiency of it. On the other hand, as Resource Description Framework(RDF) data model forms the foundation of the Semantic Web, any information in the Semantic Web can be expressed with RDF graph, making the ranking algorithm for RDF knowledge bases greatly important. The RDF graph consists of nodes and directional links similar to the Web graph. As a result, the link-structure based ranking method seems to be highly applicable to ranking the Semantic Web resources. However, the information space of the Semantic Web is more complex than that of WWW. For instance, WWW can be considered as one huge class, i.e., a collection of Web pages, which has only a recursive property, i.e., a 'refers to' property corresponding to the hyperlinks. However, the Semantic Web encompasses various kinds of classes and properties, and consequently, ranking methods used in WWW should be modified to reflect the complexity of the information space in the Semantic Web. Previous research addressed the ranking problem of query results retrieved from RDF knowledge bases. Mukherjea and Bamba modified Kleinberg's algorithm in order to apply their algorithm to rank the Semantic Web resources. They defined the objectivity score and the subjectivity score of a resource, which correspond to the authority score and the hub score of Kleinberg's, respectively. They concentrated on the diversity of properties and introduced property weights to control the influence of a resource on another resource depending on the characteristic of the property linking the two resources. A node with a high objectivity score becomes the object of many RDF triples, and a node with a high subjectivity score becomes the subject of many RDF triples. They developed several kinds of Semantic Web systems in order to validate their technique and showed some experimental results verifying the applicability of their method to the Semantic Web. Despite their efforts, however, there remained some limitations which they reported in their paper. First, their algorithm is useful only when a Semantic Web system represents most of the knowledge pertaining to a certain domain. In other words, the ratio of links to nodes should be high, or overall resources should be described in detail, to a certain degree for their algorithm to properly work. Second, a Tightly-Knit Community(TKC) effect, the phenomenon that pages which are less important but yet densely connected have higher scores than the ones that are more important but sparsely connected, remains as problematic. Third, a resource may have a high score, not because it is actually important, but simply because it is very common and as a consequence it has many links pointing to it. In this paper, we examine such ranking problems from a novel perspective and propose a new algorithm which can solve the problems under the previous studies. Our proposed method is based on a class-oriented approach. In contrast to the predicate-oriented approach entertained by the previous research, a user, under our approach, determines the weights of a property by comparing its relative significance to the other properties when evaluating the importance of resources in a specific class. This approach stems from the idea that most queries are supposed to find resources belonging to the same class in the Semantic Web, which consists of many heterogeneous classes in RDF Schema. This approach closely reflects the way that people, in the real world, evaluate something, and will turn out to be superior to the predicate-oriented approach for the Semantic Web. Our proposed algorithm can resolve the TKC(Tightly Knit Community) effect, and further can shed lights on other limitations posed by the previous research. In addition, we propose two ways to incorporate data-type properties which have not been employed even in the case when they have some significance on the resource importance. We designed an experiment to show the effectiveness of our proposed algorithm and the validity of ranking results, which was not tried ever in previous research. We also conducted a comprehensive mathematical analysis, which was overlooked in previous research. The mathematical analysis enabled us to simplify the calculation procedure. Finally, we summarize our experimental results and discuss further research issues.