• Title/Summary/Keyword: 시간복잡도분석

Search Result 418, Processing Time 0.024 seconds

A study on effective primality test algorithms (효율적 소수성 검정 알고리즘들에 대한 비교ㆍ분석)

  • 이호정;송정환
    • Proceedings of the Korea Institutes of Information Security and Cryptology Conference
    • /
    • 2003.12a
    • /
    • pp.299-306
    • /
    • 2003
  • 본 논문에서는 현재 사용되고 있는 소수성 검정 알고리즘의 효율성을 비교하여 효과적인 알고리즘 사용에 관한 방향을 제시하려 한다. 현재 가장 일반적으로 사용하고 있는 Miller-Rabin 소수성검정법(Miller-Rabin primality test)에 대하여, Miller-Rabin 소수성 검정법 이외에 다른 확률적 소수성 검정법으로 제안된 Frobenius-Grantham 소수성 검정법(Frobenius-Grantham primality test) 이 있다. 그러나 합성수 판별에 대한 확률적 우세함에도 불구하고, Miller-Rabin 소수성 검정법을 대체하고 있지 못하는 이유는 시간복잡도(time complexity)가 Randomized polynomial time이기 때문에 같은 확률에 대한 평균 실행 속도가 Miller-Rabin 소수성 검정법보다 크게 효율적이지 못하기 때문이다. 또한, 2002년 Manindra Agrawal이 제시한 AKS 알고리즘(AKS algorithm)은 최초의 다항식 시간내 결정적 소수성 검정법(Polynomial time deterministic primality test)이지만, 시간 복잡도에서 다항식의 차수가 높기 때문에 현재 사용되고 있는 확률적 소수성 검정법(Probabilistic primality test)을 대체하지 못할 것으로 사료된다. 본 논문에서는 최근 발표된 소수성 검정법인 Frobenius-Grantham 소수성 검정법, AKS 알고리즘과 기존의 Miller-Rabin 소수성 검정법의 장단점을 비교·분석해 보고자 한다.

  • PDF

Efficient Collaboration Method Between CPU and GPU for Generating All Possible Cases in Combination (조합에서 모든 경우의 수를 만들기 위한 CPU와 GPU의 효율적 협업 방법)

  • Son, Ki-Bong;Son, Min-Young;Kim, Young-Hak
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.7 no.9
    • /
    • pp.219-226
    • /
    • 2018
  • One of the systematic ways to generate the number of all cases is a combination to construct a combination tree, and its time complexity is O($2^n$). A combination tree is used for various purposes such as the graph homogeneity problem, the initial model for calculating frequent item sets, and so on. However, algorithms that must search the number of all cases of a combination are difficult to use realistically due to high time complexity. Nevertheless, as the amount of data becomes large and various studies are being carried out to utilize the data, the number of cases of searching all cases is increasing. Recently, as the GPU environment becomes popular and can be easily accessed, various attempts have been made to reduce time by parallelizing algorithms having high time complexity in a serial environment. Because the method of generating the number of all cases in combination is sequential and the size of sub-task is biased, it is not suitable for parallel implementation. The efficiency of parallel algorithms can be maximized when all threads have tasks with similar size. In this paper, we propose a method to efficiently collaborate between CPU and GPU to parallelize the problem of finding the number of all cases. In order to evaluate the performance of the proposed algorithm, we analyze the time complexity in the theoretical aspect, and compare the experimental time of the proposed algorithm with other algorithms in CPU and GPU environment. Experimental results show that the proposed CPU and GPU collaboration algorithm maintains a balance between the execution time of the CPU and GPU compared to the previous algorithms, and the execution time is improved remarkable as the number of elements increases.

Generalized Principal Ratio Combining of Space-Time Trellis Coded OFDM over Multi-Path Fading Channels (다중 경로 채널에서 공간-시간 트렐리스 부호화된 OFDM의 일반화된 준최적 검파)

  • Kim, Young-Ju
    • The Journal of Korean Institute of Electromagnetic Engineering and Science
    • /
    • v.19 no.3
    • /
    • pp.352-357
    • /
    • 2008
  • We present a space-time trellis coded OFDM system in slow fading channels. Generalized principal ratio combining (GPRC) is also analyzed theoretically in frequency domain. The analysis shows that the decoding metric of GPRC includes the metrics of maximum likelihood(ML) and PRC. The computer simulations with M-PSK modulation are obtained in frequency flat and frequency selective fading channels. The decoding complexity and simulation running times are also evaluated among the decoding schemes.

Hardware-Software partitioning by analysis of node's relative scheduling urgency (노드의 상대적 스케줄 긴박도 분석에 의한 하드웨어 소프트웨어 분할)

  • Oh, Ju-Young;Park, Do-Soon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10b
    • /
    • pp.965-968
    • /
    • 2000
  • 통합설계에서 제약사항을 만족하는 최적의 시스템을 구현하기 위해 시스템을 기술하는 각 부분을 하드웨어부와 소프트웨어부로 나누어 매핑의 권역을 찾는 분할은 중요한 문제이다. 기존의 분할 알고리즘들[1]은 파티션과 스케줄링을 2단계로 분리하여 분할 단계의 결과를 스케줄링하는 과정에 의해 진행되었다. 이러한 작업과정은 스케줄링 결과 스케줄이 불가능한 경우 시스템을 재설계 해야하는 문제점을 가진다. 본 논문에서는 분할 단계에서 스케줄링을 함께 고려하는 낮은 복잡도의 알고리즘을 제안한다. FDS를 응용한 기존 논문[4]이 고려하지 못한 자원제약에 의한 힘값 변이를 고려할 수 있도록 하였고 알고리즘 복잡도를 개선하기 위하여 종속성 제약 조건에 의해 받는 다른 노드의 힘값 계산 방법을 수정하였다. 수정된 계산 방법에서는 특정 노드와 경쟁 노드들의 제어구간별 상대적 스케줄 요구값의 크기에 의해 분할 대상 노드를 선택하게 된다. 제안된 논문의 실험결과는 시스템 제약시간을 만족하면서 구현비용을 저하시키고 알고리즘 실행시간 측면에서 효과적임을 보인다.

  • PDF

Visual Representation of Temporal Properties in Formal Specification and Analysis using a Spatial Process Algebra (공간 프로세스 대수를 이용한 정형 명세와 분석에서의 시간속성의 시각화)

  • On, Jin-Ho;Choi, Jung-Rhan;Lee, Moon-Kun
    • The KIPS Transactions:PartD
    • /
    • v.16D no.3
    • /
    • pp.339-352
    • /
    • 2009
  • There are a number of formal methods for distributed real-time systems in ubiquitous computing to analyze and verify the behavioral, temporal and the spatial properties of the systems. However most of the methods reveal structural and fundamental limitations of complexity due to mixture of spatial and behavioral representations. Further temporal specification makes the complexity more complicate. In order to overcome the limitations, this paper presents a new formal method, called Timed Calculus of Abstract Real-Time Distribution, Mobility and Interaction(t-CARDMI). t-CARDMI separates spatial representation from behavioral representation to simplify the complexity. Further temporal specification is permitted only in the behavioral representation to make the complexity less complicate. The distinctive features of the temporal properties in t-CARDMI include waiting time, execution time, deadline, timeout action, periodic action, etc. both in movement and interaction behaviors. For analysis and verification of spatial and temporal properties of the systems in specification, t-CARDMI presents Timed Action Graph (TAG), where the spatial and temporal properties are visually represented in a two-dimensional diagram with the pictorial distribution of movements and interactions. t-CARDMI can be considered to be one of the most innovative formal methods in distributed real-time systems in ubiquitous computing to specify, analyze and verify the spatial, behavioral and the temporal properties of the systems very efficiently and effectively. The paper presents the formal syntax and semantics of t-CARDMI with a tool, called SAVE, for a ubiquitous healthcare application.

Delay Bound Analysis of Networks based on Flow Aggregation (통합 플로우 기반 네트워크의 지연시간 최대치 분석)

  • Joung, Jinoo
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.1
    • /
    • pp.107-112
    • /
    • 2020
  • We analyze the flow aggregate (FA) based network delay guarantee framework, with generalized minimal interleaved regulator (IR) initially suggested by IEEE 802.1 time sensitive network (TSN) task group (TG). The framework has multiple networks with minimal IRs attached at their output ports for suppressing the burst cascades, with FAs within a network for alleviating the scheduling complexity. We analyze the framework with various topology and parameter sets with the conclusion that the FA-based framework with low complexity can yield better performance than the integrated services (IntServ) system with high complexity, especially with large network size and large FA size.

Topological measures for algorithm complexity of Markov decision processes (마르코프 결정 프로세스의 위상적 계산 복잡도 척도)

  • Yi, Seung-Joon;Zhang, Byoung-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.06c
    • /
    • pp.319-323
    • /
    • 2007
  • 실세계의 여러 문제들은 마르코프 결정 문제(Markov decision problem, MDP)로 표현될 수 있고, 이 MDP는 모델이 알려진 경우에는 평가치 반복(value iteration) 이나 모델이 알려지지 않은 경우에도 강화 학습(reinforcement learning) 알고리즘 등을 사용하여 풀 수 있다. 하지만 이들 알고리즘들은 시간 복잡도가 높아 크기가 큰 실세계 문제에 적용하기 쉽지 않아, MDP를 계층적으로 분할하거나, 여러 단계를 묶어서 수행하는 등의 시간적 추상화(temporal abstraction) 방법이 제안되어 왔다. 이러한 시간적 추상화 방법들의 문제점으로는 시간적 추상화의 디자인에 따라 MDP의 풀이 성능이 크게 달라질 수 있으며, 많은 경우 사용자가 이 디자인을 직접 제공해야 한다는 것들이 있다. 최근 사용자의 간섭이 필요 없이 자동적으로 시간적 추상화를 만드는 방법들이 제안된 바 있으나, 이들 방법들 역시 결과물에 대한 이론적인 성능 보장(performance guarantee)은 제공하지 못하고 있다. 본 연구에서는 이러한 문제점을 해결하기 위해 MDP의 구조와 그 풀이 성능을 연관짓는 복잡도 척도에 대해 살펴본다. 이를 위해 MDP로부터 얻은 상태 경로 그래프(state trajectory graph)의 위상적 성질들을 여러 네트워크 척도(network measurements) 들을 이용하여 측정하고, 이와 MDP의 풀이 성능과의 관계를 다양한 상황에 대해 실험적, 이론적으로 분석해 보았다.

  • PDF

Multi-class Classification System Based on Multi-loss Linear Combination for Word Spacing and Sentence Boundary Detection (띄어쓰기 및 문장 경계 인식을 위한 다중 손실 선형 결합 기반의 다중 클래스 분류 시스템)

  • Kim, GiHwan;Seo, Jisu;Lee, Kyungyeol;Ko, Youngjoong
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.185-188
    • /
    • 2018
  • 띄어쓰기와 문장 경계 인식은 그 성능에 따라 자연어 분석 단계에서 오류를 크게 전파하기 때문에 굉장히 중요한 문제로 인식되고 있지만 각각 서로 다른 자질을 사용하는 문제 때문에 각각 다른 모델을 사용해 순차적으로 해결하였다. 그러나 띄어쓰기와 문장 경계 인식은 완전히 다른 문제라고는 볼 수 없으며 두 모델의 순차적 수행은 앞선 모델의 오류가 다음 모델에 전파될 뿐만 아니라 시간 복잡도가 높아진다는 문제점이 있다. 본 논문에서는 띄어쓰기와 문장 경계 인식을 하나의 문제로 보고 한 번에 처리하는 다중 클래스 분류 시스템을 통해 시간 복잡도 문제를 해결하고 다중 손실 선형 결합을 사용하여 띄어쓰기와 문장 경계 인식이 서로 다른 자질을 사용하는 문제를 해결했다. 최종 모델은 띄어쓰기와 문장 경계 인식 기본 모델보다 각각 3.98%p, 0.34%p 증가한 성능을 보였다. 시간 복잡도 면에서도 단일 모델의 순차적 수행 시간보다 38.7% 감소한 수행 시간을 보였다.

  • PDF

The Software Complexity Estimation Method in Algorithm Level by Analysis of Source code (소스코드의 분석을 통한 알고리즘 레벨에서의 소프트웨어 복잡도 측정 방법)

  • Lim, Woong;Nam, Jung-Hak;Sim, Dong-Gyu;Cho, Dae-Sung;Choi, Woong-Il
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.47 no.5
    • /
    • pp.153-164
    • /
    • 2010
  • A program consumes energy by executing its instructions. The amount of cosumed power is mainly proportional to algorithm complexity and it can be calculated by using complexity information. Generally, the complexity of a S/W is estimated by the microprocessor simulator. But, the simulation takes long time why the simulator is a software modeled the hardware and it only provides the information about computational complexity quantitatively. In this paper, we propose a complexity estimation method of analysis of S/W on source code level and produce the complexity metric mathematically. The function-wise complexity metrics give the detailed information about the calculation-concentrated location in function. The performance of the proposed method is compared with the result of the gate-level microprocessor simulator 'SimpleScalar'. The used softwares for performance test are $4{\times}4$ integer transform, intra-prediction and motion estimation in the latest video codec, H.264/AVC. The number of executed instructions are used to estimate quantitatively and it appears about 11.6%, 9.6% and 3.5% of error respectively in contradistinction to the result of SimpleScalar.

Generation and verification of the synthetic precipitation data (고해상도 종합 강우자료 복원 및 검증)

  • Kang, Hyung Jeon;Oh, Jai Ho
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2016.05a
    • /
    • pp.142-146
    • /
    • 2016
  • 최근 저해상도 기상자료를 바탕으로 한 단기간에 내린 폭우나 극심한 가뭄 등과 같은 국지적인 기상 예보는 한계가 있기 때문에 고해상도 기상자료에 대한 수요가 증대되고 있으며, 특히 지형이 복잡한 한반도의 경우 지형적인 영향을 고려한 고해상도 기상자료가 요구되고 있다. 하지만 현재 기상청에서 제공하는 남한 지역의 지상 관측 자료는 약 10km의 불규칙한 간격으로 분포하고 있으며 이는 복잡한 남한지역의 지형 특성을 고려하기에는 해상도가 낮아 상세한 기상 현상을 예측하기 힘들다. 또한, 북한의 경우 사용가능한 관측 자료가 부족하여 한반도 전체를 대상으로 한 기상 예보 및 기후 특성 분석에는 한계가 있다. 따라서 본 연구에서는 정량적 강수 예측 모형인 QPM(Quantitative Precipitation Model)을 이용하여 3시간 간격의 현재기후(2000-2014년)에 대한 한반도 지역의 1km 강우 자료를 복원하였다. 관측 자료가 부족한 북한의 경우 재분석 자료를 이용하여 1km 해상도의 강우 자료를 복원하였다. 이를 위해 몇 가지 특정한 강우 Case를 선별하였고, QPM 수행 시 필요한 강수, 상대습도, 지위고도, 연직 기온, 연직 바람장 등의 변수에 대하여 남한 지역에 해당하는 지점의 여러 재분석 자료와 실제 남한 지역의 지상/고층 관측 자료와의 비교 및 Correlation 분석을 통해 가장 적절하다고 판단되는 재분석 자료인 NASA에서 제공하는 MERRA Reanalysis data를 선정하였다. 또한, 소규모 지형효과를 고려하기 위한 상세 지형자료로 고해상도 지형 자료인 DEM(*Digital Elevation Model) 1km 자료를 사용하였다. 한반도의 강우를 복원하기 위하여 Barnes 기법을 이용하여 불규칙적으로 분포해 있는 강수량 데이터를 규칙적인 자료로 격자화 하였고, 격자화 한 10km 해상도의 자료를 QPM을 통해 복잡한 지형 특성을 고려한 1km 해상도의 강우 자료로 복원하였다. 또한, QPM의 모의 성능을 검증하기 위하여, 위에서 선별한 특정 강우 Case에 대하여 복원한 1km 강우자료와 200m 이내의 거리에서 겹치는 지상관측자료와의 비교를 통하여 모의 성능을 검증하였다. 본 연구를 통해 복원된 한반도 상세 강우 자료를 통해 통일을 대비한 기상, 농 수산업, 수자원 등 다양한 분야에서 활용 될 수 있으며, 국지적인 폭우 및 가뭄 등의 이상 기상 현상을 분석하는 데 참고 기초 자료로써 활용 될 수 있을 것으로 기대된다.

  • PDF