• 제목/요약/키워드: divide and conquer

검색결과 87건 처리시간 0.035초

스위칭 모드 퍼지 모델 기반 제어기를 위한 안정화 문제 해석 (Stabilization Analysis for Switching-Type Fuzzy-Model-Based Controller)

  • 김주원;주영훈;박진배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 추계학술대회 학술발표 논문집
    • /
    • pp.149-152
    • /
    • 2001
  • 본 논문은 연속 시간과 이산 시간에서의 스위칭 모드 퍼지 모델 기반 제어기의 새로운 설계 기법에 대해서 논의한다. 스위칭 모드 퍼지 모델 기반 제어기의 설계에는 Takagi-Sugeno(75) 퍼지 시스템이 사용된다. 이 스위칭 모드 퍼지 모델 기반 제어기는 "정복-분할(divide and conquer)"이라는 하향식 접근 방식을 이용한다. 이 방법은 여러 개의 규칙을 가지고 있는 시스템에서 유한의 하위 시스템으로 시스템을 분할하여 각각의 부분 해를 구하고 이들을 결합하여 전체 시스템의 해를 구하는 방법이다. 제어기의 설계 조건은 주어진 75 퍼지 시스템의 안정화를 보장하는 선형 행렬 부등식들(LMls)에 의해 결정된다. 적절한 시뮬레이션 예제를 통한 성능 비교를 통해 본 논문의 우수성을 입증한다.

  • PDF

3D 가상도시 구축을 위한 건물모델 구축 연구 (A Study of the Building Model for a construction of 3D Virtual City)

  • 김성수;임일식;김병국
    • 한국GIS학회:학술대회논문집
    • /
    • 한국GIS학회 2003년도 공동 춘계학술대회 논문집
    • /
    • pp.328-333
    • /
    • 2003
  • GIS기술은 실세계의 분석에서부터 3D 가상도시의 구축까지 매우 빠르게 발전하고 있다. 3D가상도시는 GIS 기술, 컴퓨터그래픽스 기술, 가상현실 기술, 데이터베이스 기술에 의해 컴퓨터 속에 구현이 되는 도시를 말한다. 본 연구에서는 1/1,000 수치지도를 이용하여 3D건물모델을 형성하였고, 건물모델을 형성할 때는 삼각형 메쉬를 형성하고 최적의 메쉬를 형성하기 위하여 Divide and Conquer 알고리즘을 사용하였다. 메쉬가 형성된 수치지도의 건물모델에 대하여 기존의 기하파이프라인을 개선함으로서 건물모델을 빠르게 렌더링할 수 있도록 하였다. 건물측면에 대하여는 디지틀 카메라를 이용하여 측면에 대한 이미지를 취득하고 2D Projective Transformation을 적용하여 이미지를 조정하였다.

  • PDF

3D 프린터를 위하여 3D 모델 데이터의 분산 변환 기법 개발 (Developing a distributed conversion algorithm of 3D model data for 3D printers)

  • 모준서;주우성;이규영;김성석;양순옥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 추계학술발표대회
    • /
    • pp.68-70
    • /
    • 2016
  • 3D 프린터는 연속적인 계층에 특수한 재료를 출력시켜 3차원 물체를 만들어 내는 장치이다. 3D 프린팅을 위해서는 3D 모델을 생성한 후, 이를 3D 프린터에 출력할 수 있도록 G-code로 변환해야 한다. 본 논문에서는 이 변환 작업을 완전 분산 방식으로 처리할 수 있는 알고리즘을 제안한다. 이를 위해 하나의 메인 노드와 N개의 작업 노드로 구성한 시스템에서 2단계에 걸쳐 분할 정복(divide-and-conquer) 방식으로 변환하도록 하였다. 실제 구현한 시스템을 이용하여, 성능에 미치는 요소(모델의 크기 및 정밀도)에 따른 변환 시간의 단축 효과를 보였다.

DBMS을 활용한 파일 검색엔진 연구 (A Study on File Search Engine Based on DBMS)

  • 김형석;유헌창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 추계학술발표대회
    • /
    • pp.548-551
    • /
    • 2016
  • 기존 그리드 기반의 전통적인 RDBMS는 비구조적 데이터에 대한 색인이 지원되지 않았다. 이러한 제약 조건들로 인해 파일 문서 및 비 구조화된 데이터의 검색 엔진으로는 부적합하였다. 최근에 다양한 검색 오픈소스(Solr, Lucene)등으로 검색 엔진이 개발되어 활용되고 있지만, 검색한 결과와 기존 데이터의 연동이 쉽지 않고 구조 변경이 어려우며, 사용자의 다양한 요구 사항 수용이 쉽지 않은 단점을 가지고 있다. 따라서 본 연구에서는 빠른 검색을 위한 색인 (index) 최적화와 대용량 데이터 처리를 위한 파티션 기반 데이터의 분할 및 정복 (divide and conquer) 처리, 이중화된 검색어 색인 기능을 구현하였다. 또한 동의어 사전을 구축하여 연관 관계 분석이 가능하도록 DB를 구축하여 검색어와 동의어의 상호 관계성을 유지하였으며 오픈 소스보다 발전한 형태의 검색 엔진을 개발하는 것을 목표로 하였다. 본 연구를 위해 약 400만건 이상의 다양한 포맷 (Ms-office, Hwp, Pdf, Text)등의 파일 문서를 샘플로 실험을 진행하였다.

$GF(2^n)$ 곱셈을 위한 효율적인 $MSK_k$ 혼합 방법 (Efficiently Hybrid $MSK_k$ Method for Multiplication in $GF(2^n)$)

  • 지성연;장남수;김창한;임종인
    • 대한전자공학회논문지SD
    • /
    • 제44권9호
    • /
    • pp.1-9
    • /
    • 2007
  • 유한체 $GF(2^n)$ 연산을 바탕으로 구성되는 암호시스템의 효율적 구현을 위하여 유한체의 곱셈의 하드웨어 구현은 중요한 연구 대상이다. 공간 복잡도가 낮은 병렬 처리 유한체 곱셈기를 구성하기 위하여 Divide-and-Conquer와 같은 방식이 유용하게 사용된다. 대표적으로 Karatsuba와 Ofman이 제안한 카라슈바(Karatsuba-Ofman) 알고리즘과 다중 분할 카라슈바(Multi-Segment Karatsuba) 방법이 있다. Leone은 카라슈바 방법을 이용하여 공간 복잡도 효율적인 병렬 곱셈기를 제안하였고 Ernst는 다중 분할 카라슈바 방법의 곱셈기를 제안하였다. [2]에서 제안한 방법을 개선하여 [1]에서 낮은 공간 복잡도를 필요로 하는 $MSK_5$ 방법과 $MSK_7$ 방법을 제안하였으며, [3]에서 곱셈 방법을 혼합하여 곱셈을 수행하는 방법을 제안하였다. 본 논문에서는 [3]에서 제안한 혼합 방법에 [1]에서 제안한 $MSK_5$ 방법을 추가로 혼합하는 혼합 방법을 제안한다. 제안하는 혼합방법을 적용하여 곱셈을 구성하면 l>0, $25{\cdot}2^l-2^l을 만족하는 차수에서 [3]에서 제안한 혼합 방법보다 $116{\cdot}3^l$만큼의 게이트와 $2T_X$ 만큼의 시간 지연이 감소한다.

외판원 문제의 지역 분할-연결 기법 (Travelling Salesman Problem Based on Area Division and Connection Method)

  • 이상운
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권3호
    • /
    • pp.211-218
    • /
    • 2015
  • 본 논문은 외판원 문제의 해를 쉽게 구하는 알고리즘을 제안하였다. 사전에, n(n-1)개의 데이터에 대해 각 정점에서의 거리 오름차순으로 정렬시켜 최단거리 상위 10개인 10n개를 결정하였다. 첫 번째로, 각 정점 $v_i$의 최단거리인 $r_1=d\{v_i,v_j\}$로 연결된 부분경로를 하나의 지역으로 결정하였다. $r_2$에 대해서는 지역 내 정점간 간선은 무조건 연결하고, 지역간 간선은 연결 규칙을 적용하였다. 전체적으로 하나의 해밀턴 사이클이 형성될 때까지 $r_3$ 부터는 지역간 간선만 연결하는 방법으로 정복하였다. 따라서 제안된 방법은 지역분할정복 방법이라 할 수 있다. 실제 지도상의 도시들인 TSP-1(n=26) TSP-2(n=42)와 유클리드 평면상에 랜덤하게 생성된 TSP-3(n=50)에 대해 제안된 알고리즘을 적용한 결과 TSP-1과 TSP-2는 최적해를 구하였다. TSP-3에 대해서는 Valenzuela와 Jones의 결과보다 거리를 단축시킬 수 있었다. 전수탐색 방법은 n!인데 반해, 제안된 알고리즘의 수행복잡도는 $O(n^2)$이며, 수행횟수는 최대 10n이다.

HMAC/NMAC-MD4에 대한 향상된 키 복구 공격 (Improved Key-Recovery Attacks on HMAC/NMAC-MD4)

  • 강진건;이제상;성재철;홍석희;류희수
    • 정보보호학회논문지
    • /
    • 제19권2호
    • /
    • pp.63-74
    • /
    • 2009
  • 2005년 Wang이 MD 계열 전용 해쉬함수에 대한 분석 결과를 발표함에 따라, MD 계열 전용 해쉬함수를 이용한 메시지 인증 프로토콜에 대한 분석 결과 또한 다수 발표되었다. CRYPTO'07에서 Fouque, Leurent, Nguyen은 Wang의 충돌쌍 공격을 이용한 MD4, MD5 기반 HMAC/NMAC의 내부 키 복구 공격과 외부 키 복구 공격을 소개하였다[4]. EUROCRYPT'08에서 Wang, Ohta, Kunihiro는 근사 충돌쌍(near-collision)을 이용한 MD4 기반 HMAE/NMAC의 외부 키 복구 공격을 소개하였다[2]. 즉, Wang 등은 새로운 근사 충돌쌍 특성을 이용하여 기 제안된 Fouque의 분석 방법을 향상시킴으로서 오라클 질의량을 $2^{88}$에서 $2^{72}$으로 감소시켰으며, MD4계산량 또한 $2^{95}$에서 $2^{77}$으로 감소시켰다. 본 논문에서는 분할-정복(divide and conquer) 공격을 이용한 새로운 MD4 기반 HMAC/NMAC의 외부 키 복구 공격 알고리즘을 제시한다. 본 논문에서 제시하는 분할-정복 공격을 이용한 공격알고리즘은 $2^{77.1246}$의 오라클 질의량과 $2^{37}$의 MD4 계산량으로 HMAC/NMAC의 외부 키를 복구할 수 있는 향상된 공격 방법이다.

전역 토픽의 지역 매핑을 통한 효율적 토픽 모델링 방안 (Efficient Topic Modeling by Mapping Global and Local Topics)

  • 최호창;김남규
    • 지능정보연구
    • /
    • 제23권3호
    • /
    • pp.69-94
    • /
    • 2017
  • 최근 빅데이터 분석 수요의 지속적 증가와 함께 관련 기법 및 도구의 비약적 발전이 이루어지고 있으며, 이에 따라 빅데이터 분석은 소수 전문가에 의한 독점이 아닌 개별 사용자의 자가 수행 형태로 변모하고 있다. 또한 전통적 방법으로는 분석이 어려웠던 비정형 데이터의 활용 방안에 대한 관심이 증가하고 있으며, 대표적으로 방대한 양의 텍스트에서 주제를 도출해내는 토픽 모델링(Topic Modeling)에 대한 연구가 활발히 진행되고 있다. 전통적인 토픽 모델링은 전체 문서에 걸친 주요 용어의 분포에 기반을 두고 수행되기 때문에, 각 문서의 토픽 식별에는 전체 문서에 대한 일괄 분석이 필요하다. 이로 인해 대용량 문서의 토픽 모델링에는 오랜 시간이 소요되며, 이 문제는 특히 분석 대상 문서가 복수의 시스템 또는 지역에 분산 저장되어 있는 경우 더욱 크게 작용한다. 따라서 이를 극복하기 위해 대량의 문서를 하위 군집으로 분할하고, 각 군집별 분석을 통해 토픽을 도출하는 방법을 생각할 수 있다. 하지만 이 경우 각 군집에서 도출한 지역 토픽은 전체 문서로부터 도출한 전역 토픽과 상이하게 나타나므로, 각 문서와 전역 토픽의 대응 관계를 식별할 수 없다. 따라서 본 연구에서는 전체 문서를 하위 군집으로 분할하고, 각 하위 군집에서 대표 문서를 추출하여 축소된 전역 문서 집합을 구성하고, 대표 문서를 매개로 하위 군집에서 도출한 지역 토픽으로부터 전역 토픽의 성분을 도출하는 방안을 제시한다. 또한 뉴스 기사 24,000건에 대한 실험을 통해 제안 방법론의 실무 적용 가능성을 평가하였으며, 이와 함께 제안 방법론에 따른 분할 정복(Divide and Conquer) 방식과 전체 문서에 대한 일괄 수행 방식의 토픽 분석 결과를 비교하였다.

Computation and Communication Efficient Key Distribution Protocol for Secure Multicast Communication

  • Vijayakumar, P.;Bose, S.;Kannan, A.;Jegatha Deborah, L.
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.878-894
    • /
    • 2013
  • Secure multimedia multicast applications involve group communications where group membership requires secured dynamic key generation and updating operations. Such operations usually consume high computation time and therefore designing a key distribution protocol with reduced computation time is necessary for multicast applications. In this paper, we propose a new key distribution protocol that focuses on two aspects. The first one aims at the reduction of computation complexity by performing lesser numbers of multiplication operations using a ternary-tree approach during key updating. Moreover, it aims to optimize the number of multiplication operations by using the existing Karatsuba divide and conquer approach for fast multiplication. The second aspect aims at reducing the amount of information communicated to the group members during the update operations in the key content. The proposed algorithm has been evaluated based on computation and communication complexity and a comparative performance analysis of various key distribution protocols is provided. Moreover, it has been observed that the proposed algorithm reduces the computation and communication time significantly.

Optimization of Decision Tree for Classification Using a Particle Swarm

  • Cho, Yun-Ju;Lee, Hye-Seon;Jun, Chi-Hyuck
    • Industrial Engineering and Management Systems
    • /
    • 제10권4호
    • /
    • pp.272-278
    • /
    • 2011
  • Decision tree as a classification tool is being used successfully in many areas such as medical diagnosis, customer churn prediction, signal detection and so on. The main advantage of decision tree classifiers is their capability to break down a complex structure into a collection of simpler structures, thus providing a solution that is easy to interpret. Since decision tree is a top-down algorithm using a divide and conquer induction process, there is a risk of reaching a local optimal solution. This paper proposes a procedure of optimally determining thresholds of the chosen variables for a decision tree using an adaptive particle swarm optimization (APSO). The proposed algorithm consists of two phases. First, we construct a decision tree and choose the relevant variables. Second, we find the optimum thresholds simultaneously using an APSO for those selected variables. To validate the proposed algorithm, several artificial and real datasets are used. We compare our results with the original CART results and show that the proposed algorithm is promising for improving prediction accuracy.