• 제목/요약/키워드: 분산연산

검색결과 419건 처리시간 0.02초

시간적 상관도를 활용한 변환 영역 잔차 신호 Wyner-Ziv 부호화 (Transform-domain Wyner-Ziv Residual Coding using Temporal Correlation)

  • 조현명;은현;심혁재;전병우
    • 방송공학회논문지
    • /
    • 제17권1호
    • /
    • pp.140-151
    • /
    • 2012
  • Wyner-Ziv 부호화 방법에서는 키 픽처 부호화를 위하여 상대적으로 복잡도가 낮은 H.264/AVC 인트라 부호화 기술을 사용하고 있다. 인트라 부호화와 달리 인터 부호화는 율 왜곡 성능은 매우 좋으나, 움직임 예측 및 보상과 같은 복잡한 연산을 반복적으로 수행하기 때문에 저복잡도 부호화를 지향하는 분산 비디오 부호화에 적합하지 않다. 하지만 제로 모션 부호화 방법은 시간적 상관도를 활용하면서도 높은 복잡도를 갖는 움직임 예측을 사용하지 않기 때문에 현재 Wyner-Ziv 부호화에 사용하고 있는 키 픽처 부호화의 좋은 대안이 될 수 있다. 특히, 변환 영역 Wyner-Ziv 잔차 신호 부호화 기술은 시간적 중복성을 WZ 픽처에만 활용하기 때문에, 제로 모션 부호화 방법으로 키 픽처를 부호화하는 경우 키 픽처와 WZ 픽처 모두 시간적 상관도를 활용하여 율 왜곡 성능을 크게 향상시킬 수 있다. 본 논문에서 제안하는 제로 모션 키 픽처 부호화를 적용한 Wyner-Ziv 부호화의 경우, 인트라 키 픽처 부호화를 사용한 기존의 Wyner-Ziv 부호화 대비 평균적으로 약 9%의 복잡도가 증가되었지만, 움직임이 적은 정적인 영상에서 최대 54% 비트율이 감소하였다. 또한, 변환 영역 Wyner-Ziv 잔차 신호 부호화 기술에 제안한 제로 모션 키 픽처 부호화를 적용할 경우, 인트라 키 픽처 부호화를 사용한 기존의 Wyner-Ziv 부호화의 율 왜곡 성능과 비교하여 최대 70%의 비트율을 감소시킬 수 있다.

목표물의 고속 탐지 및 인식을 위한 효율적인 신경망 구조 (Effcient Neural Network Architecture for Fat Target Detection and Recognition)

  • 원용관;백용창;이정수
    • 한국정보처리학회논문지
    • /
    • 제4권10호
    • /
    • pp.2461-2469
    • /
    • 1997
  • 목표물 탐지 및 인식은 신경망의 적용이 활발한 하나의 분야로서, 일반적인 형태인식 문제들의 요구 사항에 추가적으로 translation invariance와 실시간 처리를 요구한다. 본 논문에서는 이러한 요구 사항을 만족하는 새로운 신경망의 구조를 소개하고, 이의 효과적인 학습 방법을 설명한다. 제안된 신경망은 특징 추출 단계와 형태 인식 단계가 연속(Cascade)된 가중치 공유 신경망(Shared-weight Neural Network)을 기본으로하여 이를 확장한 형태이다. 이 신경망의 특징 추출 단계는 입력에 가중치 창(weight kernel)으로 코릴레이션 형태의 연산을 수행하며, 신경망 전체를 하나의 2차원 비선형 코릴레이션 필터로 볼 수 있다. 따라서, 신경망의 최종 출력은 목표물 위치에 첨예(peak)값을 갖는 코릴레이션 평면이다. 이 신경망이 갖는 구조는 병렬 또는 분산 처리 컴퓨터로의 구현에 매우 적합하며, 이러한 사실은 실시간 처리가 중요한 요인이 되는 문제에 적용할 수 있음을 의미한다. 목표물과 비목표물간의 숫자상 불균형으로 인하여 초래되는 오경보(false alarm) 발생의 문제를 극복하기 위한 새로운 학습 방법도 소개한다. 성능 검증을 위하여 제안된 신경망을 주차장내에서 이동하는 특정 차량의 탐지 및 인식 문제에 적용하였다. 그 결과 오경보 발생이 없었으며, 중형급 컴퓨터를 이용하여 약 190Km로 이동하는 차량의 추적이 가능한 정도의 빠른 처리 결과를 보여 주었다.

  • PDF

고음질의 음성합성을 위한 퍼지벡터양자화의 퍼지니스 파라메타선정에 관한 연구 (A Study on Fuzziness Parameter Selection in Fuzzy Vector Quantization for High Quality Speech Synthesis)

  • 이진이
    • 한국지능시스템학회논문지
    • /
    • 제8권2호
    • /
    • pp.60-69
    • /
    • 1998
  • 본 눈문에서는 퍼지 벡터양자호를 이용하여 음성을 합성하는 방법을 제시하고,원음에 가까운 합성음을 얻기 위하여 퍼지벡터양자화의 성능을 최적화 하는 Fuzziness갑의 선정방법을 연구한다. 퍼지벡터 양자화를 이용하여 음성을 합성할때, 분석단에서는 입력 음성패턴과 코드북의 음성패턴의 유사도를 나타내는 퍼지 소속함수값을 출력하고, 합성단에서는 분석단에서 얻은 퍼지소속 함수값, fuzziness값, 그리고 FCM(Fuzzy-C-Means) 연산식을 이용하여 음성을 합성한다. 시뮬레이션을 통하여 벡터양자화에 의해 합성된 음성과 퍼지 벡터양자화에 의해 합성된 음성을 코드북의 크기에 따라 비교한 결과, 퍼지벡터양자화를 이용한 음성합성의 성능이 코드북 크기가 절반으로 줄어도 벡터양자화에 의한 성능과 거의 같음을 알수 있다. 이것은 VQ(Vecotr Quantiz-ation)에 의한 음성합성 결과와 같은 성능을 얻기 위해서 퍼지 VQ를 사용하면, 코드북 저장을 위한 메모리의 크기를 절반으로 줄일 수 있음을 의미한다. 그리고 SQNR을 최대로 하는 퍼지 벡터양자화를 얻기 위한 최적 Fuzziness값은 음성분석 프레임의 분산값이 크면 작게 선정해야 하고, 작으면 크게 선정 해야함을 밝혔다. 또한 합성음들을 주파수 영역의 스펙트로그램에서 비교한 결과 포만트 주파수와 피치주파수에서 퍼지 VQ에 의한 합성음이 VQ에 의한 것보다 원 음성에 더 가까움을 알 수 있었다.

  • PDF

명제논리 기반 서울시 역세권 2030청년주택 운영기준의 개정효과 분석 (A Spatial Analysis Based on the Amendments in Seoul's 2030 Youth Housing Policy Using Propositional Logic)

  • 김성훈;조현준;최내영;한대정;박민호
    • 지적과 국토정보
    • /
    • 제49권1호
    • /
    • pp.157-179
    • /
    • 2019
  • 역세권 2030청년주택 정책은 역세권 개발이 서울시 내 임대주택 택지를 확보하기 위한 유일한 대안이라는 인식 가운데 기대를 받으며 출범했다. 그러나 임대주택 공급실적은 당초 계획에 미치지 못했고 용도지역체계에 혼란을 줄 수 있다는 비판이 지속적으로 제기되었다. 결국, 역세권 2030청년주택은 시행 후 3년 사이에 운영기준이 6차례 개정되었다. 특히 2018년 10월 이후에는 1년 이내에 큰 폭의 운영기준 개정이 두 차례 이어졌다. 이에 본 연구는 사업가능구역과 용도지역 변경 가능구역의 변화 양상을 분석하여, 지난 운영기준 개정의 방향성 평가와 정책적 시사성을 도출하고자 했다. 공간적 범위 및 구역의 도출에는 명제논리를 활용했다. 이를 위해, 가구(街區) 등 기초자료 정제 및 전처리, 명제별 진리 값 입력, 논리연산 과정을 수행하여 사업가능구역 및 용도지역 변경 가능구역 소속여부를 판별했다. 분석 결과, 1) 사업가능구역은 서울시 외곽의 역세권으로 고르게 분산되면서도 준주거지역과 상업지역으로 집중되는 경향이 있고, 2) 용도지역 변경 가능구역은 준주거지역 변경 가능구역을 중심으로 전반적인 증가추세가 두드러졌다.

동적 ID 정보가 포함된 신원기반 암호시스템에서 효율적인 키 재발급 모델 (A New Efficient Private Key Reissuing Model for Identity-based Encryption Schemes Including Dynamic Information)

  • 김동현;김상진;구본석;유권호;오희국
    • 정보보호학회논문지
    • /
    • 제15권2호
    • /
    • pp.23-36
    • /
    • 2005
  • 신원기반 암호기법에서 PKC(Private Key Generator)의 권한 남용을 막기 위해 일반적으로 threshold 기법을 사용한다. 하지만 이 방법은 사용자 개인키 발급과정에서 보다 많은 인증, pairing 연산, 통신비용을 요구한다. 이 논문에서는 PKG의 권한을 분산시키는 신원기반 암호기법에서 같은 사용자에게 다수의 개인키를 수시로 발급하거나 만료된 또는 철회된 키를 재발급하는 경우 이를 효율적으로 처리해줄 수 있는 새로운 모델을 제안한다. 새 기법에서 사용자의 개인키는 서로 다른 신뢰기관에 의해서 발급되는 두 개의 요소인 KGK(Key Generation Key)와 KUD(Key Usage Descriptor)로 구성된다. 이 중 KGK는 다수의 신뢰기관인 KIC(Key Issuing Center)가 threshold 방법으로 발급하며, KUD는 단일 신뢰기관인 KUM(Key Usage Manager)이 발급한다. 이 시스템의 장점은 키 재발급 비용이 상수시간이며 공개채널을 통한 키 발급이 가능하다는 것이다. 또한 Gentry가 제안하였던 time-slot 기반의 개인키 철회기법을 다른 신원기반 암호기법보다 효율적으로 적용할 수 있다. 이 논문은 새 시스템의 안전성에 대해서 증명하고 타 시스템과의 비교 분석을 통해 그 효율성을 보여준다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

농업기상재해 조기경보시스템에서의 고해상도 격자형 자료의 처리 속도 향상 기법 (Speed-up Techniques for High-Resolution Grid Data Processing in the Early Warning System for Agrometeorological Disaster)

  • 박주현;신용순;김성기;강위수;한용규;김진희;김대준;김수옥;심교문;박은우
    • 한국농림기상학회지
    • /
    • 제19권3호
    • /
    • pp.153-163
    • /
    • 2017
  • 데이터 처리 속도는 예보 능력과 관련이 있다. 최신의 입력 자료를 이용한 예측 데이터의 고속 생산은 신속한 대처를 가능하게 한다. 또한 알고리즘 작성, 계산, 결과 평가, 알고리즘 개선으로 이어지는 순환 구조를 원활하게 할 뿐만 아니라 오류 발생시 빠른 시간 내에 복구할 수 있게 하는 등 매우 중요한 요소이다. 현재의 조기경보 시스템은 매 계산 주기 마다 섬진강 유역의 10개 시군에 대해 30미터 해상도의 격자형 자료를 400개 이상 생성하고 있으며(중간 데이터 포함) 최대 9일까지 예보되는 자료를 포함할 경우 600개 이상이다. 이는 전국을 30미터 해상도로 약 45개를 생성하는 계산양과 비슷하다. 또한 14,000여개의 필지에 대한 구역 통계와, 각 래스터의 평균, 최대, 최소 등의 통계자료 생성도 함께 수행 해야 한다. 이와 같은 대량의 데이터를 한정된 시간 내로 처리하기 위한 몇 가지 기법을 적용하여 적용하였으며, 아직 적용은 못하였으나 가능성의 여부를 평가해 보는 것으로 본 연구를 진행하였다. 그 결과 앞서 제시된 래스터 캐시, NFS 캐시, 분산 처리를 모두 적용할 경우 데이터 처리 시간을 1/8로 단축 시킬 수 있음이 확인되었다. 또한 GPU를 이용한 연산을 적용할 경우 일부 모듈에 대해 매우 큰 폭으로 수행 시간을 단축 시킬 수 있음을 확인하였다. 다만 캐시를 위한 추가적인 디스크, GPU라는 별도의 하드웨어, 추가된 하드웨어 지원을 위한 고출력 전원 장치와 이에 따른 UPS (Uninterruptible power supply, 무정전 전원공급 장치)까지 상대적으로 높은 사양으로 준비해야 하는 비용적인 문제가 발생할 수 있다. 본 연구에서 제시한 네 가지 기법 중 세 가지는 계산 서버 추가를 통한 수평적 성능 확장에 관한 것이다. 하지만 서버의 추가가 처리 속도 향상으로 이어지지 않음은 물론 오히려 저하시키는 경우가 있다. 본 연구에서는 특정 시간 내로 작업을 완료 시키지 못하면 해당 작업을 반환하여 다른 서버가 처리하는 간단한 방식을 이용한다. 하지만 이런 문제를 지속적으로 발생시키는 계산 서버가 발견된다면 정해진 기준에 따라 계산 작업에서 완전히 퇴출 시켜야 성능 향상에 도움이 된다. 따라서 처리 속도에 대한 정확한 원인을 검사하고 이를 실시간으로 반영할 수 있는 기법이 필요하다.

RSS와 OLAP 큐브를 이용한 FOAF의 동적 관리 기법 (A Dynamic Management Method for FOAF Using RSS and OLAP cube)

  • 손종수;정인정
    • 지능정보연구
    • /
    • 제17권2호
    • /
    • pp.39-60
    • /
    • 2011
  • 웹 2.0 기술이 소개된 이후 소셜 네트워크 서비스는 미래 정보기술의 기초로서 중요하게 인식되고 있다. 이에, 웹2.0 환경에서 소셜 네트워크를 구축하기 위하여 온톨로지 기반의 사용자 프로필 기술 도구인 FOAF를 활용하기 위한 다양한 연구가 이뤄지고 있다. 그러나 FOAF를 이용하여 소셜 네트워크를 생성 및 관리하는 대부분의 방법은 시간의 흐름에 따라 변화하는 사용자의 소셜 네트워크를 자동적으로 반영하기 어려운 단점이 있으며 다양한 소셜 미디어 서비스가 제공되는 환경에서는 FOAF를 동적으로 관리하기가 쉽지 않다. 따라서 본 논문에서는 기존 FOAF를 이용한 소셜 네트워크 추출방법의 한계를 극복하기 위하여 사용자 프로파일 기술 언어인 FOAF와 웹 저작물 출판 매커니즘인 RSS를 OLAP 시스템에 적용시켜 동적으로 FOAF를 갱신하고 관리하기 위한 방법을 제안한다. 본 논문에서 제안하는 방법은 수집한 FOAF와 RSS 파일들을 스타스키마로 설계된 데이터베이스에 넣어 OLAP 큐브를 생성한다. 그리고 OLAP 연산을 이용하여 사용자의 연결관계를 분석하고 FOAF에 그 결과를 반영한다. 본 논문에서 제안하는 방법은 이기종 분산처리 환경 하에서 데이터의 상호호환성을 보장할 뿐만 아니라 시간의 흐름에 따른 사용자의 관심 및 이슈 등의 변화를 효과적으로 반영한다.

비정형 빅데이터의 실시간 복합 이벤트 탐지를 위한 기법 (The Method for Real-time Complex Event Detection of Unstructured Big data)

  • 이준희;백성하;이순조;배해영
    • Spatial Information Research
    • /
    • 제20권5호
    • /
    • pp.99-109
    • /
    • 2012
  • 최근 소셜 미디어의 발달과 스마트폰의 확산으로 SNS(Social Network Service)가 활성화가 되면서 데이터양이 폭발적으로 증가하였다. 이에 맞춰 빅데이터 개념이 새롭게 대두되었으며, 빅데이터를 활용하기 위한 많은 방안이 연구되고 있다. 여러 기업이 보유한 빅데이터의 가치창출을 극대화하기 위해 기존 데이터와의 융합이 필요하며, 물리적, 논리적 저장구조가 다른 이기종 데이터 소스를 통합하고 관리하기 위한 시스템이 필요하다. 빅데이터를 처리하기 위한 시스템인 맵리듀스는 분산처리를 활용하여 빠른게 데이터를 처리한다는 이점이 있으나 모든 키워드에 대해 시스템을 구축하여 저장 및 검색 등의 과정을 거치므로 실시간 처리에 어려움이 따른다. 또한, 이기종 데이터를 처리하는 구조가 없어 복합 이벤트를 처리하는데 추가 비용이 발생할 수 있다. 이를 해결하는 방안으로 기존에 연구된 복합 이벤트 처리 시스템을 활용하여 실시간 복합 이벤트 탐지를 위한 기법을 제안하고자 한다. 복합 이벤트 처리 시스템은 서로 다른 이기종 데이터 소스로부터 각각의 데이터들을 통합하고 이벤트들의 조합이 가능하며 스트림 데이터를 즉시 처리할 수 있어 실시간 처리에 유용하다. 그러나 SNS, 인터넷 기사 등 텍스트 기반의 비정형 데이터를 텍스트형으로 관리하고 있어 빅데이터에 대한 질의가 요청될 때마다 문자열 비교를 해야 하므로 성능저하가 발생할 여지가 있다. 따라서 복합 이벤트 처리 시스템에서 비정형 데이터를 관리하고 질의처리가 가능하도록 문자열의 논리적 스키마를 부여하고 데이터 통합 기능을 제안한다. 그리고 키워드 셋을 이용한 필터링 기능으로 문자열의 키워드를 정수형으로 변환함으로써 반복적인 비교 연산을 줄인다. 또한, 복합 이벤트 처리 시스템을 활용하면 인 메모리(In-memory)에서 실시간 스트림 데이터를 처리함으로써 디스크에 저장하고 불러들이는 시간을 줄여 성능 향상을 가져온다.