• 제목/요약/키워드: Large-scale Database Systems

검색결과 93건 처리시간 0.021초

Variations of AlexNet and GoogLeNet to Improve Korean Character Recognition Performance

  • Lee, Sang-Geol;Sung, Yunsick;Kim, Yeon-Gyu;Cha, Eui-Young
    • Journal of Information Processing Systems
    • /
    • 제14권1호
    • /
    • pp.205-217
    • /
    • 2018
  • Deep learning using convolutional neural networks (CNNs) is being studied in various fields of image recognition and these studies show excellent performance. In this paper, we compare the performance of CNN architectures, KCR-AlexNet and KCR-GoogLeNet. The experimental data used in this paper is obtained from PHD08, a large-scale Korean character database. It has 2,187 samples of each Korean character with 2,350 Korean character classes for a total of 5,139,450 data samples. In the training results, KCR-AlexNet showed an accuracy of over 98% for the top-1 test and KCR-GoogLeNet showed an accuracy of over 99% for the top-1 test after the final training iteration. We made an additional Korean character dataset with fonts that were not in PHD08 to compare the classification success rate with commercial optical character recognition (OCR) programs and ensure the objectivity of the experiment. While the commercial OCR programs showed 66.95% to 83.16% classification success rates, KCR-AlexNet and KCR-GoogLeNet showed average classification success rates of 90.12% and 89.14%, respectively, which are higher than the commercial OCR programs' rates. Considering the time factor, KCR-AlexNet was faster than KCR-GoogLeNet when they were trained using PHD08; otherwise, KCR-GoogLeNet had a faster classification speed.

비밀정보 동기화에 기반한 Strong RFID 인증 (A Strong RFID Authentication Protocol Based on Synchronized Secret Information)

  • 하재철;하정훈;박제훈;문상재;김환구
    • 정보보호학회논문지
    • /
    • 제17권5호
    • /
    • pp.99-109
    • /
    • 2007
  • 최근 Lee 등에 의해 비밀 정보 동기화에 기반한 RFID 인증 프로토콜이 제안되었다. 본 논문에서는 이 프로토콜이 공격자가 악의적인 랜덤 수를 전송함으로써 합법적인 태그로 리더를 속일 수 있는 스푸핑 공격(spoofing attack)에 취약함을 보이고자 한다. 또한 논문에서는 위장공격을 방어할 뿐만 아니라 RFID시스템에서 최근 이슈화되고 있는 backward untraceability는 물론 forward untraceability를 만족하는 인증 프로토콜을 제안하고자 한다. 특히 제안하는 프로토콜 II는 데이터베이스에서 동기화 된 태그를 인증하는데 필요한 연산량을 3회의 해쉬 연산(비동기화 된 태그의 경우 평균$[m/2]{\cdot}2+3$번, m은 태그 수)으로 줄일 수 있어 대형 RFID 시스템에 적합하다.

그리드에서 서비스 기반 가상 탐색 시스템 설계 및 구현 (Design and Implementation of Service based Virtual Screening System in Grids)

  • 이화민;진성호;이종혁;이대원;박성빈;유헌창
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권6호
    • /
    • pp.237-247
    • /
    • 2008
  • 가상 탐색은 대규모의 화학분자 데이타베이스의 화학분자 데이타들을 분자 다킹과 같은 컴퓨팅 기술을 이용하여 한정된 소규모의 화학분자만을 스크리닝하는 과정으로, 대규모 컴퓨팅 파워와 데이터 저장 용량을 요구하는 대표적인 대규모의 과학 어플리케이션이다. AutoDock, FlexX, Glide, DOCK, LigandFit, ViSION 등과 같은 기존의 분자 다킹 소프트웨어나 어플리케이션들은 슈퍼 컴퓨터, 단일 클러스터, 또는 단일 워크스테이션 둥을 이용하여 작업을 수행하도록 개발되었다. 하지만 슈퍼컴퓨터를 이용한 가상 탐색은 너무 많은 비용이 든다는 문제점이 있고, 단일 클러스터나 워크스테이션을 이용한 가상 탐색은 오랜 수행 시간이 요구되는 문제점을 가지고 있다. 이에 본 논문에서는 대규모의 데이타 집약적인 연산을 지원하는 그리드 컴퓨팅 기술을 이용하는 서비스 기반 가상 탐색 시스템을 제안한다. 이를 위해 본 논문에서는 가상 탐색을 위한 3차원 화학 데이타베이스를 구축하였다. 그리고 효율적인 분자 다킹 서비스를 제공하기 위해 자원 브로커와 데이타 브로커를 설계하고 가상 탐색을 위한 다양한 서비스들을 제안하였다. 본 논문에서는 DOCK 5.0과 Globus 3.2를 이용하여 서비스 기반 가상 탐색 시스템을 구현하고 성능 평가를 실시하였다. 본 논문에서 구현한 서비스 기반 가상 탐색 시스템은 신약 개발이나 신소재 개발 과정에서 연구 개발 기간을 단축하고 개발 비용을 절감할 수 있다.

계량정보분석시스템 KnowledgeMatrix 개발 (Development of an Informetric Analysis System KnowledgeMatrix)

  • 이방래;여운동;이준영;이창환;권오진;문영호
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2007년도 추계 종합학술대회 논문집
    • /
    • pp.167-171
    • /
    • 2007
  • 데이터베이스로부터 지식을 발견하고 이를 연구기획자, 정책의사결정자들이 활용하는 움직임이 전세계적으로 활발해지고 있다. 이러한 연구분야 중 대표적인 것이 계량정보학이고 이 분야를 지원하기 위해서 주로 선진국을 중심으로 분석시스템이 개발되고 있다. 그러나 외국의 분석시스템은 실제 수요자의 요구를 충분히 반영하지 못하고 있고, 고가이면서 한글이 지원되지 않아 국내 연구기획자가 사용하기에 어려운 점이 있다. 따라서 한국과학기술정보연구원에서는 이러한 단점을 극복하기 위해서 계량정보분석시스템 KnowledgeMatrix를 개발하였다. KnowledgeMatrix는 논문 및 특허의 서지정보를 분석하여 지식을 발견하기 위한 목적으로 설계된 독립형(stand-alone) 시스템이다. KnowledgeMatrix의 주요구성을 살펴보면 행렬 생성, 클러스터링, 시각화, 데이터 전처리로 요약된다. 본 논문에서 소개하고 있는 KnowledgeMatrix는 외국의 대표적인 정보분석시스템과 비교했을 때 다양한 기능을 제공하고 있고 특히 영문데이터 처리 이외에 한글데이터 처리가 가능하다는 장점을 갖고 있다.

  • PDF

계량정보분석시스템으로서의 KnowledgeMatrix 개발 (Development of the KnowledgeMatrix as an Informetric Analysis System)

  • 이방래;여운동;이준영;이창환;권오진;문영호
    • 한국콘텐츠학회논문지
    • /
    • 제8권1호
    • /
    • pp.68-74
    • /
    • 2008
  • 데이터베이스로부터 지식을 발견하고 이를 연구기획자, 정책의사결정자들이 활용하는 움직임이 전세계적으로 활발해지고 있다. 이러한 연구분야 중 대표적인 것이 계량정보학이고 이 분야를 지원하기 위해서 주로 선진국을 중심으로 분석시스템이 개발되고 있다. 그러나 외국의 분석시스템은 실제 수요자의 요구를 충분히 반영하지 못하고 있고, 고가이면서 한글이 지원되지 않아 국내 연구기획자가 사용하기에 어려운 점이 있다. 따라서 한국과학기술정보연구원에서는 이러한 단점을 극복하기 위해서 계량정보분석시스템 KnowledgeMatrix를 개발하였다. KnowledgeMatrix는 논문 및 특허의 서지정보를 분석하여 지식을 발견하기 위한 목적으로 설계된 독립형(stand-alone) 시스템이다 KnowledgeMatrix의 주요 구성을 살펴보면 행렬 생성, 클러스터링, 시각화, 데이터 전처리로 요약된다. 본 논문에서 소개하고 있는 KnowledgeMatrix는 외국의 대표적인 정보분석시스템과 비교했을 때 다양한 기능을 제공하고 있고 특히 영문데이터 처리 이외에 한글데이터 처리가 가능하다는 장점을 갖고 있다.

Wavelet Thresholding Techniques to Support Multi-Scale Decomposition for Financial Forecasting Systems

  • Shin, Taeksoo;Han, Ingoo
    • 한국데이타베이스학회:학술대회논문집
    • /
    • 한국데이타베이스학회 1999년도 춘계공동학술대회: 지식경영과 지식공학
    • /
    • pp.175-186
    • /
    • 1999
  • Detecting the features of significant patterns from their own historical data is so much crucial to good performance specially in time-series forecasting. Recently, a new data filtering method (or multi-scale decomposition) such as wavelet analysis is considered more useful for handling the time-series that contain strong quasi-cyclical components than other methods. The reason is that wavelet analysis theoretically makes much better local information according to different time intervals from the filtered data. Wavelets can process information effectively at different scales. This implies inherent support fer multiresolution analysis, which correlates with time series that exhibit self-similar behavior across different time scales. The specific local properties of wavelets can for example be particularly useful to describe signals with sharp spiky, discontinuous or fractal structure in financial markets based on chaos theory and also allows the removal of noise-dependent high frequencies, while conserving the signal bearing high frequency terms of the signal. To date, the existing studies related to wavelet analysis are increasingly being applied to many different fields. In this study, we focus on several wavelet thresholding criteria or techniques to support multi-signal decomposition methods for financial time series forecasting and apply to forecast Korean Won / U.S. Dollar currency market as a case study. One of the most important problems that has to be solved with the application of the filtering is the correct choice of the filter types and the filter parameters. If the threshold is too small or too large then the wavelet shrinkage estimator will tend to overfit or underfit the data. It is often selected arbitrarily or by adopting a certain theoretical or statistical criteria. Recently, new and versatile techniques have been introduced related to that problem. Our study is to analyze thresholding or filtering methods based on wavelet analysis that use multi-signal decomposition algorithms within the neural network architectures specially in complex financial markets. Secondly, through the comparison with different filtering techniques' results we introduce the present different filtering criteria of wavelet analysis to support the neural network learning optimization and analyze the critical issues related to the optimal filter design problems in wavelet analysis. That is, those issues include finding the optimal filter parameter to extract significant input features for the forecasting model. Finally, from existing theory or experimental viewpoint concerning the criteria of wavelets thresholding parameters we propose the design of the optimal wavelet for representing a given signal useful in forecasting models, specially a well known neural network models.

  • PDF

고가용성 솔루션 구축을 위한 그리드 측면에서의 소프트웨어 아키텍처를 통한 로드밸랜싱 구현 (Software Architecture for Implementing the Grid Computing of the High Availability Solution through Load Balancing)

  • 이병엽;박준호;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제11권3호
    • /
    • pp.26-35
    • /
    • 2011
  • 인터넷 환경의 급속한 발전과 더불어 국내외 미션 크리티컬한 비즈니스 환경이 온라인에 의해 서비스되고 있다. 반면 단일 환경 서버환경의 구축을 통해 비효율적인 IT Resources들의 자원 낭비가 가중되고 있는 현실이다. 따라서 웹 환경을 통해 처리되어야 할 정보의 양의 급증과, 이의 처리를 위해 여러 개의 단일 서버를 고속의 네트워크로 연결한 고가용성 구현이 가능한 클러스터 컴퓨팅 시스템이 등장하게 되었다. 하지만 클러스터 컴퓨팅 기술의 다소 제한적인 IT Resource의 단점을 가지고 있다. 이러한 단점을 보완하기 위하여 그리드 컴퓨팅 환경은 기존의 분산 컴퓨팅 기술의 확장된 개념으로, 다양한 분야에서 저비용의 고성능 컴퓨팅 퍼포먼스를 얻기 위하여 그리드를 이용하고 있다. 그러나 공통적으로 이용할 수 있는 정보 시스템의 부재로, 현재의 그리드는 대규모의 단일한 환경으로서의 그리드가 아닌, 기존의 클러스터 컴퓨터와 같은 의미로 사용되고 있다. 따라서 자신이 구성한 분산 컴퓨팅 환경을 그리드 환경의 한 부분으로 포함시키기 위해서는 컴퓨팅 환경에 대한 정보를 그리드의 이용자가 공유할 수 있어야 하며, 정보 서비스를 공개하여 공유할 수 있도록 해야 한다. 본 논문에서는 Grid 기술을 통하여 데티터베이스 로드밸런싱 목표치에 대한 검증을 제시하고 향후 고가용성 데이터베이스 구현을 위한 아키텍처를 제시한다.

모바일 랜드마크 가이드 : LOD와 문맥적 장치 기반의 실외 증강현실 (A Mobile Landmarks Guide : Outdoor Augmented Reality based on LOD and Contextual Device)

  • 조비성;누르지드;장철희;이기성;조근식
    • 지능정보연구
    • /
    • 제18권1호
    • /
    • pp.1-21
    • /
    • 2012
  • 최근 스마트폰의 등장으로 인해 사용자들은 시간과 공간의 제약 없이 스마트폰을 이용한 새로운 의사소통의 방법을 경험하고 있다. 이러한 스마트폰은 고화질의 컬러화면, 고해상도 카메라, 실시간 3D 가속그래픽과 다양한 센서(GPS와 Digital Compass) 등을 제공하고 있으며, 다양한 센서들은 사용자들(개발자, 일반 사용자)로 하여금 이전에 경험하지 못했던 서비스를 경험할 수 있도록 지원하고 있다. 그 중에서 모바일 증강현실은 스마트폰의 다양한 센서들을 이용하여 개발할 수 있는 대표적인 서비스 중 하나이며, 이러한 센서들을 이용한 다양한 방법의 모바일 증강현실 연구들이 활발하게 진행되고 있다. 모바일 증강현실은 크게 위치 정보 기반의 서비스와 내용 기반 서비스로 구분할 수 있다. 위치 정보 기반의 서비스는 구현이 쉬운 장점이 있으나, 증강되는 정보의 위치가 실제의 객체의 정확한 위치에 증강되는 정보가 제공되지 않는 경우가 발생하는 단점이 존재한다. 이와 반대로, 내용 기반 서비스는 정확한 위치에 증강되는 정보를 제공할 수 있으나, 구현 및 데이터베이스에 존재하는 이미지의 양에 따른 검색 속도가 증가하는 단점이 존재한다. 본 논문에서는 위치 정보 기반의 서비스와 내용기반의 서비스의 장점들을 이용한 방법으로, 스마트폰의 다양한 센서(GPS, Digital Compass)로 부터 수집된 정보를 이용하여 데이터베이스의 탐색 범위를 줄이고, 탐색 범위에 존재하는 이미지들의 특징 정보를 기반으로 실제의 랜드마크를 인식하고, 인식한 랜드마크의 정보를 링크드 오픈 데이터(LOD)에서 검색하여 해당 정보를 제공하는 랜드마크 가이드 시스템을 제안한다. 제안하는 시스템은 크게 2개의 모듈(랜드마크 탐색 모듈과 어노테이션 모듈)로 구성되어있다. 첫 번째로, 랜드마크 탐색 모듈은 스마트폰으로 인식한 랜드마크(건물, 조형물 등)에 해당하는 정보들을 (텍스트, 사진, 비디오 등) 링크드 오픈 데이터에서 검색하여 검색된 결과를 인식한 랜드마크의 정확한 위치에 정보를 제공하는 역할을 한다. 스마트폰으로부터 입력 받은 이미지에서 특징점 추출을 위한 방법으로는 SURF 알고리즘을 사용했다. 또한 실시간성을 보장하고 처리 속도를 향상 시키기 위한 방법으로는 입력 받은 이미지와 데이터베이스에 있는 이미지의 비교 연산을 수행할 때 GPS와 Digital Compass의 정보를 사용하여 그리드 기반의 클러스터링을 생성하여 탐색 범위를 줄임으로써, 이미지 검색 속도를 향상 시킬 수 있는 방법을 제시하였다. 두 번째로 어노테이션 모듈은 사용자들의 참여에 의해서 새로운 랜드마크의 정보를 링크드 오픈 데이터에 추가할 수 있는 기능을 제공한다. 사용자들은 키워드를 이용해서 링크드 오픈 데이터로에서 관련된 주제를 검색할 수 있으며, 검색된 정보를 수정하거나, 사용자가 지정한 랜드마크에 해당 정보를 표시할 수 있도록 지정할 수 있다. 또한, 사용자가 지정하려고 하는 랜드마크에 대한 정보가 존재하지 않는다면, 사용자는 랜드마크의 사진을 업로드하고, 새로운 랜드마크에 대한 정보를 생성하는 기능을 제공한다. 이러한 과정은 시스템이 카메라로부터 입력 받은 대상(랜드마크)에 대한 정확한 증강현실 컨텐츠를 제공하기 위해 필요한 URI를 찾는데 사용되며, 다양한 각도의 랜드마크 사진들을 사용자들에 의해 협업적으로 생성할 수 있는 환경을 제공한다. 본 연구에서 데이터베이스의 탐색 범위를 줄이기 위해서 랜드마크의 GPS 좌표와 Digital Compass의 정보를 이용하여 그리드 기반의 클러스터링 방법을 제안하여, 그 결과 탐색시간이 기존에는 70~80ms 걸리는 반면 제안하는 방법을 통해서는 18~20ms로 약 75% 정도 향상된 것을 확인할 수 있었다. 이러한 탐색시간의 감소는 전체적인 검색시간을 기존의 490~540ms에서 438~480ms로 약 10% 정도 향상된 것을 확인하였다.

각인각색, 각봇각색: ABOT 속성과 소비자 감성 기반 소셜로봇 디자인평가 모형 개발 (Different Look, Different Feel: Social Robot Design Evaluation Model Based on ABOT Attributes and Consumer Emotions)

  • 하상집;이준식;유인진;박도형
    • 지능정보연구
    • /
    • 제27권2호
    • /
    • pp.55-78
    • /
    • 2021
  • 최근 인간과 상호작용할 수 있는 '소셜로봇'을 활용하여 복잡하고 다양한 사회문제를 해소하고 개인의 삶의 질을 제고하려는 시도가 주목받고 있다. 과거 로봇은 인간을 대신해서 산업 현장에 투입되고 노동력을 제공해주는 존재로 인식되었다. 그러나 오늘날의 로봇은 각종 산업분야를 관통하는 핵심 키워드인 'Smart'의 등장을 기점으로 인간과 함께 공존하며 사회적 교감이 가능한 '소셜로봇(Social Robot)'으로 그 개념이 확장되고 있다. 구체적으로 고객을 응대하는 서비스 로봇, 에듀테인먼트(Edutainment) 성격의 로봇, 그리고 인간과의 교감, 상호작용에 주목한 감성로봇 등이 출시되고 있다. 그러나 4차 산업혁명을 계기로 ICT 서비스 환경이 급격한 발전을 이룬 현재까지 소셜로봇의 대중화는 체감되지 않고 있다. 소셜로봇의 핵심 기능이 사용자와의 사회적 교감임을 고려하면, 소셜로봇의 대중화를 촉진하기 위해서는 기기에 적용되는 기술 이외의 요소들도 중요하게 고려할 필요가 있다. 본 연구는 로봇의 디자인 요소가 소셜로봇에 대한 소비자들의 구매를 이끌어내는데 중요하게 작용할 것으로 판단한다. 로봇의 외형이 유발하는 감성은 사용자의 인지, 추론, 평가와 기대를 형성하는 과정에서 중요한 영향을 미치며 나아가 로봇에 대한 태도와 호감 그리고 성능 추론 등에도 영향을 줄 수 있다. 그러나 소셜로봇에 대한 기존 연구들은 로봇의 개발방법론을 제안하거나, 소셜로봇이 사용자에게 제공하는 효과를 단편적으로 검증하는 수준에 머무르고 있다. 따라서 본 연구는 소셜로봇의 외형으로부터 사용자가 느끼는 감성이 소셜로봇에 대한 사용자의 태도에 미치는 영향을 검증해보고자 한다. 이때 서로 다른 출처의 이종 데이터 간 결합을 통하여 소셜로봇 디자인평가 모형을 구성한다. 구체적으로 소셜로봇의 외형에 대하여 사전에 구축된 ABOT Database로부터 다수의 소셜로봇에 대한 세 가지 정량적 지표 데이터를 확보하였다. 소셜로봇의 디자인 감성은 (1) 기존의 디자인평가 문헌과 (2) 소셜로봇 제품 후기와 블로그 등의 온라인 구전, (3) 소셜로봇 디자인에 대한 정성적인 인터뷰를 통해 도출하였다. 이후 사용자 설문을 통하여 각각의 소셜로봇에 대해 사용자가 느끼는 감성과 태도에 대한 평가를 수집하였다. 세부적인 감성 평가항목 23개에 대하여, 차원 축소 방법론을 통해 6개의 감성 차원을 도출하였다. 이어서 도출된 감성 차원들이 사용자의 소셜로봇에 대한 태도에 미치는 영향을 검증하기 위해 회귀분석을 수행하여 감성과 태도 간의 관계를 파악해 보았다. 마지막으로 정량적으로 수집된 소셜로봇의 외형에 대한 지표가 감성과 태도 간의 관계에 영향을 줄 수 있음을 검증하기 위해 조절회귀분석을 수행하였다. 기술적인ABOT Database 속성 지표들과 감성 차원들 간의 순수조절효과를 확인하고, 도출된 조절효과에 대한 시각화를 수행하여 외형, 감성, 그리고 태도 간의 관계를 다각적인 관점에서 해석하였다. 본 연구는 이종간 데이터를 연결하여 소셜로봇의 기술적 속성과 소비자 감성, 태도까지 변수 간 관계를 총체적으로 실증 분석했다는 점에서 이론적 공헌을 가지며, 소셜로봇 디자인 개발 전략에 대한 의사결정을 지원하기 위한 기준으로 소비자 감성의 활용 가능성을 제안하였다는 실무적 의의를 가진다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.