• 제목/요약/키워드: Inference Service

검색결과 180건 처리시간 0.028초

A Study on Accuracy Estimation of Service Model by Cross-validation and Pattern Matching

  • Cho, Seongsoo;Shrestha, Bhanu
    • International journal of advanced smart convergence
    • /
    • 제6권3호
    • /
    • pp.17-21
    • /
    • 2017
  • In this paper, the service execution accuracy was compared by ontology based rule inference method and machine learning method, and the amount of data at the point when the service execution accuracy of the machine learning method becomes equal to the service execution accuracy of the rule inference was found. The rule inference, which measures service execution accuracy and service execution accuracy using accumulated data and pattern matching on service results. And then machine learning method measures service execution accuracy using cross validation data. After creating a confusion matrix and measuring the accuracy of each service execution, the inference algorithm can be selected from the results.

Performance analysis of local exit for distributed deep neural networks over cloud and edge computing

  • Lee, Changsik;Hong, Seungwoo;Hong, Sungback;Kim, Taeyeon
    • ETRI Journal
    • /
    • 제42권5호
    • /
    • pp.658-668
    • /
    • 2020
  • In edge computing, most procedures, including data collection, data processing, and service provision, are handled at edge nodes and not in the central cloud. This decreases the processing burden on the central cloud, enabling fast responses to end-device service requests in addition to reducing bandwidth consumption. However, edge nodes have restricted computing, storage, and energy resources to support computation-intensive tasks such as processing deep neural network (DNN) inference. In this study, we analyze the effect of models with single and multiple local exits on DNN inference in an edge-computing environment. Our test results show that a single-exit model performs better with respect to the number of local exited samples, inference accuracy, and inference latency than a multi-exit model at all exit points. These results signify that higher accuracy can be achieved with less computation when a single-exit model is adopted. In edge computing infrastructure, it is therefore more efficient to adopt a DNN model with only one or a few exit points to provide a fast and reliable inference service.

도착 및 이탈시점을 이용한 다중서버 대기행렬 추론 (An Inference Method of a Multi-server Queue using Arrival and Departure Times)

  • 박진수
    • 한국시뮬레이션학회논문지
    • /
    • 제25권3호
    • /
    • pp.117-123
    • /
    • 2016
  • 본 연구는 다중서버 대기행렬시스템의 관측이 제한되어 있는 경우에 시스템 내부 행태를 추론하는 데에 그 목적이 있다. 대기행렬시스템 분석에 있어 도착 및 서비스시간에 자기상관성이 존재하면 이론적으로 모형화하기가 매우 복잡하고 어렵다. 이에 따라 다양한 분석 기법 및 확률과정 모형들이 개발되었다. 본 논문에서는 외부 관측치에 존재하는 자기상관성과 내부 행태를 관측하기 어려운 경우에 대한 추론 방법을 소개한다. 선행연구의 가정을 완화하여 추론 방법을 제시하고 그에 대한 보조정리 및 정리를 제시한다. 제시된 비모수적 방법을 적용하면 서비스시간에 자기상관성이 존재하더라도 외부 관측치만을 사용하여 다중서버 대기행렬의 내부 행태를 추론할 수 있다. 주요 내부 추론 결과로는 대기시간과 서비스시간을 사용하였다. 또한 제시된 방법의 타당성 검증을 위해 실험 결과를 제시하였다.

상황인식 서비스의 안정적 운영을 위한 온톨로지 추론 엔진 선택을 위한 사례기반추론 접근법 (A Case-Based Reasoning Approach to Ontology Inference Engine Selection for Robust Context-Aware Services)

  • 심재문;권오병
    • 한국경영과학회지
    • /
    • 제33권2호
    • /
    • pp.27-44
    • /
    • 2008
  • Owl-based ontology is useful to realize the context-aware services which are composed of the distributed and self-configuring modules. Many ontology-based inference engines are developed to infer useful information from ontology. Since these engines show the uniqueness in terms of speed and information richness, it's difficult to ensure stable operation in providing dynamic context-aware services, especially when they should deal with the complex and big-size ontology. To provide a best inference service, the purpose of this paper is to propose a novel methodology of context-aware engine selection in a contextually prompt manner Case-based reasoning is applied to identify the causality between context and inference engined to be selected. Finally, a series of experiments is performed with a novel evaluation methodology to what extent the methodology works better than competitive methods on an actual context-aware service.

Ubiquitous Architectural Framework for UbiSAS using Context Adaptive Rule Inference Engine

  • Yoo, Yoon-Sik;Huh, Jae-Doo
    • 한국정보기술응용학회:학술대회논문집
    • /
    • 한국정보기술응용학회 2005년도 6th 2005 International Conference on Computers, Communications and System
    • /
    • pp.243-246
    • /
    • 2005
  • Recent ubiquitous computing environments increasingly impact on our lives using the current technologies of sensor network and ubiquitous services. In this paper, we propose ubiquitous architectural framework for ubiquitous sleep aid service(UbiSAS) in the subset of ubiquitous computing for refreshing of human's sleep. And we examine technical feasibility. Human can recover his health through refreshing sleep from fatigue. Ubiquitous architectural framework for UbiSAS in digital home offers agreeable sleeping environment and improves recovery from fatigue. So we present new concept of ubiquitous architectural framework dissolving stress. Specially, we apply context to context-aware framework module. This context is transferred to context adaptive inference engine which has service invocation function in intelligent agent module. Ubiquitous architectural framework for UbiSAS using context adaptive rule inference engine without user intervention is technical issue. That is to say, we should take sleep comfortably during our sleeping. And sensed information during sleeping is changed to context-aware information. This presents significant information in context adaptive rule inference engine for UbiSAS. This information includes all sleeping state during sleeping in context-aware computing technique. So we propose more effective and most suitable ubiquitous architectural framework using context adaptive rule inference engine for refreshing sleep in this paper.

  • PDF

CNN 모델의 최적 양자화를 위한 웹 서비스 플랫폼 (Web Service Platform for Optimal Quantization of CNN Models)

  • 노재원;임채민;조상영
    • 반도체디스플레이기술학회지
    • /
    • 제20권4호
    • /
    • pp.151-156
    • /
    • 2021
  • Low-end IoT devices do not have enough computation and memory resources for DNN learning and inference. Integer quantization of real-type neural network models can reduce model size, hardware computational burden, and power consumption. This paper describes the design and implementation of a web-based quantization platform for CNN deep learning accelerator chips. In the web service platform, we implemented visualization of the model through a convenient UI, analysis of each step of inference, and detailed editing of the model. Additionally, a data augmentation function and a management function of files that store models and inference intermediate results are provided. The implemented functions were verified using three YOLO models.

패싯(Facet)을 이용한 과학기술분야 시소러스 구축과 활용방안 (Building Thesaurus for Science & Technology Domain Using Facets and Its Application to Inference Services)

  • 황순희;정한민;성원경
    • 정보관리연구
    • /
    • 제37권3호
    • /
    • pp.61-84
    • /
    • 2006
  • 본 논문은 시소러스 구축 시 직면하는 문제점과 구축방법을 비판적으로 검토하고, 여러 가지 구축 방법 중 직접구축 방법을 제안하였다. 또한, 확장검색의 효율성을 보장할 수 있는 시소러스 구축을 위해 의미적 준거인 개념패싯, 관계패싯 등의 도입과 활용을 도입하였으며, 이를 이용하여 구축한 과학기술분야 시소러스의 구축사례를 제시하였다. 특별히, 패싯이 반영된 시소러스에는 다양한 관점이 반영될 수 있으므로 검색의 효율성이 보장된다는 장점이 있고, 인접 과학기술분야에 응용될 수 있다. 일례로 본 시소러스는 과학기술 연구자들의 협업을 지원하기 위한 정보유통 서비스에 응용될 수 있으며, 향후 고도화된 지식 서비스에도 확장 응용될 수 있다.

추론엔진을 활용한 웹서비스 기반 추천 시스템 (Web Service based Recommendation System using Inference Engine)

  • 김성태;박수민;양정진
    • 지능정보연구
    • /
    • 제10권3호
    • /
    • pp.59-72
    • /
    • 2004
  • 인터넷의 활용범위는 정보의 검색 및 수집을 넘어서 여러 범위로 확대되고 있고 정보의 양 또한 방대해졌다. 그러나 필요한 정보를 찾기는 더욱 어려워지고 있고, 그에 따라 개인에게 맞는 정보를 제공해주는 시스템이 절실해지고 있다. 본 연구에서는 웹 서비스 기반위에 추론엔진을 사용하여 사용자에게 가장 적합한 상품을 검색하여 추천해주는 추천 시스템의 모델을 제시하고 있다. 현재의 웹 애플리케이션이 사용자에게 필요한 서비스를 제공하는데 비하여 애플리케이션마다 상이한 플랫폼의 구조와 분산된 환경에서 객체간의 통신을 쉽게 하고 통일된 개발을 위해 표준이 필요하게 되었다. 웹 서비스는 프로그램 언어에 독립적이고 상호 운용적 환경을 제공하기 위한 것으로 네트워크를 통해 기술하고 배포하여 실행시킬 수 있는 모듈화된 애플리케이션을 의미한다. 본 논문은 웹 서비스 기반위에 시스템을 구축함으로써 표준 웹 서비스의 실현 가능성을 가늠하고, 추론엔진과 결합하여 사용자의 정보와 변화하는 성향을 토대로 필요한 정보를 예측하여 추천하는 추천시스템 개발에 중점을 둔다.

  • PDF

추론 비용 감소를 위한 Jess 추론과 시멘틱 웹 RL기반의 모바일 클라우드 상황인식 시스템 (Mobile Cloud Context-Awareness System based on Jess Inference and Semantic Web RL for Inference Cost Decline)

  • 정세훈;심춘보
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권1호
    • /
    • pp.19-30
    • /
    • 2012
  • 상황인식 서비스라는 개념은 컴퓨팅과 통신을 기반으로 서비스를 제공 받는자의 주변 상황을 컴퓨터가 인식하고 스스로 판단하여 사용자에게 유용한 정보를 제공하는 서비스이다. 그러나 모바일 환경에서 제한된 모바일 기능과 메모리 공간 및 추론 비용 증가로 인해 소규모의 상황인식 처리 능력을 가지는 단점과 추론 엔진의 부분 개발로 인한 상황 정보 추론 방식의 제한적인 형태로 나타나고 있다. 이에 본 논문에서는 특정 플랫폼에 종속되지 않고 다양한 모바일기기에서 상황인식 서비스를 제공받을 수 있도록 PaaS기반의 GAE을 이용한 모바일 클라우드 상황인식 시스템을 제안한다. 제안하는 시스템의 추론 설계 방식은 OWL의 온톨로지와 SWRL 규칙으로 표현되는 시멘틱 추론을 이용한 지식베이스 프레임워크와 규칙 기반의 추론 엔진을 제공하는 Jess를 활용하여 설계한다. 아울러 기존 추론 질의 방식인 시멘틱 검색의 SparQL 질의 추론 방식의 단점을 극복하고자 SWRL형태의 Rule 규칙 정보인 Class, Property, Individual등의 속성값들을 특정 플러그인을 이용하여 Jess 추론 엔진에 연결하도록 설계한다.

맥진 데이터의 온톨로지 표현과 진단 서비스 추론 시스템 (Ontology Representation of Pulse-Diagnosis Data and an Inference System for the Diagnosis Service)

  • 양동일;박순희;임화정;양해술;최형진
    • 정보처리학회논문지B
    • /
    • 제15B권3호
    • /
    • pp.237-244
    • /
    • 2008
  • 본 논문에서는 온톨로지로 구축된 맥 정보를 이용하여 유비쿼터스 컴퓨팅 환경에서 의료 정보 시스템의 상황 인식 서비스를 할 수 있도록 하는 기반 구조를 제안한다. 피검사자의 웨어러블 신호, 온도, 습도 그리고 시간 등을 요소로 사용하는 진맥 인식을 통하여 얻어진 맥진 데이터를 온톨로지로 표현하고 이를 바탕으로 진료 서비스 시나리오를 작성하는 진단 서비스 추론 시스템을 설계 및 구현하였다.