• Title/Summary/Keyword: 데이터 추론기법

Search Result 288, Processing Time 0.024 seconds

A Design of Effective Inference Methods and Their Application Guidelines for Supporting Various Medical Analytics Schemes (다양한 의료 분석 방식을 지원하는 효과적 추론 기법 설계 및 적용 지침)

  • Kim, Moon Kwon;La, Hyun Jung;Kim, Soo Dong
    • Journal of KIISE
    • /
    • v.42 no.12
    • /
    • pp.1590-1599
    • /
    • 2015
  • As a variety of personal medical devices appear, it is possible to acquire a large number of diverse medical contexts from the devices. There have been efforts to analyze the medical contexts via software applications. In this paper, we propose a generic model of medical analytics schemes that are used by medical experts, identify inference methods for realizing each medical analytics scheme, and present guidelines for applying the inference methods to the medical analytics schemes. Additionally, we develop a PoC inference system and analyze real medical contexts to diagnose relevant diseases so that we can validate the feasibility and effectiveness of the proposed medical analytics schemes and guidelines of applying inference methods.

An Adaptive Network Fuzzy Inference System for the Fault Types Classification in the Distribution Lines (배전선로의 고장유형 판별을 위한 적응형 퍼지추론 시스템)

  • 정호성;신명철
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.11 no.2
    • /
    • pp.101-108
    • /
    • 2001
  • 본 논문에서는 배전선로에서 발생하는 여러 고장유형을 판별하기 위해서 적응형 퍼지추론 시스템을 적용하는 새로운 기법을 제시하였다. 배전선로의 고장과 고장유사현상 데이터를 추출하기 위해서 EMTP를 이용하여 RL부하, 아크로부하, 컨버터부하가 있는 배전계통을 구성하고 여러 형태의 고장과 고장유사현상에 대해 시뮬레이션을 하였다. 이를 통해 얻은 전류 파형으로부터 기본파성분, 영상분전류, 짝수 고조파성분의 합, 홍수 고조파성분의 합, 그리고 비정규 고조파성분의 합의 5개의 입력변수를 추출하고 학습을 통해서 각 입력변수의 소속함수의 소속도를 자동으로 결정하였다. 이 적응형 퍼지추론 시스템을 이용한 기법을 평가하기 위해서 학습시와 다른 고장상황을 모의하여 얻은 데이터와 실증시험 데이터를 이용하였다. 결과적으로 제안한 기법은 배전선로에서 발생하는 고장유형을 빠르고 정확하게 판별할 수 있었다.

  • PDF

A Recommendation System based on Context Reasoning by Data Mining Techniques (데이터 마이닝 기법을 이용한 상황 추론 추천시스템)

  • Lee, Jae-Sik;Lee, Jin-Cheon
    • 한국경영정보학회:학술대회논문집
    • /
    • 2007.11a
    • /
    • pp.591-596
    • /
    • 2007
  • 본 연구에서는 상황 추론의 기능을 추천 시스템에 접목하였다. 연구의 대상 영역은 음악 추천 분야인데, 본 연구에서 제안하는 시스템은 세 개의 모듈, 즉 Intention Module, Mood Module 그리고 Recommendation Module로 구성되어 있다. Intention Module은 사용자가 음악을 청취할 의향이 있는지 없는지를 외부 환경의 상황 데이터를 이용하여 추론한다. Mood Module은 사용자의 상황에 적합한 음악의 장르를 추론한다. 마지막으로 Recommendation Module은 사용자에게 선정된 장르의 음악을 추천한다.

  • PDF

유사추론 기반 예측모형

  • Jang, Yong-Sik;Choe, Yun-Jeong
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2007.11a
    • /
    • pp.581-585
    • /
    • 2007
  • 본 연구는 비선형적인 시계열 자료로부터 최신 데이터와 유사한 사례를 탐색하여 미래를 예측하기 위하여 유사추론 기법을 이용한 예측 알고리즘을 제안한다. 기존의 연구들이 최신 데이터와 과거 사례와의 유사성을 비교하기 위해 유클리디언 거리 또는 평균 제곱에러 등을 이용하나, 추세의 유사성을 고려하지는 않는다. 본 연구는 사례 구간 크기, 예측 오차, 평균차이 검증, 사례간 추세의 유사성 등 다차원적 유사추론 요인을 이용한 예측방법과 그 효과를 제시한다.

  • PDF

A research for the performance improvement of ontology reasoning systems (온톨로지 추론시스템의 성능 향상에 관한 연구)

  • Lee Sung-Goog;Lee Jee-Hyong
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.04a
    • /
    • pp.327-330
    • /
    • 2005
  • 시멘틱웹이란 컴퓨터가 정보의 의미를 이해하고 그 의미를 조작 할 수 있는 웹으로서 기존의 웹으로는 불가능했던 데이터의 자동처리를 가능하게 하는 차세대 웹 기술을 말한다. 이러한 웹을 위해서는 표준화된 데이터 표현 방법을 통해 기술된 내용을 기계가 이해할 수 있도록 해주는 온톨로지 시스템이 필요하다. 온톨로지 시스템은 일반적으로 OWL(web ontology language)로 표현된 온톨로지와 지식을 처리하는 추론시스템으로 구성되어 있으며 추론시스템으로는 연구 구현 예가 많은 LP(Logic Programming)방식의 추론시스템이 많이 사용된다. 하지만 LP방식의 추론기법들은 온톨로지를 처리하는데 있어 여러 가지 제약사항을 가지며 이로 인해 온톨로지 정보의 추론에 대한 효용성은 떨어진다. 이에 본 논문에서는 온톨로지 정보를 추론하기 위해 사용되는 기존 시스템들을 조사해 분류하고 문제점과 장점을 파악한 후 추론엔진의 효용성을 높이는데 필요한 최소한의 기능이 무엇인지 파악하여 기존의 LP엔진을 최대한 활용한 OWL추론엔진을 개발하는데 이용하고자 한다.

  • PDF

An anonymization technique with balanced distribution of sensitive value by considering specialty among data holders in taxonomy (분류체계에서 제공자 간 전문성을 고려하여 민감 속성의 균형을 보장하는 익명화 기법)

  • Kim, Hak-In;Jung, Kang-Soo;Park, Seog
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.128-130
    • /
    • 2012
  • 본 논문은 추론 공격 가능성 범위를 확장하여 다수 제공자의 참여를 기반으로 개인에 관한 정보를 배포하는 환경에서의 추론공격 가능성을 고려한다. 환경의 특성상 참여자는 자신이 보유한 환자 데이터와 외부지식을 결합하여 개인의 민감한 정보를 추론할 수 있다. 또한 기존의 추론공격을 방지하는 익명화 기법은 다수 제공자 환경을 고려하지 않기 때문에 추가적인 추론 공격이 가능하다. 본 논문은 제공자에 의한 추론 공격을 보이고 이를 방지하는 기법으로 s-cohesion을 제안한다.

Intelligent Service Reasoning Model Using Data Mining In Smart Home Environments (스마트 홈 환경에서 데이터 마이닝 기법을 이용한 지능형 서비스 추론 모델)

  • Kang, Myung-Seok;Kim, Hag-Bae
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.32 no.12B
    • /
    • pp.767-778
    • /
    • 2007
  • In this paper, we propose a Intelligent Service Reasoning (ISR) model using data mining in smart home environments. Our model creates a service tree used for service reasoning on the basis of C4.5 algorithm, one of decision tree algorithms, and reasons service that will be offered to users through quantitative weight estimation algorithm that uses quantitative characteristic rule and quantitative discriminant rule. The effectiveness in the performance of the developed model is validated through a smart home-network simulation.

Distributed Table Join for Scalable RDFS Reasoning on Cloud Computing Environment (클라우드 컴퓨팅 환경에서의 대용량 RDFS 추론을 위한 분산 테이블 조인 기법)

  • Lee, Wan-Gon;Kim, Je-Min;Park, Young-Tack
    • Journal of KIISE
    • /
    • v.41 no.9
    • /
    • pp.674-685
    • /
    • 2014
  • The Knowledge service system needs to infer a new knowledge from indicated knowledge to provide its effective service. Most of the Knowledge service system is expressed in terms of ontology. The volume of knowledge information in a real world is getting massive, so effective technique for massive data of ontology is drawing attention. This paper is to provide the method to infer massive data-ontology to the extent of RDFS, based on cloud computing environment, and evaluate its capability. RDFS inference suggested in this paper is focused on both the method applying MapReduce based on RDFS meta table, and the method of single use of cloud computing memory without using MapReduce under distributed file computing environment. Therefore, this paper explains basically the inference system structure of each technique, the meta table set-up according to RDFS inference rule, and the algorithm of inference strategy. In order to evaluate suggested method in this paper, we perform experiment with LUBM set which is formal data to evaluate ontology inference and search speed. In case LUBM6000, the RDFS inference technique based on meta table had required 13.75 minutes(inferring 1,042 triples per second) to conduct total inference, whereas the method applying the cloud computing memory had needed 7.24 minutes(inferring 1,979 triples per second) showing its speed twice faster.

(On designing Temperature Control System of the Air-conditioner using immune system) (면역 시스템을 이용한 에어콘의 온도 제어 시스템 설계)

  • Seo, Jae-Yong;Jo, Hyeon-Chan;Jeon, Hong-Tae
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.39 no.1
    • /
    • pp.1-6
    • /
    • 2002
  • In this paper, we propose temperature inference system for indoor and outdoor temperature of the Air-Conditioner with limited sensors. The proposed system based on the network theory of biological immune system consists of indoor and outdoor temperature inference process. It is designed that on-line temperature inference is possible. This system is admirable for unlearned data as well as given input data by making efficient use of previous information.

Scalable Ontology Reasoning Using GPU Cluster Approach (GPU 클러스터 기반 대용량 온톨로지 추론)

  • Hong, JinYung;Jeon, MyungJoong;Park, YoungTack
    • Journal of KIISE
    • /
    • v.43 no.1
    • /
    • pp.61-70
    • /
    • 2016
  • In recent years, there has been a need for techniques for large-scale ontology inference in order to infer new knowledge from existing knowledge at a high speed, and for a diversity of semantic services. With the recent advances in distributed computing, developments of ontology inference engines have mostly been studied based on Hadoop or Spark frameworks on large clusters. Parallel programming techniques using GPGPU, which utilizes many cores when compared with CPU, is also used for ontology inference. In this paper, by combining the advantages of both techniques, we propose a new method for reasoning large RDFS ontology data using a Spark in-memory framework and inferencing distributed data at a high speed using GPGPU. Using GPGPU, ontology reasoning over high-capacity data can be performed as a low cost with higher efficiency over conventional inference methods. In addition, we show that GPGPU can reduce the data workload on each node through the Spark cluster. In order to evaluate our approach, we used LUBM ranging from 10 to 120. Our experimental results showed that our proposed reasoning engine performs 7 times faster than a conventional approach which uses a Spark in-memory inference engine.