• 제목/요약/키워드: 추론망

검색결과 305건 처리시간 0.019초

오픈 플랫폼 호환 지능형 IoT 컴포넌트 자동 생성 도구 (Automatic Generation Tool for Open Platform-compatible Intelligent IoT Components)

  • 김서연;정진만;김봉재;윤영선;장준혁
    • 스마트미디어저널
    • /
    • 제11권11호
    • /
    • pp.32-39
    • /
    • 2022
  • AI 서비스를 제공하는 IoT 응용이 늘어나면서 자율적인 학습 및 추론을 지원하는 다양한 하드웨어와 소프트웨어들이 개발되고 있다. 하지만 하드웨어마다 특성 및 제약조건이 상이하여 IoT 응용 개발에 어려움이 가중됨에 따라 통합된 플랫폼의 개발이 요구되고 있다. 본 논문에서는 IoT 기술뿐만 아니라 인공 신경망 및 스파이킹 신경망 기반의 컴포넌트를 오픈 플랫폼과 호환되도록 자동 생성하는 도구를 제안한다. 제안하는 컴포넌트 자동 생성 도구는 IoT 및 AI의 가상 컴포넌트 계층을 통해 다양한 하드웨어의 특성에 맞는 컴포넌트 생성을 용이하게 하고 자동으로 오픈 플랫폼에 적용할 수 있도록 지원한다.

자기조직화 지도 신경망과 사례기반추론을 이용한 다변량 공정관리 (Integrated Procedure of Self-Organizing Map Neural Network and Case-Based Reasoning for Multivariate Process Control)

  • 강부식
    • 지능정보연구
    • /
    • 제9권1호
    • /
    • pp.53-69
    • /
    • 2003
  • 현대의 생산공정에서는 많은 공정변수가 발생하고 있으며 복잡한 연관관계를 가지고 제품의 품질에 영향을 미치고 있다. 따라서 공정의 이상 유무 확인을 위해서는 많은 품질특성치를 동시에 관리하는 다변량 공정관리가 필요하다. 본 연구는 자기조직화 신경망(SOM)과 사례기반추론(CBR) 기법을 이용한 다변량 공정관리 방안을 제안한다. SOM을 이용하여 공정 데이터의 패턴을 생성하고 이상 유무 판단을 위해 기준패턴과 적합성 검정을 한다. 제안한 방법의 검증을 위해 공정에서 발생 가능한 패턴별로 데이터를 생성하여 실험하였고, 실험을 통해 이상패턴을 효과적으로 구별할 수 있음을 보였다. 또한 CBR 방법론을 적용하여 1종 오류는 줄이면서 2종 오류를 아주 작게 유지할 수 있음을 보임으로써, SOM과 CBR 이 결합된 절차가 다변량 공정관리를 위한 한 대안이 될 수 있음을 보였다.

  • PDF

Nonstandard Machine Learning Algorithms for Microarray Data Mining

  • Zhang, Byoung-Tak
    • 한국생물정보학회:학술대회논문집
    • /
    • 한국생물정보시스템생물학회 2001년도 제2회 생물정보 워크샵 (DNA Chip Bioinformatics)
    • /
    • pp.165-196
    • /
    • 2001
  • DNA chip 또는 microarray는 다수의 유전자 또는 유전자 조각을 (보통 수천내지 수만 개)칩상에 고정시켜 놓고 DNA hybridization 반응을 이용하여 유전자들의 발현 양상을 분석할 수 있는 기술이다. 이러한 high-throughput기술은 예전에는 생각하지 못했던 여러가지 분자생물학의 문제에 대한 해답을 제시해 줄 수 있을 뿐 만 아니라, 분자수준에서의 질병 진단, 신약 개발, 환경 오염 문제의 해결 등 그 응용 가능성이 무한하다. 이 기술의 실용적인 적용을 위해서는 DNA chip을 제작하기 위한 하드웨어/웻웨어 기술 외에도 이러한 데이터로부터 최대한 유용하고 새로운 지식을 창출하기 위한 bioinformatics 기술이 핵심이라고 할 수 있다. 유전자 발현 패턴을 데이터마이닝하는 문제는 크게 clustering, classification, dependency analysis로 구분할 수 있으며 이러한 기술은 통계학과인공지능 기계학습에 기반을 두고 있다. 주로 사용된 기법으로는 principal component analysis, hierarchical clustering, k-means, self-organizing maps, decision trees, multilayer perceptron neural networks, association rules 등이다. 본 세미나에서는 이러한 기본적인 기계학습 기술 외에 최근에 연구되고 있는 새로운 학습 기술로서 probabilistic graphical model (PGM)을 소개하고 이를 DNA chip 데이터 분석에 응용하는 연구를 살펴본다. PGM은 인공신경망, 그래프 이론, 확률 이론이 결합되어 형성된 기계학습 모델로서 인간 두뇌의 기억과 학습 기작에 기반을 두고 있으며 다른 기계학습 모델과의 큰 차이점 중의 하나는 generative model이라는 것이다. 즉 일단 모델이 만들어지면 이것으로부터 새로운 데이터를 생성할 수 있는 능력이 있어서, 만들어진 모델을 검증하고 이로부터 새로운 사실을 추론해 낼 수 있어 biological data mining 문제에서와 같이 새로운 지식을 발견하는 exploratory analysis에 적합하다. 또한probabilistic graphical model은 기존의 신경망 모델과는 달리 deterministic한의사결정이 아니라 확률에 기반한 soft inference를 하고 학습된 모델로부터 관련된 요인들간의 인과관계(causal relationship) 또는 상호의존관계(dependency)를 분석하기에 적합한 장점이 있다. 군체적인 PGM 모델의 예로서, Bayesian network, nonnegative matrix factorization (NMF), generative topographic mapping (GTM)의 구조와 학습 및 추론알고리즘을소개하고 이를 DNA칩 데이터 분석 평가 대회인 CAMDA-2000과 CAMDA-2001에서 사용된cancer diagnosis 문제와 gene-drug dependency analysis 문제에 적용한 결과를 살펴본다.

  • PDF

Low Resolution Infrared Image Deep Convolution Neural Network for Embedded System

  • Hong, Yong-hee;Jin, Sang-hun;Kim, Dae-hyeon;Jhee, Ho-Jin
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권6호
    • /
    • pp.1-8
    • /
    • 2021
  • 본 논문은 저해상도 적외선영상을 사양이 낮은 임베디드 시스템에서 추론 가능하도록 강화된 VGG 스타일과 Global Average Pooling 조합으로 정확도를 증가시키면서 연산량을 최소화하는 딥러닝 컨볼루션 신경망을 이용한 저해상도 적외선 표적 분류 방법을 제안한다. 제안한 알고리즘은 OKTAL-SE로 생성한 합성영상 클래스 9개 3,723,328개를 분류하였다. 최초 임베디드 추론 가능하도록 파라메터 수가 최소화된 최대풀링 레이어 기준 입력단 8개와 출력단 8개 조합에 비해 강화된 VGG 스타일을 적용한 입력단 4개와 출력단 16개 필터수 조합을 이용하여 연산량은 약 34% 감소시켰으며, 정확도는 약 2.4% 증가시켜 최종 정확도 96.1%을 획득하였다. 추가로 C 코드로 포팅하여 수행시간을 확인하였으며, 줄어든 연산량 만큼 수행 시간이 약 32% 줄어든 것을 확인할 수 있었다.

양자화 기반의 모델 압축을 이용한 ONNX 경량화 (Lightweight of ONNX using Quantization-based Model Compression)

  • 장두혁;이정수;허준영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.93-98
    • /
    • 2021
  • 딥 러닝의 발전으로 다양한 AI 기반의 응용이 많아지고, 그 모델의 규모도 매우 커지고 있다. 그러나 임베디드 기기와 같이 자원이 제한적인 환경에서는 모델의 적용이 어렵거나 전력 부족 등의 문제가 존재한다. 이를 해결하기 위해서 클라우드 기술 또는 오프로딩 기술을 활용하거나, 모델의 매개변수 개수를 줄이거나 계산을 최적화하는 등의 경량화 방법이 제안되었다. 본 논문에서는 다양한 프레임워크들의 상호 교환 포맷으로 사용되고 있는 ONNX(개방형 신경망 교환 포맷) 포맷에 딥러닝 경량화 방법 중 학습된 모델의 양자화를 적용한다. 경량화 전 모델과의 신경망 구조와 추론성능을 비교하고, 양자화를 위한 다양한 모듈 방식를 분석한다. 실험을 통해 ONNX의 양자화 결과, 정확도는 차이가 거의 없으며 기존 모델보다 매개변수 크기가 압축되었으며 추론 시간 또한 전보다 최적화되었음을 알 수 있었다.

불확실 지상 표적의 인공지능 기반 위협도 평가 연구 (Artificial Intelligence based Threat Assessment Study of Uncertain Ground Targets)

  • 진승현
    • 한국산학기술학회논문지
    • /
    • 제22권6호
    • /
    • pp.305-313
    • /
    • 2021
  • 미래전의 양상은 네트워크 중심전으로 전체계의 연결을 통한 전장상황 정보획득 및 공유가 주를 이룰 것이다. 따라서 전장에서 생성되는 정보의 양은 많아지지만, 정보를 평가하여 전장을 효율적으로 지휘하는 기술은 부족한 것이 현실태이다. 이를 극복하기 위해 대두되는 기술이 전장 위협평가이다. 전장 위협평가는 획득된 정보를 사용하여 지휘관의 신속 결심을 지원하는 기술이지만 획득된 정보에는 표적의 불확실성이 많고 점차 지능화되는 전장상황에 적용하기에 현재 기술수준이 낮은 부분이 있다. 본 논문에서는 표적의 불확실성을 제거하고 고도화되는 전장상황에서도 적용 가능한 인공지능 기반의 전장 위협평가 기법에 대해 제안한다. 사용된 인공지능 시스템으로는 퍼지 추론 시스템과 다층 퍼셉트론을 사용하였다. 퍼지 추론 시스템에 표적의 고유특성을 입력시켜 표적을 분류해내었고 분류된 표적정보를 다른 표적 변수들과 함께 다층 퍼셉트론에 입력하여 해당 표적에 맞는 위협도 값을 산출하였다. 그 결과, 시뮬레이션을 통해 두 가지 시나리오상에서 무작위로 설정된 불확실 표적들을 인공신경망에 훈련시켰고, 훈련된 인공신경망에 시험용 표적을 입력하여 산출되는 위협도 값으로 제안한 기술의 타당성을 검증하였다.

Rete 알고리즘의 병렬 및 분산 처리에 관한 기존 연구 분석 (An Analysis of Existing Studies on Parallel and Distributed Processing of the Rete Algorithm)

  • 김재훈
    • 한국정보기술학회논문지
    • /
    • 제17권7호
    • /
    • pp.31-45
    • /
    • 2019
  • 현재 지능적 서비스의 핵심 기술은 딥러닝 즉 신경망, 그리고 GPU 병렬 컴퓨팅 및 빅 데이터와 같은 병렬 분산 처리 기술이다. 하지만 미래의 전 세계적으로 공유된 온톨로지를 통한 지능적 서비스 및 지식 공유 서비스에서는 지식의 표현 및 추론을 위하여 신경망보다 더 나은 방법이 있다. 그것은 시맨틱 웹의 표준 규칙 언어인 RIF 혹은 SWRL의 IF-THEN의 지식 표현이며, 이러한 규칙을 rete 알고리즘을 이용하여 효율적으로 추론할 수 있다. 하지만 단일 컴퓨터에서 동작하는 rete 알고리즘의 처리 규칙 수가 100,000개가 될 경우 그 성능이 수 십 분으로 매우 안 좋아지며, 분명한 한계가 존재한다. 따라서 본 논문에서는 rete 알고리즘의 병렬 및 분산 처리에 대한 과거로부터 현재까지의 연구 내용을 정리 분석하며, 이를 통해 효율적인 rete 알고리즘의 구현을 위해 어떤 측면들이 고려되어야 하는지를 살펴본다.

임베디드 보드에서의 CNN 모델 압축 및 성능 검증 (Compression and Performance Evaluation of CNN Models on Embedded Board)

  • 문현철;이호영;김재곤
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.200-207
    • /
    • 2020
  • CNN 기반 인공신경망은 영상 분류, 객체 인식, 화질 개선 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나, 많은 응용에서 딥러닝(Deep Learning) 모델의 복잡도 및 연산량이 방대해짐에 따라 IoT 기기 및 모바일 환경에 적용하기에는 제한이 따른다. 따라서 기존 딥러닝 모델의 성능을 유지하면서 모델 크기를 줄이는 인공신경망 압축 기법이 연구되고 있다. 본 논문에서는 인공신경망 압축기법을 통하여 원본 CNN 모델을 압축하고, 압축된 모델을 임베디드 시스템 환경에서 그 성능을 검증한다. 성능 검증을 위해 인공지능 지원 맞춤형 칩인 QCS605를 내장한 임베디드 보드에서 카메라로 입력한 영상에 대해서 원 CNN 모델과 압축 CNN 모델의 분류성능과 추론시간을 비교 분석한다. 본 논문에서는 이미지 분류 CNN 모델인 MobileNetV2, ResNet50 및 VGG-16에 가지치기(pruning) 및 행렬분해의 인공신경망 압축 기법을 적용하였고, 실험결과에서 압축된 모델이 원본 모델 분류 성능 대비 2% 미만의 손실에서 모델의 크기를 1.3 ~ 11.2배로 압축했을 뿐만 아니라 보드에서 추론시간과 메모리 소모량을 각각 1.2 ~ 2.1배, 1.2 ~ 3.8배 감소함을 확인했다.

핸드오프 호 손실율 가능성 분포에 의한 무선망의 퍼지 신경망 호 수락제어 (Fuzzy Neural Networks-Based Call Admission Control Using Possibility Distribution of Handoff Calls Dropping Rate for Wireless Networks)

  • 이진이
    • 한국항행학회논문지
    • /
    • 제13권6호
    • /
    • pp.901-906
    • /
    • 2009
  • 본 논문에서는 퍼지추론과 신경망 학습을 이용하여 무선망의 핸드오프호 손실율 가능성 분포의 상한계 값을 추정하고, 이를 기반으로 한 호 수락제어를 제안한다. 퍼지규칙의 소속함수는 신경망 오류역전파 알고리즘으로 튜닝하고, 핸드오프호 손실율의 상한계 값은 퍼지집합의 가중치 평균에 기초하여 추정한다. 이 방법은 호 손실율 값을 실제보다 과도하게 큰 값으로 추정하는 것을 방지하고, 추정된 값이 실제값보다 작을 때는 실시간적으로 자기보상을 실시하여 호 수락 제어시 호 손실율을 줄인다. 시뮬레이션을 통하여 제안한 방법에 의한 핸드오프 호 손실율의 상한계 값의 추정성능을 보이고, 이를 이용한 호 수락제어 방법이 핸드오프 호 손실율을 사용자가 원하는 핸드오프 호 손실율 이하로 유지할 수 있음을 보인다.

  • PDF

문장 수반 관계를 고려한 문서 요약 (Document Summarization Considering Entailment Relation between Sentences)

  • 권영대;김누리;이지형
    • 정보과학회 논문지
    • /
    • 제44권2호
    • /
    • pp.179-185
    • /
    • 2017
  • 문서의 요약은 요약문 내의 문장들끼리 서로 연관성 있게 이어져야 하고 하나의 짜임새 있는 글이 되어야 한다. 본 논문에서는 위의 목적을 달성하기 위해 문장 간의 유사도와 수반 관계(Entailment)를 고려하여 문서 내에서 연관성이 크고 의미, 개념적인 연결성이 높은 문장들을 추출할 수 있도록 하였다. 본 논문에서는 Recurrent Neural Network 기반의 문장 관계 추론 모델과 그래프 기반의 랭킹(Graph-based ranking) 알고리즘을 혼합하여 단일 문서 추출요약 작업에 적용한 새로운 알고리즘인 TextRank-NLI를 제안한다. 새로운 알고리즘의 성능을 평가하기 위해 기존의 문서요약 알고리즘인 TextRank와 동일한 데이터 셋을 사용하여 성능을 비교 분석하였으며 기존의 알고리즘보다 약 2.3% 더 나은 성능을 보이는 것을 확인하였다.