• 제목/요약/키워드: Machine Learning and Artificial Intelligence

검색결과 792건 처리시간 0.023초

혈액암 인자 유효성 검증과 분류를 위한 진단 예측 알고리즘 성능 비교 분석 (Comparative Analysis of Diagnostic Prediction Algorithm Performance for Blood Cancer Factor Validation and Classification)

  • 정재승;주현수;조치현
    • 한국멀티미디어학회논문지
    • /
    • 제25권10호
    • /
    • pp.1512-1523
    • /
    • 2022
  • Artificial intelligence application in digital health care has been increasing with its development of artificial intelligence. The convergence of the healthcare industry and information and communication technology makes the diagnosis of diseases more simple and comprehensible. From the perspective of medical services, its practice as an initial test and a reference indicator may become widely applicable. Therefore, analyzing the factors that are the basis for existing diagnosis protocols also helps suggest directions using artificial intelligence beyond previous regression and statistical analyses. This paper conducts essential diagnostic prediction learning based on the analysis of blood cancer factors reported previously. Blood cancer diagnosis predictions based on artificial intelligence contribute to successfully achieve more than 90% accuracy and validation of blood cancer factors as an alternative auxiliary approach.

PartitionTuner: An operator scheduler for deep-learning compilers supporting multiple heterogeneous processing units

  • Misun Yu;Yongin Kwon;Jemin Lee;Jeman Park;Junmo Park;Taeho Kim
    • ETRI Journal
    • /
    • 제45권2호
    • /
    • pp.318-328
    • /
    • 2023
  • Recently, embedded systems, such as mobile platforms, have multiple processing units that can operate in parallel, such as centralized processing units (CPUs) and neural processing units (NPUs). We can use deep-learning compilers to generate machine code optimized for these embedded systems from a deep neural network (DNN). However, the deep-learning compilers proposed so far generate codes that sequentially execute DNN operators on a single processing unit or parallel codes for graphic processing units (GPUs). In this study, we propose PartitionTuner, an operator scheduler for deep-learning compilers that supports multiple heterogeneous PUs including CPUs and NPUs. PartitionTuner can generate an operator-scheduling plan that uses all available PUs simultaneously to minimize overall DNN inference time. Operator scheduling is based on the analysis of DNN architecture and the performance profiles of individual and group operators measured on heterogeneous processing units. By the experiments for seven DNNs, PartitionTuner generates scheduling plans that perform 5.03% better than a static type-based operator-scheduling technique for SqueezeNet. In addition, PartitionTuner outperforms recent profiling-based operator-scheduling techniques for ResNet50, ResNet18, and SqueezeNet by 7.18%, 5.36%, and 2.73%, respectively.

A TabNet - Based System for Water Quality Prediction in Aquaculture

  • Nguyen, Trong–Nghia;Kim, Soo Hyung;Do, Nhu-Tai;Hong, Thai-Thi Ngoc;Yang, Hyung Jeong;Lee, Guee Sang
    • 스마트미디어저널
    • /
    • 제11권2호
    • /
    • pp.39-52
    • /
    • 2022
  • In the context of the evolution of automation and intelligence, deep learning and machine learning algorithms have been widely applied in aquaculture in recent years, providing new opportunities for the digital realization of aquaculture. Especially, water quality management deserves attention thanks to its importance to food organisms. In this study, we proposed an end-to-end deep learning-based TabNet model for water quality prediction. From major indexes of water quality assessment, we applied novel deep learning techniques and machine learning algorithms in innovative fish aquaculture to predict the number of water cells counting. Furthermore, the application of deep learning in aquaculture is outlined, and the obtained results are analyzed. The experiment on in-house data showed an optimistic impact on the application of artificial intelligence in aquaculture, helping to reduce costs and time and increase efficiency in the farming process.

Experience Way of Artificial Intelligence PLAY Educational Model for Elementary School Students

  • Lee, Kibbm;Moon, Seok-Jae
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권4호
    • /
    • pp.232-237
    • /
    • 2020
  • Given the recent pace of development and expansion of Artificial Intelligence (AI) technology, the influence and ripple effects of AI technology on the whole of our lives will be very large and spread rapidly. The National Artificial Intelligence R&D Strategy, published in 2019, emphasizes the importance of artificial intelligence education for K-12 students. It also mentions STEM education, AI convergence curriculum, and budget for supporting the development of teaching materials and tools. However, it is necessary to create a new type of curriculum at a time when artificial intelligence curriculum has never existed before. With many attempts and discussions going very fast in all countries on almost the same starting line. Also, there is no suitable professor for K-12 students, and it is difficult to make K-12 students understand the concept of AI. In particular, it is difficult to teach elementary school students through professional programming in AI education. It is also difficult to learn tools that can teach AI concepts. In this paper, we propose an educational model for elementary school students to improve their understanding of AI through play or experience. This an experiential education model that combineds exploratory learning and discovery learning using multi-intelligence and the PLAY teaching-learning model to undertand the importance of data training or data required for AI education. This educational model is designed to learn how a computer that knows only binary numbers through UA recognizes images. Through code.org, students were trained to learn AI robots and configured to understand data bias like play. In addition, by learning images directly on a computer through TeachableMachine, a tool capable of supervised learning, to understand the concept of dataset, learning process, and accuracy, and proposed the process of AI inference.

Network Traffic Measurement Analysis using Machine Learning

  • Hae-Duck Joshua Jeong
    • 한국인공지능학회지
    • /
    • 제11권2호
    • /
    • pp.19-27
    • /
    • 2023
  • In recent times, an exponential increase in Internet traffic has been observed as a result of advancing development of the Internet of Things, mobile networks with sensors, and communication functions within various devices. Further, the COVID-19 pandemic has inevitably led to an explosion of social network traffic. Within this context, considerable attention has been drawn to research on network traffic analysis based on machine learning. In this paper, we design and develop a new machine learning framework for network traffic analysis whereby normal and abnormal traffic is distinguished from one another. To achieve this, we combine together well-known machine learning algorithms and network traffic analysis techniques. Using one of the most widely used datasets KDD CUP'99 in the Weka and Apache Spark environments, we compare and investigate results obtained from time series type analysis of various aspects including malicious codes, feature extraction, data formalization, network traffic measurement tool implementation. Experimental analysis showed that while both the logistic regression and the support vector machine algorithm were excellent for performance evaluation, among these, the logistic regression algorithm performs better. The quantitative analysis results of our proposed machine learning framework show that this approach is reliable and practical, and the performance of the proposed system and another paper is compared and analyzed. In addition, we determined that the framework developed in the Apache Spark environment exhibits a much faster processing speed in the Spark environment than in Weka as there are more datasets used to create and classify machine learning models.

의료 인공지능에서의 멀티 태스크 러닝의 이해와 활용 (Understanding and Application of Multi-Task Learning in Medical Artificial Intelligence)

  • 김영재;김광기
    • 대한영상의학회지
    • /
    • 제83권6호
    • /
    • pp.1208-1218
    • /
    • 2022
  • 최근, 의료 분야에서 인공지능은 많은 발전을 통해 다양한 분야로 확장하며 활용되고 있다. 하지만 대부분의 인공지능 기술들은 하나의 모델이 하나의 태스크만을 수행할 수 있도록 개발되고 있으며, 이는 의사들의 복잡한 판독 과정을 인공지능으로 설계하는데 한계로 작용한다. 멀티 태스크 러닝은 이러한 한계를 극복하기 위한 최적의 방안으로 알려져 있다. 다양한 태스크들을 동시에 하나의 모델로 학습함으로써, 효율적이고 일반화에 유리한 모델을 만들수 있다. 본 종설에서는 멀티 태스크 러닝에 대한 개념과 종류, 유사 개념 등에 대해 알아보고, 연구 사례들을 통해 의료 분야에서의 멀티 태스크 러닝의 활용 현황과 향후 가능성을 살펴보고자 한다.

소리 데이터를 활용한 블록 기반의 초등 머신러닝 교육 프로그램 설계 (Design of Machine Learning Education Program for Elementary School Students Based on Sound Data)

  • 고승환;이준호;문우종;김종훈
    • 한국정보교육학회:학술대회논문집
    • /
    • 한국정보교육학회 2021년도 학술논문집
    • /
    • pp.7-11
    • /
    • 2021
  • 본 연구는 초등학교에서 쉽게 적용할 수 있는 소리 데이터를 활용한 블록 기반의 머신러닝 교육 프로그램을 설계하였다. 교육 프로그램은 ADDIE 모형에 따라 사전에 초등학교 교사 70명을 대상으로 실시한 요구 분석을 결과를 바탕으로 그 목표와 방향을 설계하였다. 머신러닝 포 키즈 중 블록 기반의 프로그래밍을 위해 스크래치를 사용하였고 소리 데이터를 활용하여 데이터값의 규칙성을 발견하고 인공지능의 원리를 학습하고 직접 문제를 해결하는 프로그래밍 과정에서 컴퓨팅 사고력을 향상할 수 있도록 교육 프로그램을 설계하였다. 추후의 연구에서 본 교육 프로그램을 적용하고 인공지능에 대한 태도와 컴퓨팅 사고력에 어떤 변화가 있는지 검증이 필요하다.

  • PDF

머신러닝 기반 금속외관 결함 검출 비교 분석 (Comparative analysis of Machine-Learning Based Models for Metal Surface Defect Detection)

  • 이세훈;강성환;신요섭;최오규;김시종;강재모
    • 한국정보통신학회논문지
    • /
    • 제26권6호
    • /
    • pp.834-841
    • /
    • 2022
  • 최근 스마트팩토리와 인공지능 기술의 수요 증가로 인해 다양한 분야에서 인공지능 기술을 적용하는 연구가 진행되고 있다. 결함 검사 분야에서도 인공지능 알고리즘을 도입하기 위한 노력을 기울이고 있다. 특히, 금속 외관의 결함을 검출하는 연구는 다른 소재(목재, 플라스틱, 섬유 등)의 결함을 검출하는 연구에 비해 많은 연구가 이루어지고 있다. 본 논문에서는 머신러닝 기법(서포터 벡터 머신(SVM: Support Vector Machine), 소프트맥스 회귀(Softmax Regression), 결정 트리(Decesion Tree))과 차원 축소 알고리즘(주성분 분석(PCA: Principal Component Analysis), 오토인코더(AutoEncoder))의 9가지 조합과 2가지 합성곱신경망(CNN: Convolutional Neural Network) 기법(자체 알고리즘, ResNet)의 금속 외관의 결함 분류 성능 및 속도를 비교하고 분석하는 연구를 수행하고자 한다. 두 종류의 학습 데이터셋((i) 공용 데이터셋(Public Dataset), (ii) 실측 데이터셋(Actual Dataset))에 대한 실험을 통해 각 데이터셋에 대한 성능 및 속도를 비교 분석하고, 가장 효율적인 알고리즘을 찾아낸다.

인공지능의 역사, 분류 그리고 발전 방향에 관한 연구 (A Study on the History, Classification and Development Direction of Artificial Intelligence)

  • 조민호
    • 한국전자통신학회논문지
    • /
    • 제16권2호
    • /
    • pp.307-312
    • /
    • 2021
  • 인공지능은 오랜 역사가 있으며, 이미지 인식이나 자동번역 분야를 포함한 여러 분야에서 활용되고 있다. 그래서 처음 인공지능을 접하는 경우에 많은 용어와 개념, 기술 때문에 연구의 방향 설정이나 수행에 어려움을 겪는 경우가 많다. 이번 연구는 이러한 어려움을 겪는 연구자들에게 도움이 될 수 있도록 인공지능에 관련된 중요 개념을 정리하고, 지난 60년의 발전 과정을 요약한다. 이를 통하여 방대한 인공지능 기술 활용의 기초를 확립하고 올바른 연구의 방향성을 수립할 수 있다.

인공지능 기반의 자동화된 통합보안관제시스템 모델 연구 (A Study on Artificial Intelligence-based Automated Integrated Security Control System Model)

  • 남원식;조한진
    • 스마트미디어저널
    • /
    • 제13권3호
    • /
    • pp.45-52
    • /
    • 2024
  • 오늘날 점점 증가하는 위협 환경에서는 보안 이벤트에 대한 신속하고 효과적인 탐지 및 대응이 필수적이다. 이러한 문제를 해결하기 위해 많은 기업과 조직에서는 다양한 보안관제시스템을 도입하여 보안 위협에 대응하고 있다. 그러나 기존 보안관제시스템은 보안 이벤트의 복잡성과 다양한 특성으로 인해 어려움을 겪고 있다. 본 연구에서는 인공지능 기반의 자동화된 통합보안관제시스템 모델을 제안하였다. 인공지능 기술인 딥러닝을 기반으로 하여 다양한 보안 이벤트에 대해 효과적인 탐지와 이를 처리하는 기능들을 제공한다. 이를 위해 모델은 기존의 보안관제시스템 한계를 극복하기 위하여 다양한 인공지능 알고리즘과 머신러닝 방법을 적용한다. 제안된 모델은 운영자의 업무량을 줄이고 효율적인 운영을 보장하며 보안 위협에 대한 신속한 대응을 지원하게 될 것이다.