• 제목/요약/키워드: Dataset for AI

검색결과 203건 처리시간 0.027초

조음장애 아동의 언어학습을 위한 인공지능 애플리케이션 UX/UI 연구 (Artificial intelligence application UX/UI study for language learning of children with articulation disorder)

  • 양은미;박대우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.174-176
    • /
    • 2022
  • 본 논문에서는인공지능(AI; Artificial Intelligence)알고리즘을 활용한 조음 장애 아동들의 '개인화된 맞춤형 학습' 모바일 애플리케이션을 제시한다. 조음과 관련된 빅데이터(Big Data)를 수집-정제-가공한 데이터 셋(Data Set)으로 학습자의 조음 상황 및 정도를 분석, 판단, 예측한다. 특히, 인공지능 활용 시 기존 애플리케이션에 비해 어떻게 개선되고 고도화할수 있는지를 UX/UI(GUI) 측면에서 바라보고 프로토타입 모델을 설계해 보았다. 지금까지 시각적 경험에 많이 치중해 있었다면, 이제는 데이터를 어떻게 가공하여 사용자에게 UX/UI(GUI) 경험을 제공할 수 있는지가 중요한 시점이다. 제시한 모바일 애플리케이션의 UX/UI(GUI)는 딥러닝(Deep Learning)의 CRNN(Convolution Recurrent Neural Network)과 Auto Encoder GPT-3 (Generative Pretrained Transformer)를 활용하여 학습자의 조음 정도와 상황에 맞게 제공하고자 하였다. 인공지능 알고리즘의 활용은 조음 장애 아동들에게 완성도 높은 학습환경을 제공하여 학습효과를 높일 수 있를 것이다. '개인화된 맞춤형 학습'으로 조음의 완성도를 높여서, 대화에 대한 두려움이나 불편함을 갖지 않길 바란다.

  • PDF

빅데이터 기반 2형 당뇨 예측 알고리즘 개발 (Development of Type 2 Prediction Prediction Based on Big Data)

  • 심현;김현욱
    • 한국전자통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.999-1008
    • /
    • 2023
  • 당뇨병과 같은 만성 질환의 조기 예측은 중요한 이슈이며, 그중에서도 당뇨 예측의 정확도 향상은 매우 중요하다. 당뇨 예측을 위한 다양한 기계 학습 및 딥 러닝 기반 방법론을 도입하고 있으나, 이러한 기술들은 다른 방법론보다 더 우수한 성능을 위해 대량의 데이터를 필요로 하며, 복잡한 데이터 모델 때문에 학습 비용이 높다. 본 연구에서는 pima 데이터셋과 k-fold 교차 검증을 사용한 DNN이 당뇨 진단 모델의 효율성을 감소시킨다는 주장을 검증하고자 한다. 의사 결정 트리, SVM, 랜덤 포레스트, 로지스틱 회귀, KNN 및 다양한 앙상블 기법과 같은 기계 학습 분류 방법을 사용하여 어떤 알고리즘이 최상의 예측 결과를 내는지 결정하였다. 모든 분류 모델에 대한 훈련 및 테스트 후 제안된 시스템은 ADASYN 방법과 함께 XGBoost 분류기에서 최상의 결과를 제공하였으며, 정확도는 81%, F1 계수는 0.81, AUC는 0.84였다. 또한 도메인 적응 방법이 제안된 시스템의 다양성을 보여주기 위해 구현되었다. LIME 및 SHAP 프레임워크를 사용한 설명 가능한 AI 접근 방식이 모델이 최종 결과를 어떻게 예측하는지 이해하기 위해 구현되었다.

전동 이동 보조기기 주행 안전성 향상을 위한 AI기반 객체 인식 모델의 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 우제승;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.166-172
    • /
    • 2022
  • 본 연구에서는 전동 이동 보조기기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기기의 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.

구조부재 인식을 위한 인공지능 학습데이터 생성방법 연구 (A Study on Artificial Intelligence Learning Data Generation Method for Structural Member Recognition)

  • 윤정현;김시욱;김치경
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2022년도 봄 학술논문 발표대회
    • /
    • pp.229-230
    • /
    • 2022
  • With the development of digital technology, construction companies at home and abroad are in the process of computerizing work and site information for the purpose of improving work efficiency. To this end, various technologies such as BIM, digital twin, and AI-based safety management have been developed, but the accuracy and completeness of the related technologies are insufficient to be applied to the field. In this paper, the learning data that has undergone a pre-processing process optimized for recognition of construction information based on structural members is trained on an existing artificial intelligence model to improve recognition accuracy and evaluate its effectiveness. The artificial intelligence model optimized for the structural member created through this study will be used as a base technology for the technology that needs to confirm the safety of the structure in the future.

  • PDF

Improving Accuracy of Instance Segmentation of Teeth

  • Jongjin Park
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.280-286
    • /
    • 2024
  • In this paper, layered UNet with warmup and dropout tricks was used to segment teeth instantly by using data labeled for each individual tooth and increase performance of the result. The layered UNet proposed before showed very good performance in tooth segmentation without distinguishing tooth number. To do instance segmentation of teeth, we labeled teeth CBCT data according to tooth numbering system which is devised by FDI World Dental Federation notation. Colors for labeled teeth are like AI-Hub teeth dataset. Simulation results show that layered UNet does also segment very well for each tooth distinguishing tooth number by color. Layered UNet model using warmup trick was the best with IoU values of 0.80 and 0.77 for training, validation data. To increase the performance of instance segmentation of teeth, we need more labeled data later. The results of this paper can be used to develop medical software that requires tooth recognition, such as orthodontic treatment, wisdom tooth extraction, and implant surgery.

Reliable Fault Diagnosis Method Based on An Optimized Deep Belief Network for Gearbox

  • Oybek Eraliev;Ozodbek Xakimov;Chul-Hee Lee
    • 드라이브 ㆍ 컨트롤
    • /
    • 제20권4호
    • /
    • pp.54-63
    • /
    • 2023
  • High and intermittent loading cycles induce fatigue damage to transmission components, resulting in premature gearbox failure. To identify gearbox defects, numerous vibration-based diagnostics techniques, using several artificial intelligence (AI) algorithms, have recently been presented. In this paper, an optimized deep belief network (DBN) model for gearbox problem diagnosis was designed based on time-frequency visual pattern identification. To optimize the hyperparameters of the model, a particle swarm optimization (PSO) approach was integrated into the DBN. The proposed model was tested on two gearbox datasets: a wind turbine gearbox and an experimental gearbox. The optimized DBN model demonstrated strong and robust performance in classification accuracy. In addition, the accuracy of the generated datasets was compared using traditional ML and DL algorithms. Furthermore, the proposed model was evaluated on different partitions of the dataset. The results showed that, even with a small amount of sample data, the optimized DBN model achieved high accuracy in diagnosis.

임베디드 엣지 플랫폼에서의 경량 비전 트랜스포머 성능 평가 (Performance Evaluation of Efficient Vision Transformers on Embedded Edge Platforms)

  • 이민하;이성재;김태현
    • 대한임베디드공학회논문지
    • /
    • 제18권3호
    • /
    • pp.89-100
    • /
    • 2023
  • Recently, on-device artificial intelligence (AI) solutions using mobile devices and embedded edge devices have emerged in various fields, such as computer vision, to address network traffic burdens, low-energy operations, and security problems. Although vision transformer deep learning models have outperformed conventional convolutional neural network (CNN) models in computer vision, they require more computations and parameters than CNN models. Thus, they are not directly applicable to embedded edge devices with limited hardware resources. Many researchers have proposed various model compression methods or lightweight architectures for vision transformers; however, there are only a few studies evaluating the effects of model compression techniques of vision transformers on performance. Regarding this problem, this paper presents a performance evaluation of vision transformers on embedded platforms. We investigated the behaviors of three vision transformers: DeiT, LeViT, and MobileViT. Each model performance was evaluated by accuracy and inference time on edge devices using the ImageNet dataset. We assessed the effects of the quantization method applied to the models on latency enhancement and accuracy degradation by profiling the proportion of response time occupied by major operations. In addition, we evaluated the performance of each model on GPU and EdgeTPU-based edge devices. In our experimental results, LeViT showed the best performance in CPU-based edge devices, and DeiT-small showed the highest performance improvement in GPU-based edge devices. In addition, only MobileViT models showed performance improvement on EdgeTPU. Summarizing the analysis results through profiling, the degree of performance improvement of each vision transformer model was highly dependent on the proportion of parts that could be optimized in the target edge device. In summary, to apply vision transformers to on-device AI solutions, either proper operation composition and optimizations specific to target edge devices must be considered.

객체 인식 모델과 지면 투영기법을 활용한 영상 내 다중 객체의 위치 보정 알고리즘 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 박동석;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제24권2호
    • /
    • pp.119-125
    • /
    • 2023
  • 본 연구에서는 전동 이동 보조기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.

항공 및 위성영상을 활용한 토지피복 관련 인공지능 학습 데이터 구축 및 알고리즘 적용 연구 (A Study of Establishment and application Algorithm of Artificial Intelligence Training Data on Land use/cover Using Aerial Photograph and Satellite Images)

  • 이성혁;이명진
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.871-884
    • /
    • 2021
  • 본 연구의 목적은 항공 및 위성영상을 활용한 토지피복 관련 인공지능 학습 데이터를 구축, 검증 및 알고리즘 적용의 효율화 방안을 연구하였다. 이를 위하여 토지피복 8개 항목에 대하여 고해상도의 항공영상 및 Sentinel-2 인공위성에서 얻은 이미지를 사용하여 0.51 m 및 10 m Multi-resolution 데이터셋을 구축하였다. 또한, 학습 데이터의 구성은 Fine data (총 17,000개) 와 Coarse data (총 33,000개)를 동시 구축 및 정밀한 변화 탐지 및 대규모 학습 데이터셋 구축이라는 2가지 목적을 달성하였다. 학습 데이터의 정확도를 위한 검수는 정제 데이터, 어노테이션 및 샘플링으로 3단계로 진행하였다. 최종적으로 검수가 완료된 학습데이터를 Semantic Segmentation 알고리즘 중 U-Net, DeeplabV3+에 적용하여, 결과를 분석하였다. 분석결과 항공영상 기반의 토지피복 평균 정확도는 U- Net 77.8%, Deeplab V3+ 76.3% 및 위성영상 기반의 토지피복에 대한 평균 정확도는 U-Net 91.4%, Deeplab V3+ 85.8%이다. 본 연구를 통하여 구축된 고해상도 항공영상 및 위성영상을 이용한 토지피복 인공지능 학습 데이터셋은 토지피복 변화 및 분류에 도움이 되는 참조자료로 활용이 가능하다. 향후 우리나라 전체를 대상으로 인공지능 학습 데이터셋 구축 시, 토지피복을 연구하는 다양한 인공지능 분야에 활용될 것으로 기대된다.

Contextual Modeling in Context-Aware Conversation Systems

  • Quoc-Dai Luong Tran;Dinh-Hong Vu;Anh-Cuong Le;Ashwin Ittoo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권5호
    • /
    • pp.1396-1412
    • /
    • 2023
  • Conversation modeling is an important and challenging task in the field of natural language processing because it is a key component promoting the development of automated humanmachine conversation. Most recent research concerning conversation modeling focuses only on the current utterance (considered as the current question) to generate a response, and thus fails to capture the conversation's logic from its beginning. Some studies concatenate the current question with previous conversation sentences and use it as input for response generation. Another approach is to use an encoder to store all previous utterances. Each time a new question is encountered, the encoder is updated and used to generate the response. Our approach in this paper differs from previous studies in that we explicitly separate the encoding of the question from the encoding of its context. This results in different encoding models for the question and the context, capturing the specificity of each. In this way, we have access to the entire context when generating the response. To this end, we propose a deep neural network-based model, called the Context Model, to encode previous utterances' information and combine it with the current question. This approach satisfies the need for context information while keeping the different roles of the current question and its context separate while generating a response. We investigate two approaches for representing the context: Long short-term memory and Convolutional neural network. Experiments show that our Context Model outperforms a baseline model on both ConvAI2 Dataset and a collected dataset of conversational English.