• 제목/요약/키워드: Teachable machine

검색결과 20건 처리시간 0.026초

Teachable Machine을 활용한 모션 인식 러닝 게임 개발 (Developing a motion recognition learning game using Teachable Machine)

  • 황주한;김성진;윤영현;백재순
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.277-278
    • /
    • 2023
  • 본 논문은 머신러닝 학습 도구인 Teachable Machine을 활용하여 모션 인식 러닝 액션 게임인 Dino Run Game을 개발하는 것을 목표로 한다. JavaScript, HTML, CSS를 사용하여 기본적인 게임 프레임워크를 구현하고, Google에서 개발한 Teachable Machine의 이미지 인식 모델을 활용하여 웹캠을 통해 사용자의 손 이미지를 인식한다. 이를 기반으로 게임 캐릭터를 제어함으로써 키보드를 사용하지 않고도 게임을 즐길 수 있도록 구현한다.

  • PDF

Feasibility Study of Google's Teachable Machine in Diagnosis of Tooth-Marked Tongue

  • Jeong, Hyunja
    • 치위생과학회지
    • /
    • 제20권4호
    • /
    • pp.206-212
    • /
    • 2020
  • Background: A Teachable Machine is a kind of machine learning web-based tool for general persons. In this paper, the feasibility of Google's Teachable Machine (ver. 2.0) was studied in the diagnosis of the tooth-marked tongue. Methods: For machine learning of tooth-marked tongue diagnosis, a total of 1,250 tongue images were used on Kaggle's web site. Ninety percent of the images were used for the training data set, and the remaining 10% were used for the test data set. Using Google's Teachable Machine (ver. 2.0), machine learning was performed using separated images. To optimize the machine learning parameters, I measured the diagnosis accuracies according to the value of epoch, batch size, and learning rate. After hyper-parameter tuning, the ROC (receiver operating characteristic) analysis method determined the sensitivity (true positive rate, TPR) and specificity (false positive rate, FPR) of the machine learning model to diagnose the tooth-marked tongue. Results: To evaluate the usefulness of the Teachable Machine in clinical application, I used 634 tooth-marked tongue images and 491 no-marked tongue images for machine learning. When the epoch, batch size, and learning rate as hyper-parameters were 75, 0.0001, and 128, respectively, the accuracy of the tooth-marked tongue's diagnosis was best. The accuracies for the tooth-marked tongue and the no-marked tongue were 92.1% and 72.6%, respectively. And, the sensitivity (TPR) and specificity (FPR) were 0.92 and 0.28, respectively. Conclusion: These results are more accurate than Li's experimental results calculated with convolution neural network. Google's Teachable Machines show good performance by hyper-parameters tuning in the diagnosis of the tooth-marked tongue. We confirmed that the tool is useful for several clinical applications.

Teachable machine을 활용한 인공지능 체험 프로그램이 초등학생의 인공지능 인식에 미치는 영향 (The Effect of AI Experience Program Using Teachable Machine on AI Perception of Elementary School Students)

  • 이승미;전석주
    • 정보교육학회논문지
    • /
    • 제25권4호
    • /
    • pp.611-619
    • /
    • 2021
  • 4차 산업혁명의 중심에는 인공지능이 있다. 미래 인공지능 기반 사회에 필요한 역량을 기르기 위해 교육은 변화해야 한다. 본 연구는 초등학교 학생들을 대상으로 Teachable machine을 활용한 인공지능 체험 수업을 개발 및 적용하고, 학생들의 인공지능 흥미도 및 이해도 변화를 분석하였다. 총 10차시의 인공지능 수업 중 4차시는 다양한 인공지능 교육 플랫폼을 이용하였고, 6차시는 Teachable machine 체험을 중심으로 진행하였다. 프로그램 적용 전과 후에 학생들의 인공지능 흥미도와 이해도를 검사하였으며 양적 연구와 질적 연구를 동시에 진행하였다. 연구 결과, 프로그램 적용 후 학생들의 인공지능 흥미도와 이해도가 모두 향상되었음을 확인할 수 있었다. 또한, 연구 결과를 바탕으로 인공지능 교육 프로그램 개발을 위한 후속 연구를 제언하는 바이다.

이미지 분류를 위한 대화형 인공지능 블록 개발 (The Development of Interactive Artificial Intelligence Blocks for Image Classification)

  • 박영기;신유현
    • 정보교육학회논문지
    • /
    • 제25권6호
    • /
    • pp.1015-1024
    • /
    • 2021
  • 엔트리, Machine Learning for Kids, Teachable Machine과 같이 블록 기반 프로그래밍 언어에서 활용할 수 있도록 인공지능을 간단히 학습시킬 수 있는 다양한 플랫폼들이 존재한다. 그러나 이와 같은 플랫폼들은 별도의 메뉴를 통해 인공지능 학습을 진행한 다음, 학습된 모델을 코드 에디터에서 활용하는 방식을 따르고 있다. 이와 같은 방식은 학습되는 과정을 학생들이 더 직관적으로 살펴볼 수 있다는 장점이 있지만, 학습 메뉴와 코드 에디터를 모두 활용해야 한다는 단점도 존재한다. 본 논문에서는 코드 에디터에서 인공지능 학습과 코딩을 모두 진행할 수 있는 인공지능 블록을 개발한다. 본 인공지능 블록은 스크래치 블록으로 제시되지만 실제 학습 과정은 파이썬 서버를 통해 수행된다. 파란색 펜과 빨간색 펜을 분류하는 모델, 덴탈 마스크와 KF94 마스크를 분류하는 모델을 학습하는 과정을 통해 본 블록에 대해 상세히 기술한다. 또, 학습 성능 면에서 Teachable Machine와 큰 차이가 없음을 실험적으로 나타내었다.

인공지능 기반의 백내장 검출 플랫폼 개발 (Ai-Based Cataract Detection Platform Develop)

  • 박도영;김백기
    • Journal of Platform Technology
    • /
    • 제10권1호
    • /
    • pp.20-28
    • /
    • 2022
  • 인공지능기반의 건강 데이터 검증은 임상 연구에 도움을 줄 뿐만 아니라, 새로운 치료법을 개발하는데 필수 요소가 되었다. 미국 식품의약 관리국이 의학진단 분야 중 인공지능을 이용하여 성인 당뇨병 환자의 경증 이상 당뇨병성 망막증을 감지하는 의료기기 마케팅을 승인한 이래, 인공지능을 이용한 테스트가 증가하고 있다. 본 연구에서는 구글에서 지원하는 Teachable Machine 을 이용하여 이미지 분류 기반의 인공지능모델을 생성하고, 학습을 통한 예측 모델을 완성하였다. 이는 현재 만성질환의 환자들 중 발생하는 안구 질환 중 백내장의 조기 발견하는데 용이하게 할 뿐만 아니라, 눈 건강을 위해 헬스케어 프로그램으로 안 질환 예방을 위한 디지털 개인건강 헬스케어 앱을 개발하기 위한 기초 연구로 진행되었다.

YOLO 기반 개체 검출과 Node.js 서버를 이용한 반려견 행동 분류 시스템 구현 (Implementation of a Classification System for Dog Behaviors using YOLI-based Object Detection and a Node.js Server)

  • 조용화;이혁재;김영훈
    • 융합신호처리학회논문지
    • /
    • 제21권1호
    • /
    • pp.29-37
    • /
    • 2020
  • 본 논문은 실시간 영상 분석을 통해서 반려견에 대한 객체를 추출해 내고, 추출된 이미지로부터 반려견 행동을 분류하는 방법을 구현한다. 반려견 객체 탐지를 위해서 Darknet YOLO를 사용하였으며, 추출된 이미지로부터 행동 패턴 분류는 구글에서 제공하고 있는 Teachable Machine을 이용하였다. 학습된 Teachable Machine은 구글 드라이브에 저장되어 node.js 서버 상에서 ml5.js로 구현하여 사용할 수 있다. 분류된 행동 패턴 결과는 사용자의 스마트 폰 또는 PC로 실시간 전송되며, 언제 어디서든 확인 가능할 수 있게 node.js 서버에서 socket.io 모듈을 사용해서 상호반응 웹 서버를 구현하였다.

오픈소스 기반 안면마스크 착용 모니터링 시스템 설계 및 구현 (Design and Implementation of Facial Mask Wearing Monitoring System based on Open Source)

  • 구동진;장준영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.89-96
    • /
    • 2021
  • 코로나바이러스-19는 전 세계에서 확진자가 폭증하고 있으며 수많은 사망자를 발생시켰다. 마스크 착용은 감염예방에 매우 중요하다. 버스, 지하철 등 공공장소에서 마스크 착용 권유로 인한 사건·사고가 발생하고 있으며 심각한 사회문제로 대두되고 있다. 이런 문제점을 해결하기 위해서 본 논문에서는 오픈소스 기반 안면 마스크 착용 모니터링 시스템을 제안한다. 오픈소스 소프트웨어인 웹기반 인공지능 툴 티처블머신과 오픈소스 하드웨어 아두이노를 사용하였다. 마스크 착용여부를 판단하여 안내 메시지 및 알람 등 명령을 수행한다. 티처블머신의 학습파라미터 학습횟수 50, 배치크기 32, 학습률 0.001의 최적의 값으로 학습을 하여 정확성 1, 학습오차는 0.03의 결과 값을 얻었다. 웹기반 인공지능 툴 티처블머신과 아두이노를 이용하여 마스크 착용여부를 판단하여 안내 메시지 및 알람 등 명령을 수행할 수 있는 마스크착용 모니터링 시스템을 설계 및 구현하여 타당성을 입증하였다.

Deep Learning Frameworks for Cervical Mobilization Based on Website Images

  • Choi, Wansuk;Heo, Seoyoon
    • 국제물리치료학회지
    • /
    • 제12권1호
    • /
    • pp.2261-2266
    • /
    • 2021
  • Background: Deep learning related research works on website medical images have been actively conducted in the field of health care, however, articles related to the musculoskeletal system have been introduced insufficiently, deep learning-based studies on classifying orthopedic manual therapy images would also just be entered. Objectives: To create a deep learning model that categorizes cervical mobilization images and establish a web application to find out its clinical utility. Design: Research and development. Methods: Three types of cervical mobilization images (central posteroanterior (CPA) mobilization, unilateral posteroanterior (UPA) mobilization, and anteroposterior (AP) mobilization) were obtained using functions of 'Download All Images' and a web crawler. Unnecessary images were filtered from 'Auslogics Duplicate File Finder' to obtain the final 144 data (CPA=62, UPA=46, AP=36). Training classified into 3 classes was conducted in Teachable Machine. The next procedures, the trained model source was uploaded to the web application cloud integrated development environment (https://ide.goorm.io/) and the frame was built. The trained model was tested in three environments: Teachable Machine File Upload (TMFU), Teachable Machine Webcam (TMW), and Web Service webcam (WSW). Results: In three environments (TMFU, TMW, WSW), the accuracy of CPA mobilization images was 81-96%. The accuracy of the UPA mobilization image was 43~94%, and the accuracy deviation was greater than that of CPA. The accuracy of the AP mobilization image was 65-75%, and the deviation was not large compared to the other groups. In the three environments, the average accuracy of CPA was 92%, and the accuracy of UPA and AP was similar up to 70%. Conclusion: This study suggests that training of images of orthopedic manual therapy using machine learning open software is possible, and that web applications made using this training model can be used clinically.

CNN-LSTM 기반의 상지 재활운동 실시간 모니터링 시스템 (CNN-LSTM-based Upper Extremity Rehabilitation Exercise Real-time Monitoring System)

  • 김재정;김정현;이솔;서지윤;정도운
    • 융합신호처리학회논문지
    • /
    • 제24권3호
    • /
    • pp.134-139
    • /
    • 2023
  • 재활환자는 수술 치료 후 신속한 사회복귀를 목적으로 신체적 기능 회복을 위하여 통원치료 및 일상에서 재활운동을 수행한다. 병원에서 전문 치료사의 도움으로 운동을 수행하는 것과 달리 일상에서 환자 스스로 재활운동을 수행하는 것은 많은 어려움이 있다. 본 논문에서는 일상에서 환자 스스로 효율적이고 올바른 자세로 재활운동을 수행할 수 있도록 CNN-LSTM 기반의 상지 재활운동 실시간 모니터링 시스템을 제안한다. 제안한 시스템은 EMG, IMU가 탑재된 어깨 착용형 하드웨어를 통해 생체신호를 계측하고 학습을 위한 전처리 과정과 정규화를 진행하여 학습 데이터세트로 사용하였다. 구현된 모델은 특징 검출을 위한 3개 합성곱 레이어 3개의 폴링 레이어, 분류를 위한 2개의 LSTM 레이어로 구성되어 있으며 검증 데이터에 대한 학습 결과 97.44%를 확인할 수 있었다. 이후 Teachable machine과의 비교평가를 진행하였으며 비교평가 결과 구현된 모델은 93.6%, Teachable machine은 94.4%로 두 모델이 유사한 분류 성능을 나타내는 것을 확인하였다.

머신러닝 기술을 이용한 고양이 인식 애플리케이션 (Cat Recognition Application based on Machine Learning Techniques)

  • 윤희영;문수현;엄성용
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.663-668
    • /
    • 2023
  • 본 논문은 구글의 머신러닝 플랫폼인 '티처블 머신'을 이용해 대학 캠퍼스내 상주하는 고양이들을 인식하고 식별할 수 있는 모바일 애플리케이션에 대해 설명한다. 4차 산업혁명의 핵심 기술 중 하나인 머신러닝은 데이터 학습을 통해 최적의 결과값을 찾아내는 효율적인 작업을 수행한다. 따라서 머신러닝을 기반으로 동작하는 '티처블 머신' 플랫폼을 이용해 모델을 학습, 생성한 뒤 이를 스마트폰용 애플리케이션으로 구현하여, 간편하고 효율적으로 고양이들을 식별할 수 있게 하였다. 이 애플리케이션에서는 고양이의 사진을 현장에서 직접 찍거나 갤러리에서 불러오면 해당 고양이를 식별하여 그 고양이에 대한 정보를 제공한다. 본 시스템은 특정 대학 캠퍼스용으로 개발되었지만, 타 대학 캠퍼스 및 다른 종의 동물에 대해서도 확대 적용 가능할 것으로 기대한다.