• 제목/요약/키워드: 스마트 러닝 사용

검색결과 265건 처리시간 0.024초

머신러닝 알고리즘을 사용한 웨어러블 스마트 에어백에 관한 연구 (A Study on a Wearable Smart Airbag Using Machine Learning Algorithm)

  • 김현식;백원철;백운경
    • 한국안전학회지
    • /
    • 제35권2호
    • /
    • pp.94-99
    • /
    • 2020
  • Bikers can be subjected to injuries from unexpected accidents even if they wear basic helmets. A properly designed airbag can efficiently protect the critical areas of the human body. This study introduces a wearable smart airbag system using machine learning techniques to protect human neck and shoulders. When a bicycle accident happens, a microprocessor analyzes the biker's motion data to recognize if it is a critical accident by comparing with accident classification models. These models are trained by a variety of possible accidents through machine learning techniques, like k-means and SVM methods. When the microprocessor decides it is a critical accident, it issues an actuation signal for the gas inflater to inflate the airbag. A protype of the wearable smart airbag with the machine learning techniques is developed and its performance is tested using a human dummy mounted on a moving cart.

통합 CNN, LSTM, 및 BERT 모델 기반의 음성 및 텍스트 다중 모달 감정 인식 연구 (Enhancing Multimodal Emotion Recognition in Speech and Text with Integrated CNN, LSTM, and BERT Models)

  • 에드워드 카야디;한스 나타니엘 하디 수실로;송미화
    • 문화기술의 융합
    • /
    • 제10권1호
    • /
    • pp.617-623
    • /
    • 2024
  • 언어와 감정 사이의 복잡한 관계의 특징을 보이며, 우리의 말을 통해 감정을 식별하는 것은 중요한 과제로 인식된다. 이 연구는 음성 및 텍스트 데이터를 모두 포함하는 다중 모드 분류 작업을 통해 음성 언어의 감정을 식별하기 위해 속성 엔지니어링을 사용하여 이러한 과제를 해결하는 것을 목표로 한다. CNN(Convolutional Neural Networks)과 LSTM(Long Short-Term Memory)이라는 두 가지 분류기를 BERT 기반 사전 훈련된 모델과 통합하여 평가하였다. 논문에서 평가는 다양한 실험 설정 전반에 걸쳐 다양한 성능 지표(정확도, F-점수, 정밀도 및 재현율)를 다룬다. 이번 연구 결과는 텍스트와 음성 데이터 모두에서 감정을 정확하게 식별하는 두 모델의 뛰어난 능력을 보인다.

스마트폰 시장 확대에 따른 모바일 동영상 편집 기법 연구 (Production Techniques for Mobile Motion Pictures base on Smart Phone)

  • 최은영;최훈
    • 한국콘텐츠학회논문지
    • /
    • 제10권5호
    • /
    • pp.115-123
    • /
    • 2010
  • 정보통신기술의 발달로 기존의 방식과는 달리 다양한 플랫폼에서 풀 브라우징 서비스를 통해 영상 콘텐츠의 제공이 가능하게 되었다. 이러한 패러다임의 변화는 소비자의 수용태도에 변화를 줄 뿐만 아니라, 영상 콘텐츠 제작 방식에도 변화를 요구한다. 하지만 영상 콘텐츠의 많은 부분이 모바일 플랫폼에 맞추어 적당히 변형되거나 사이즈 변환과 같은 기본적인 변환으로 수용자들에게 서비스되고 있다. 이것은 모바일 특성에 맞는 콘텐츠 유형 및 제작이 아닌 사용자에게 전달되는 방식으로의 변화만을 의미하므로, 모바일 콘텐츠 특성에 맞는 영상제작 및 편집과 같은 미학적인 면에서의 제작방식에 변화가 요구되어진다. HD영상의 전환으로 인하여 카메라 앵글, 구도, 조명등과 같이 제작 방식에 변화가 생긴 것과 마찬가지로 풀브라우징 서비스에 맞는 영상제작 기법으로 변화되어야 한다. 본 연구는 HD 영상제작에 따른 제작 방식 변화를 바탕으로 스마트 폰 시장 확장에 따른 모바일 기기에 적합한 동영상 편집기법에 대한 방향을 제안하고자 한다. 이를 위해, 현재 이러닝 제작에 사용되고 있는 화면 전환기법과 편집기법을 영상제작에 응용하거나, 종횡비의 변화, 다중화면 기법 등과 같은 다양한 편집기법을 이용하여 스마트 폰 플랫폼에 적합한 영상 변환 및 편집 방법을 제시하고자 한다. 이러한 새로운 시도들은 기존의 웹이 가지고 있었던 개방성, 적시성과 같은 특성들을 모바일에 적용하여 줌으로써 새로운 패러다임을 이끌고 가며 플랫폼으로써 자리를 잡아갈 것이다. 또한 개인 문화 영역으로 확대되어 단순 의사전달도구에서 벗어나 표현도구와 놀이도구로써 자리 잡을 것이다.

3D 공간정보를 활용한 터널 설계 자동화 기술 개발 및 적용 사례 : 남해 서면-여수 신덕 국도 건설공사 BIM기반 설계를 중심으로 (Development and Application of Tunnel Design Automation Technology Using 3D Spatial Information : BIM-Based Design for Namhae Seomyeon - Yeosu Shindeok National Highway Construction)

  • 조은지;김우진;김광염;정재호;방상혁
    • 터널과지하공간
    • /
    • 제33권4호
    • /
    • pp.209-227
    • /
    • 2023
  • 정부는 건설산업의 생산성 혁신을 위해 BIM 기반 스마트 건설기술 활성화방안을 지속적으로 발표하고 있다. 설계단계에서는 BIM 데이터와 다른 첨단기술을 융합하여 설계 자동화와 최적화 수행을 목표로 한다. 국내 해저터널 사업인 남해 서면-여수 신덕 국도 건설공사 기본설계에서는 터널설계 프로세스에 따라 3D 공간정보를 이용한 터널설계 자동화 기술을 개발하여 BIM 기반의 설계를 수행하였다. 터널의 선형설계에 제너레이티브 디자인 기법을 사용하여 만 여건 이상의 케이스를 36시간 내에 도출하고, 설계자가 정의한 목적함수의 정량적 평가를 수행하여 설계자가 요구하는 조건의 최적 선형을 도출했다. AI 기반의 지반분류와 3D Geo Model을 구축하여 최적 선형의 경제성 및 안정성을 평가하였다. AI 기반의 지반분류는 시추 코어 1공당 약 30종의 지반분류를 수행하여 그 정밀도를 향상시켰고, 3D Geo Model의 경우 시공 중 추가되는 지반 데이터를 누적할 수 있다는 점에서 그 활용도를 기대할 수 있다. 3D 발파설계의 경우 Dynamo 상에서 노선상의 모든 보안물건을 검토하여 최적 장약량을 5분 만에 도출하고, 직관적이고 편리한 시공관리를 위해 3D 공간상에 설계 결과를 시각화함으로서 시공 중에 직접 활용할 수 있도록 했다.

대규모 외생 변수 및 Deep Neural Network 기반 금융 시장 예측 및 성능 향상 (Financial Market Prediction and Improving the Performance Based on Large-scale Exogenous Variables and Deep Neural Networks)

  • 천성길;이주홍;최범기;송재원
    • 스마트미디어저널
    • /
    • 제9권4호
    • /
    • pp.26-35
    • /
    • 2020
  • 미래의 주가를 예측하기 위한 시도는 과거부터 꾸준히 연구되어왔다. 그러나 일반적인 시계열 데이터와 달리 금융 시계열 비정상성(non-stationarity)과 장기 의존성(long-term dependency), 비선형성(non-linearity) 등 예측을 하는 것에 있어서 여러 가지 방해 요인이 존재한다. 또한, 광범위한 데이터의 변수는 기존에 사람이 직접 선택하는 것에 한계가 있으며 모델이 변수를 자동으로 잘 추출할 수 있도록 하여야 한다. 본 논문에서는 비정상성 데이터를 정규화할 수 있는 슬라이딩 타임스텝 정규화(sliding time step normalization) 방법과 LSTM 형태의 오토인코더(AutoEncoder)를 사용하여 모든 변수로부터 압축된 변수로 미래 주가를 예측하는 방법, 기간을 나누어 전이 학습을 하는 이동 전이 학습(moving transfer learning)을 제안한다. 또한, 실험을 통하여 100개의 주요 금융 변수들만을 사용하는 것보다 뉴럴 네트워크를 통해서 가능한 많은 변수를 사용하였을 때 성능이 우수함을 보이며, 슬라이딩 타임스텝 정규화 방법을 사용하여 모든 구간에서 데이터의 비정상성에 대해 정규화를 수행함으로써 성능 향상에 효과적임을 보인다. 이동 전이 학습 방법은 스텝 별 테스트 구간에서 모델의 성능을 평가하고 전이학습을 함으로써 긴 테스트 구간에서 성능 향상에 효과적임을 보인다.

비콘과 딥러닝 기술을 활용한 전자출입명부 자동등록시스템 (An Automatic Access Registration System using Beacon and Deep Learning Technology)

  • 허지원;엄성용
    • 문화기술의 융합
    • /
    • 제6권4호
    • /
    • pp.807-812
    • /
    • 2020
  • 전 세계적으로 감염이 확산되고 있는 코로나19 바이러스의 확산 방지 및 효과적인 추적 관리를 위해 정부에서는 공공시설에 대한 전자출입명부 시스템 도입을 의무화하고 있다. 초기에는 수기로 명부를 작성하는 불편함이 컸으나, 최근에는 QR 코드를 활용한 전자출입명부 작성 시스템이 주로 사용되고 있다. 하지만, QR 코드 생성을 위한 절차가 다소 번거로운 측면이 있다. 본 논문에서는 QR 코드 생성이 불필요한 새로운 방식의 전자출입명부 작성 시스템을 제안한다. 제안된 시스템에서는 딥러닝 기술로 구현된 마스크 착용 판별기와 비접촉 온도계를 활용하여 감염 의심 방문자를 효과적으로 통제한다. 또한 근거리 무선통신 기술인 비콘과 방문자의 스마트폰 앱을 연동하여 시설 출입자의 기본 정보를 서버를 통해 질병관리청에 자동 등록되도록 한다. 한편, 개인정보 보호를 위해 서버에 등록된 방문자 출입 정보는 암호화되어 보관되며, 최대 4주 후 자동 폐기된다. 제안된 시스템은 전 세계적으로 높은 확산세를 기록하고 있는 코로나 바이러스에 대한 대응은 물론 기타 신종감염병 확산 방지 및 대응에도 매우 효과적으로 활용될 수 있을 것으로 기대된다.

자동-레이블링 기반 영상 학습데이터 제작 시스템 (An Auto-Labeling based Smart Image Annotation System)

  • 이용;장래영;박민우;이건우;최명석
    • 한국콘텐츠학회논문지
    • /
    • 제21권6호
    • /
    • pp.701-715
    • /
    • 2021
  • 최근 딥러닝 기술의 급속한 발전과 함께 학습데이터가 크게 주목을 받고 있다. 일반적으로 딥러닝 방식에서는 모델을 훈련시키기 위해 충분한 학습데이터가 준비되어 있어야 한다. 하지만, 딥러닝 모델 설계 작업과 달리 데이터셋을 제작하는 데 상당한 시간과 노력이 필요하다. 영상 데이터를 주로 다루는 시각지능 분야에서도 학습데이터 제작자들은 전문적인 학습데이터 제작 도구를 사용해 이미지 단위로 레이블링을 수작업으로 하고 있어 여전히 많은 시간과 노력이 필요한 상황이다. 따라서, 다양한 분야에서 필요한 충분한 영상 학습데이터셋을 확보하기 위해 기존의 수작업 방식을 대체할 수 있는 레이블링 기술이 필요하다. 본 논문에서는, 영상 학습데이터셋 동향을 소개하고, 학습데이터 제작 환경에 대해 분석한다 특히, 수작업으로 이루어지는 반복적이고 수고스러운 레이블링 과정을 자동화하여, '확인과 수정'의 단계를 비약적으로 단축시킬 수 있는 '스마트 영상학습데이터 제작 시스템'을 제안한다. 그리고, 실험을 통해 영상 학습데이터 제작 과정에서 이미지에 박스형 및 폴리곤형 객체영역을 지정하여 레이블링하는 데 소요되는 시간을 크게 줄이기 위한 자동레이블링 방식의 효과를 검증한다. 마지막으로, 제안하는 시스템의 실험에서 추가적으로 검증되어야 하는 부분과 함께 이를 개선하기 위한 향후 연구 계획에 대해 논의한다.

공동주택 전력 소비 데이터 분석 및 딥러닝을 사용한 전력 소비 예측 (Analysis of Apartment Power Consumption and Forecast of Power Consumption Based on Deep Learning)

  • 유남조;이은애;정범진;김동식
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1373-1380
    • /
    • 2019
  • 에너지의 생산 효율성을 증가시키기 위해 최근 스마트그리드 기술 중 지능형 검침 시스템(AMI, advanced metering infrastructure)의 개발이 활발히 진행되고 있다. 전력 소비 데이터를 분석하고 소비 패턴을 예측하는 일은 AMI에서 핵심적인 부분이다. 본 논문에서는 수집된 전력 소비 데이터를 분석하고 발생할 수 있는 오류들을 정리하였으며 소비 패턴을 월별로 k-means 군집화 알고리즘을 사용하여 분석하였다. 또한 deep neural network를 이용하여 소비 패턴을 예측하였는데, 가구별 하루 전력 사용량 예측의 어려움을 극복하기 위하여 전력 사용량을 100개의 군집으로 분류하여 이 군집의 하루 평균으로 다음날 군집의 평균을 예측하였다. 실제 AMI에서의 전력 데이터를 사용하여 오류들을 분석하였으며 군집화 방법을 도입하여 성공적으로 전력 소비 예측이 가능하였다.

YOLO 기반 개체 검출과 Node.js 서버를 이용한 반려견 행동 분류 시스템 구현 (Implementation of a Classification System for Dog Behaviors using YOLI-based Object Detection and a Node.js Server)

  • 조용화;이혁재;김영훈
    • 융합신호처리학회논문지
    • /
    • 제21권1호
    • /
    • pp.29-37
    • /
    • 2020
  • 본 논문은 실시간 영상 분석을 통해서 반려견에 대한 객체를 추출해 내고, 추출된 이미지로부터 반려견 행동을 분류하는 방법을 구현한다. 반려견 객체 탐지를 위해서 Darknet YOLO를 사용하였으며, 추출된 이미지로부터 행동 패턴 분류는 구글에서 제공하고 있는 Teachable Machine을 이용하였다. 학습된 Teachable Machine은 구글 드라이브에 저장되어 node.js 서버 상에서 ml5.js로 구현하여 사용할 수 있다. 분류된 행동 패턴 결과는 사용자의 스마트 폰 또는 PC로 실시간 전송되며, 언제 어디서든 확인 가능할 수 있게 node.js 서버에서 socket.io 모듈을 사용해서 상호반응 웹 서버를 구현하였다.

스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식 (A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data)

  • 김길호;최상우;채문정;박희웅;이재홍;박종헌
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.163-177
    • /
    • 2019
  • 스마트폰이 널리 보급되고 현대인들의 생활 속에 깊이 자리 잡으면서, 스마트폰에서 수집된 다종 데이터를 바탕으로 사용자 개인의 행동을 인식하고자 하는 연구가 활발히 진행되고 있다. 그러나 타인과의 상호작용 행동 인식에 대한 연구는 아직까지 상대적으로 미진하였다. 기존 상호작용 행동 인식 연구에서는 오디오, 블루투스, 와이파이 등의 데이터를 사용하였으나, 이들은 사용자 사생활 침해 가능성이 높으며 단시간 내에 충분한 양의 데이터를 수집하기 어렵다는 한계가 있다. 반면 가속도, 자기장, 자이로스코프 등의 물리 센서의 경우 사생활 침해 가능성이 낮으며 단시간 내에 충분한 양의 데이터를 수집할 수 있다. 본 연구에서는 이러한 점에 주목하여, 스마트폰 상의 다종 물리 센서 데이터만을 활용, 딥러닝 모델에 기반을 둔 사용자의 동행 상태 인식 방법론을 제안한다. 사용자의 동행 여부 및 대화 여부를 분류하는 동행 상태 분류 모델은 컨볼루션 신경망과 장단기 기억 순환 신경망이 혼합된 구조를 지닌다. 먼저 스마트폰의 다종 물리 센서에서 수집한 데이터에 존재하는 타임 스태프의 차이를 상쇄하고, 정규화를 수행하여 시간에 따른 시퀀스 데이터 형태로 변환함으로써 동행 상태분류 모델의 입력 데이터를 생성한다. 이는 컨볼루션 신경망에 입력되며, 데이터의 시간적 국부 의존성이 반영된 요인 지도를 출력한다. 장단기 기억 순환 신경망은 요인 지도를 입력받아 시간에 따른 순차적 연관 관계를 학습하며, 동행 상태 분류를 위한 요인을 추출하고 소프트맥스 분류기에서 이에 기반한 최종적인 분류를 수행한다. 자체 제작한 스마트폰 애플리케이션을 배포하여 실험 데이터를 수집하였으며, 이를 활용하여 제안한 방법론을 평가하였다. 최적의 파라미터를 설정하여 동행 상태 분류 모델을 학습하고 평가한 결과, 동행 여부와 대화 여부를 각각 98.74%, 98.83%의 높은 정확도로 분류하였다.