• Title/Summary/Keyword: 딥러닝 기반 제어

Search Result 84, Processing Time 0.022 seconds

Study of the Operation of Actuated signal control Based on Vehicle Queue Length estimated by Deep Learning (딥러닝으로 추정한 차량대기길이 기반의 감응신호 연구)

  • Lee, Yong-Ju;Sim, Min-Gyeong;Kim, Yong-Man;Lee, Sang-Su;Lee, Cheol-Gi
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.17 no.4
    • /
    • pp.54-62
    • /
    • 2018
  • As a part of realization of artificial intelligence signal(AI Signal), this study proposed an actuated signal algorithm based on vehicle queue length that estimates in real time by deep learning. In order to implement the algorithm, we built an API(COM Interface) to control the micro traffic simulator Vissim in the tensorflow that implements the deep learning model. In Vissim, when the link travel time and the traffic volume collected by signal cycle are transferred to the tensorflow, the vehicle queue length is estimated by the deep learning model. The signal time is calculated based on the vehicle queue length, and the simulation is performed by adjusting the signaling inside Vissim. The algorithm developed in this study is analyzed that the vehicle delay is reduced by about 5% compared to the current TOD mode. It is applied to only one intersection in the network and its effect is limited. Future study is proposed to expand the space such as corridor control or network control using this algorithm.

Deep Learning Based Group Synchronization for Networked Immersive Interactions (네트워크 환경에서의 몰입형 상호작용을 위한 딥러닝 기반 그룹 동기화 기법)

  • Lee, Joong-Jae
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.11 no.10
    • /
    • pp.373-380
    • /
    • 2022
  • This paper presents a deep learning based group synchronization that supports networked immersive interactions between remote users. The goal of group synchronization is to enable all participants to synchronously interact with others for increasing user presence Most previous methods focus on NTP-based clock synchronization to enhance time accuracy. Moving average filters are used to control media playout time on the synchronization server. As an example, the exponentially weighted moving average(EWMA) would be able to track and estimate accurate playout time if the changes in input data are not significant. However it needs more time to be stable for any given change over time due to codec and system loads or fluctuations in network status. To tackle this problem, this work proposes the Deep Group Synchronization(DeepGroupSync), a group synchronization based on deep learning that models important features from the data. This model consists of two Gated Recurrent Unit(GRU) layers and one fully-connected layer, which predicts an optimal playout time by utilizing the sequential playout delays. The experiments are conducted with an existing method that uses the EWMA and the proposed method that uses the DeepGroupSync. The results show that the proposed method are more robust against unpredictable or rapid network condition changes than the existing method.

Development of a Web Platform System for Worker Protection using EEG Emotion Classification (뇌파 기반 감정 분류를 활용한 작업자 보호를 위한 웹 플랫폼 시스템 개발)

  • Ssang-Hee Seo
    • Journal of Internet of Things and Convergence
    • /
    • v.9 no.6
    • /
    • pp.37-44
    • /
    • 2023
  • As a primary technology of Industry 4.0, human-robot collaboration (HRC) requires additional measures to ensure worker safety. Previous studies on avoiding collisions between collaborative robots and workers mainly detect collisions based on sensors and cameras attached to the robot. This method requires complex algorithms to continuously track robots, people, and objects and has the disadvantage of not being able to respond quickly to changes in the work environment. The present study was conducted to implement a web-based platform that manages collaborative robots by recognizing the emotions of workers - specifically their perception of danger - in the collaborative process. To this end, we developed a web-based application that collects and stores emotion-related brain waves via a wearable device; a deep-learning model that extracts and classifies the characteristics of neutral, positive, and negative emotions; and an Internet-of-things (IoT) interface program that controls motor operation according to classified emotions. We conducted a comparative analysis of our system's performance using a public open dataset and a dataset collected through actual measurement, achieving validation accuracies of 96.8% and 70.7%, respectively.

Deep Learning-based Object Detection of Panels Door Open in Underground Utility Tunnel (딥러닝 기반 지하공동구 제어반 문열림 인식)

  • Gyunghwan Kim;Jieun Kim;Woosug Jung
    • Journal of the Society of Disaster Information
    • /
    • v.19 no.3
    • /
    • pp.665-672
    • /
    • 2023
  • Purpose: Underground utility tunnel is facility that is jointly house infrastructure such as electricity, water and gas in city, causing condensation problems due to lack of airflow. This paper aims to prevent electricity leakage fires caused by condensation by detecting whether the control panel door in the underground utility tunnel is open using a deep learning model. Method: YOLO, a deep learning object recognition model, is trained to recognize the opening and closing of the control panel door using video data taken by a robot patrolling the underground utility tunnel. To improve the recognition rate, image augmentation is used. Result: Among the image enhancement techniques, we compared the performance of the YOLO model trained using mosaic with that of the YOLO model without mosaic, and found that the mosaic technique performed better. The mAP for all classes were 0.994, which is high evaluation result. Conclusion: It was able to detect the control panel even when there were lights off or other objects in the underground cavity. This allows you to effectively manage the underground utility tunnel and prevent disasters.

A Study on Deep Learning Based RobotArm System (딥러닝 기반의 로봇팔 시스템 연구)

  • Shin, Jun-Ho;Shim, Gyu-Seok
    • Annual Conference of KIPS
    • /
    • 2020.11a
    • /
    • pp.901-904
    • /
    • 2020
  • 본 시스템은 세 단계의 모델을 복합적으로 구성하여 이루어진다. 첫 단계로 사람의 음성언어를 텍스트로 전환한 후 사용자의 발화 의도를 분류해내는 BoW방식을 이용해 인간의 명령을 이해할 수 있는 자연어 처리 알고리즘을 구성한다. 이후 YOLOv3-tiny를 이용한 실시간 영상처리모델과 OctoMapping모델을 활용하여 주변환경에 대한 3차원 지도생성 후 지도데이터를 기반으로하여 동작하는 기구제어 알고리즘 등을 ROS actionlib을 이용한 관리자시스템을 구성하여 ROS와 딥러닝을 활용한 편리한 인간-로봇 상호작용 시스템을 제안한다.

Development of Autonomous driving RC car using deep learning object recognition (딥러닝 객체인식을 이용한 자율주행 RC카 개발)

  • Kim, Gun-hee;Kim, Hyeon-jeong;Kim, Jun-yeong;Lee, Jun-yeob;Lee, Yoon-soo;Yun, Tae-jin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.317-318
    • /
    • 2022
  • 최근 인공지능 기술이 발전함에 따라 자율주행, 첨단 운전자 지원 시스템과 같은 기술들이 개발되고 있다. 이런 기술들은 교통사고를 예방하여 사망률 등을 감소시키고, 운전자의 편의성을 향상시킨다. 본 논문에서는 자율주행과 첨단 운전자 지원 시스템에서 사용할 수 있는 기술들을 개발하고, 이를 RC카에 적용하여 구현하였고, 인공트랙에서 실험하여 평가하였다. 딥러닝 기반 실시간 객체 인식 및 Opencv 를 이용한 차선 인식기술을 통해 차선을 인식하여 이탈하지 않고 주행하며 표지판 등 객체를 인식하여 상황에 따른 대응으로 모터를 제어하는 기술을 개발하고 인공트랙을 자율주행하는 RC카를 구현하고 실험하였다.

  • PDF

Wearless IoT Device Controller based on Deep Neural Network and Hand Tracking (딥 뉴럴 네트워크 및 손 추적 기반의 웨어리스 IoT 장치 컨트롤러)

  • Choi, Seung-June;Kim, Eun-Yeol;Kim, Jung-Hwa;Hwang, Chae-Eun;Choi, Tae-Young
    • Annual Conference of KIPS
    • /
    • 2018.10a
    • /
    • pp.924-927
    • /
    • 2018
  • 본 논문에서는 거동이 불편한 환자나 장애인들을 위해 신체에 착용하는 부가적인 장비 없이 멀리 있는 가전을 직접 움직이지 않고 편리하게 제어할 수 있는 RGB-D 카메라를 활용한 손 인식과 딥러닝 기반 IoT 장치 컨트롤 시스템을 제안한다. 특히, 제어하고자 하는 장치의 위치를 알기 위하여 YOLO 알고리즘을 이용하여 장치를 인식한다. 또한 그와 동시에 RGB-D 카메라의 라이브러리를 이용하여 사용자의 손을 인식, 현재 사용자 손의 위치와 사용자가 취하는 손동작을 통하여 해당 위치의 장치를 제어한다.

CNN-LSTM based Autonomous Driving Technology (CNN-LSTM 기반의 자율주행 기술)

  • Ga-Eun Park;Chi Un Hwang;Lim Se Ryung;Han Seung Jang
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.18 no.6
    • /
    • pp.1259-1268
    • /
    • 2023
  • This study proposes a throttle and steering control technology using visual sensors based on deep learning's convolutional and recurrent neural networks. It collects camera image and control value data while driving a training track in clockwise and counterclockwise directions, and generates a model to predict throttle and steering through data sampling and preprocessing for efficient learning. Afterward, the model was validated on a test track in a different environment that was not used for training to find the optimal model and compare it with a CNN (Convolutional Neural Network). As a result, we found that the proposed deep learning model has excellent performance.

Development of Camera-based Character Creation and Motion Control System using StyleGAN Deep Learning Technology (StyleGAN 딥러닝 기술을 활용한 카메라 기반 캐릭터 생성 및 모션 제어 시스템 개발)

  • Lee, Jeong-Hun;Kim, Ju-Hyeong;Shin, Dong-hyeon;Yang, Jae-hyeong;Chang, Moon-soo
    • Annual Conference of KIPS
    • /
    • 2022.11a
    • /
    • pp.934-936
    • /
    • 2022
  • 현재 사회적인(COVID-19) 영향으로 메타버스에 대한 수요가 급증하였지만, 메타버스 플랫폼 진입을 지원하는 XR(AR/VR) 장비의 높은 가격대와 전문성 요구로 폭넓은 수요층을 포괄하기 어려운 상황이다. 본 논문에서는 이러한 수요층의 어려움을 개선하고자 웹 캠이나 스마트폰 카메라로 생성된 개인의 사진 이미지를 StyleGAN 딥러닝 기술과 접목시켜 캐릭터를 생성해 Mediapipe를 활용하여 모션 측정 및 제어를 처리하는 서비스를 제안하여 메타버스 시장의 대중화에 기여하고자 한다.

Deep Learning based Visual-Inertial Drone Odomtery Estimation (딥러닝 기반 시각-관성을 활용한 드론 주행기록 추정)

  • Song, Seung-Yeon;Park, Sang-Won;Kim, Han-Gyul;Choi, Su-Han
    • Annual Conference of KIPS
    • /
    • 2020.11a
    • /
    • pp.842-845
    • /
    • 2020
  • 본 연구는 시각-관성 기반의 딥러닝 학습으로 자유분방하게 움직이는 드론의 주행기록을 정확하게 추정하는 것을 목표로 한다. 드론의 비행주행은 드론의 온보드 센서와 조정값을 이용하는 것이 일반적이다. 본 연구에서는 이 온보드 센서 데이터를 학습에 사용하여 비행주행의 위치추정을 실험하였다. 선행연구로써 DeepVO[1]룰 구현하여 KITTI[3] 데이터와 Midair[4] 데이터를 비교, 분석하였다. 3D 좌표면에서의 위치 추정에 선행연구 모델의 한계가 있음을 확인하고 IMU를 Feature로써 사용하였다. 본 모델은 FlowNet[2]을 모방한 CNN 네트워크로부터 Optical Flow Feature에 IMU 데이터를 더해 RNN으로 학습을 진행하였다. 본 연구를 통해 주행기록 예측을 다소 정확히 했다고 할 수 없지만, IMU Feature를 통해 주행기록의 예측이 가능함을 볼 수 있었다. 본 연구를 통해 시각-관성 분야에서 사람의 지식이나 조정이 들어가는 센서를 융합하는 기존의 방식에서 사람의 제어가 들어가지 않는 End-to-End 방식으로 인공지능을 학습했다. 또한, 시각과 관성 데이터를 통해 주행기록을 추정할 수 있었고 시각적으로 그래프를 그려 정답과 얼마나 차이 있는지 확인해보았다.