• 제목/요약/키워드: smartphone sensor

검색결과 306건 처리시간 0.02초

딥러닝 객체 탐지 기술을 사용한 스마트 쇼핑카트의 구현 (Implementation of Smart Shopping Cart using Object Detection Method based on Deep Learning)

  • 오진선;천인국
    • 한국산학기술학회논문지
    • /
    • 제21권7호
    • /
    • pp.262-269
    • /
    • 2020
  • 최근 다양한 쇼핑 환경에서 결제에 소요되는 시간을 줄이기 위한 많은 시도들이 이루어지고 있다. 또한 4차 산업혁명시대에 들어서면서 인공지능 기술이 고도화되고 있으며, IoT 장비들은 더욱 소형화되고 저렴해져서 이 두 가지 기술을 융합시킴으로써 사용자의 시간을 절약할, 인간을 대신하는 무인 환경을 구축하는 것에 대한 접근이 용이해졌다. 본 논문에서는 저가 IoT 장비들과 딥러닝 객체 탐지 기술을 기반으로 하는 스마트 쇼핑카트 시스템을 제안한다. 제안된 스마트 카트 시스템은 실시간 상품 인식을 위한 카메라와 라즈베리파이, 트리거 역할을 하는 초음파 센서, 상품이 쇼핑카트에 들어온 것인지 나간 것인지를 판단하기 위한 무게 센서, 가상의 장바구니에 대한 UI를 제공하는 스마트폰 어플리케이션, 학습된 데이터가 저장되는 딥러닝 서버로 구성된다. 각 모듈 간의 통신은 TCP/IP 네트워크 및 HTTP 네트워크로 이루어지며, 서버의 상품 인식을 위해서는 객체탐지 기술이 구현된 YOLO darknet 라이브러리를 사용한다. 사용자는 스마트폰의 앱을 통하여 스마트 카트에 넣은 물건들의 목록을 점검하고 자동으로 결제할 수 있다. 본 논문에서 제안된 스마트 카트 시스템은 가성비가 높은 무인 상점을 구현하는데 응용될 수 있다.

이동 환자 생체신호의 실시간 전달을 위한 오버레이 네트워크 기반 자율군집형 미들웨어 플랫폼 (Self-Organizing Middleware Platform Based on Overlay Network for Real-Time Transmission of Mobile Patients Vital Signal Stream)

  • 강호영;정설영;안철수;박유진;강순주
    • 한국통신학회논문지
    • /
    • 제38C권7호
    • /
    • pp.630-642
    • /
    • 2013
  • 이동환자의 생체진단신호 원격전달을 위해서는 환자 및 감시자의 이동성, 환자의 이상징후 감지기능과 관련 컴퓨팅 자원들의 자율군집성 동작 서비스 바인딩 기능이 필수적으로 요구된다. 기존의 연구는 이동 환자 생체 신호 전달을 위해 중앙 집중화된 방식으로 중앙 서버 스스로 단일 고장점(Single Point of Failure)이 되어 서버가 다운되면 전체 시스템이 멈추게 되고, 지역적으로 일어나는 서비스에 대해 중앙으로 데이터 트래픽을 발생시킨다. 오버레이 네트워크 기반 자율군집형 미들웨어 플랫폼은 자율군집 메커니즘을 적용하여 구성한 유무선 이기종망 환경하의 오버레이 네트워크를 통해 관리 서버에 의한 중앙 또는 외부의 제어 없이 노드 간 협업에 의해 다양한 센서 장치(생체신호 측정 장비 포함)와 스마트폰, TV, PC 및 외부 시스템 간에 실시간 스트림 데이터를 송수신할 수 있도록 개발된 미들웨어 플랫폼이다. 생체신호 측정 장비로부터 발생한 여러 생체진단신호를 도처에 존재하는 자율군집형 분산 미들웨어 플랫폼인 SoSpR(Self-organizing Software-platform Router)로 관리 서버의 중재없이 자율적으로 실시간 전달 및 저장하고 동시에 복수개의 다양한 수신 단말에서 가까운 SoSpR로부터 실시간 수신 및 재생 시킬 수 있다.

비대면 상황에서 신입생 대학생활적응을 위한 3차원 가상현실 캠퍼스 투어시스템 개발연구 - 시야초점의 움직임을 활용한 캠퍼스주변 환경의 자유로운 이동과 대학정보안내화면 GUI설계 - (A Study on the Development of 3D Virtual Reality Campus Tour System for the Adaptation of University Life to Freshmen in Non-face-to-face Situation - Autonomous Operation of Campus Surrounding Environment and University Information Guide Screen Design Using Visual Focus Movement -)

  • 임장훈
    • Journal of Information Technology Applications and Management
    • /
    • 제28권3호
    • /
    • pp.59-75
    • /
    • 2021
  • This study aims to establish a foundation for autonomous driving on campus and communication of abundant university information in the HCI environment in a VR environment where college freshmen can freely travel around campus facilities. The purpose of this study is to develop a three-dimensional VR-style campus tour system to establish a media environment to provide abundant university information guidance services to freshmen in non-face-to-face situations. This study designed a three-dimensional virtual reality campus tour system to solve the problem of discontinuity in which VR360 filming space does not lead to space like reality, and to solve many problems of expertise in VR technology by constructing an integrated production environment of tour system. We aim to solve the problem of inefficiency, which requires a large amount of momentum in virtual space, by constructing a GUI that utilizes the motion of the field of view focus. The campus environment was designed as a three-dimensional virtual reality using a three-dimensional graphic design. In non-face-to-face situations, college freshmen freely transformed the HMD VR device, smartphone, FPS operation mode of the gyroscope sensor. The design elements of the three-dimensional virtual reality campus tour system were classified as ①Visualization of factual experiences, ②Continuity of space movement, ③Operation, automatic operation mode, ④Natural landscape animation, ⑤Animation according to wind direction, ⑥Actual space movement mode, ⑦Informatization of spatial understanding, ⑧GUI by experience environment, ⑨Text GUI by building, ⑩VR360, 3D360 Studio Environment, ⑪Three-dimensional virtual space coupling block module, ⑫3D360-3D Virtual Space Transmedia Zone, ⑬Transformable GUI(VR Device Dual Viewer-Gyro Sensor Full Viewer-FPS Operation Viewer) and an integrated production environment was established with each element. It is launched online (http://vautu.com/u1) by constructing a GUI for free driving mode and college information screens to adapt to college life for freshmen, and designing an environment that can be used simultaneously by current media such as PCs, Android, and iPads. Therefore, it conducted user research, held a development presentation, a forum on excellence in university innovation support projects, and applied it as a system on the website of a particular university. College freshmen will be able to experience university information directly from the web and app to the virtual reality campus environment.

Implementation of Air Pollutant Monitoring System using UAV with Automatic Navigation Flight

  • Shin, Sang-Hoon;Park, Myeong-Chul
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권8호
    • /
    • pp.77-84
    • /
    • 2022
  • 본 논문에서는 자동항법 비행이 가능한 무인기를 활용하여 미세먼지 등의 대기 오염물질을 모니터링 하는 시스템을 제안한다. 기존 대기 질 관리 시스템은 고정된 센서 박스를 통한 관제나 조종장치를 이용한 드론의 측정 센서를 통하여 정보를 취득하는 방식을 사용했다. 이는 한정된 공간과 모니터링을 위한 별도의 데이터 수집 및 전송들의 추가적인 절차가 진행되어야 하는 단점을 가진다. 본 논문에서 이러한 문제점을 극복하기 위하여 비행정보 지정을 통한 자율항법 비행이 가능한 무인기에 위치 정보를 위한 GPS 모듈과 미세먼지 측정을 위한 PMS7003 모듈을 내장하고 수집된 정보는 SD 모듈에 저장하고 비행 종료 후 전송버튼을 통해 블루투스로 연결된 스마트폰 앱을 통하여 원격 데이터베이스에 저장되는 원스톱 구조의 시스템을 구성한다. 또한, 실시간 모니터링을 위한 HTML5 기반의 웹 모니터링 페이지를 구성하여 관심 사용자에게 제공된다. 본 연구의 결과는 무인 비행체를 통한 환경 모니터링 시스템에 활용될 수 있으며, 향후 아황산가스 및 이산화탄소 등의 다양한 오염물질 측정 센서를 추가하여 토털 환경 관제 시스템으로 발전시키고자 한다.

IoT Open-Source and AI based Automatic Door Lock Access Control Solution

  • Yoon, Sung Hoon;Lee, Kil Soo;Cha, Jae Sang;Mariappan, Vinayagam;Young, Ko Eun;Woo, Deok Gun;Kim, Jeong Uk
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권2호
    • /
    • pp.8-14
    • /
    • 2020
  • Recently, there was an increasing demand for an integrated access control system which is capable of user recognition, door control, and facility operations control for smart buildings automation. The market available door lock access control solutions need to be improved from the current level security of door locks operations where security is compromised when a password or digital keys are exposed to the strangers. At present, the access control system solution providers focusing on developing an automatic access control system using (RF) based technologies like bluetooth, WiFi, etc. All the existing automatic door access control technologies required an additional hardware interface and always vulnerable security threads. This paper proposes the user identification and authentication solution for automatic door lock control operations using camera based visible light communication (VLC) technology. This proposed approach use the cameras installed in building facility, user smart devices and IoT open source controller based LED light sensors installed in buildings infrastructure. The building facility installed IoT LED light sensors transmit the authorized user and facility information color grid code and the smart device camera decode the user informations and verify with stored user information then indicate the authentication status to the user and send authentication acknowledgement to facility door lock integrated camera to control the door lock operations. The camera based VLC receiver uses the artificial intelligence (AI) methods to decode VLC data to improve the VLC performance. This paper implements the testbed model using IoT open-source based LED light sensor with CCTV camera and user smartphone devices. The experiment results are verified with custom made convolutional neural network (CNN) based AI techniques for VLC deciding method on smart devices and PC based CCTV monitoring solutions. The archived experiment results confirm that proposed door access control solution is effective and robust for automatic door access control.

3D 깊이 카메라를 활용한 직관적인 사물인터넷 인터페이스 시스템에 관한 연구 (A Study on Intuitive IoT Interface System using 3D Depth Camera)

  • 박종섭;홍준석;김우주
    • 한국전자거래학회지
    • /
    • 제22권2호
    • /
    • pp.137-152
    • /
    • 2017
  • 정보통신 기기들의 가격하락과 인터넷의 발전은 사물인터넷이라는 새로운 분야를 탄생시켰다. 일상에 접하는 모든 사물들이 인터넷으로 연결되어 새로운 서비스를 창출하는 사물인터넷은 빅데이터와 결합되어 기존에 볼 수 없었던 새로운 형태의 비즈니스 영역을 개척해 나가고 있다. 이에 사물인터넷의 전망은 그 활용도에 있어서 무궁무진 하다고 말할 수 있다. 또한 이러한 사물인터넷 장비들의 원활한 연결을 위한 표준화 기관들의 연구도 활발한 편이다. 그러나 이러한 연구 중에 우리가 간과하는 부분이 있다. 사물인터넷 장비를 제어하거나 정보를 획득하기 위해서 장비와의 연동문제(IP주소, Wi-Fi, Bluetooth, NFC 등) 및 관련 애플리케이션 소프트웨어 또는 앱을 별도로 개발을 해야 한다. 이러한 문제를 해결하기 위해 기존의 연구방식들은 GPS 또는 마커를 이용한 증강현실 연구가 이루어져 왔다. 하지만 별도의 마커가 필요하고 마커의 경우 가까운 곳만 인식하는 단점을 갖는다. 또한 2D 기반의 카메라의 활용한 GPS 주소 활용한 연구의 경우 대상 장비와의 거리 인식을 할 수 없어 능동적인 인터페이스 구현의 어려움이 있었다. 이러한 문제를 해결하기 위해서는 기존의 복잡한 방법이 아니라 사용자가 눈으로 확인하고 간단한 조작만으로 장비와의 연동이 가능한 직관적인 방법이 반드시 필요하다. 본 연구는 향후 스마트폰에 탑재될 3D 깊이 인식카메라를 활용해서 별도의 마커 없이 거리측정 및 핸드폰의 센서정보를 연동해서 자동으로 공간 좌표를 계산하여 사물인터넷의 장비를 발견하고 해당 사물인터넷 장비의 정보 획득 및 제어가 가능한 방법론을 제안한다. 결과로 사용자 관점에서 별도의 사물인터넷 장비 연동문제 및 앱 설치에 대한 부담을 줄일 수 있다. 나아가 이 기술이 공공서비스와 스마트 안경분야에 활용된다면 공공 서비스 증대 및 많은 소프트웨어 개발의 중복 투자를 줄이게 될 것이다.