• Title/Summary/Keyword: Open-CV

Search Result 408, Processing Time 0.032 seconds

A Design of Gaze Tracker based on Smart Mobile Device (스마트 이동단말 기반 시선 추적기 설계)

  • Ko, Ginam;Moon, Nammee
    • Annual Conference of KIPS
    • /
    • 2013.11a
    • /
    • pp.1455-1456
    • /
    • 2013
  • 최근 스마트 이동단말에 장착된 영상 센서를 통해 획득한 영상에서 실시간으로 사용자의 눈을 인식하거나 시선을 추적하여 콘텐츠 제어, 행태 분석 등을 수행하는 기술에 대한 필요성이 증가하고 있다. 기존의 영상 분석 기반 시선 추적 기술은 고가의 시선 추적기를 기반으로 하며, 추적한 시선 좌표를 통해 실제 응시객체를 분석하는 사후 작업이 필요하다. 이에, 본 논문에서는 OpenCV를 기반으로 스마트 이동단말의 전면에 장착된 영상 센서에서 사용자의 눈을 인식하고, 시선을 추적한 후, 이를 실시간으로 시선 좌표와 화면의 콘텐츠 내 객체 영역을 매칭함으로써, 응시객체를 분석하는 스마트 이동단말 기반 시선 추적기를 설계하였다. 본 논문의 시선 추적기는 시선 추적을 수행하기 위해, 사용자에게 5개의 화면 교정점을 제공하고 응시하도록 하여 시선 추적 범위를 측정한다. 또한, 스마트 이동단말에 내장된 자이로스코프 센서를 통해 기울기가 변경될 시, 이를 반영하여 시선 교정을 수행하도록 설계하였다.

A* Path Planning using 2D Camera (2D카메라를 이용한 A* 경로 계획 기법)

  • Ssin, Seungyoub;Cho, Seoungjae;Kim, YeJi;Sim, Sohyun;Um, Kyhyun;Cho, Kyungeun
    • Annual Conference of KIPS
    • /
    • 2013.11a
    • /
    • pp.1302-1304
    • /
    • 2013
  • 본 논문에서는 로봇이 정해진 폐구간을 이동하기 위해서 위에서 아래로 촬영한 카메라 정보를 활용한다. 로봇을 특정위치로 이동시키기 위해서는 카메라를 제어하는 서버 시스템과 로봇의 위치를 인식하기 위한 마크가 필요하다. 서버는 로봇의 위치를 로봇으로 인식하는 마크의 색 값으로 카메라로부터 인지하고 로봇에 위치 이동 명령을 수행할 서버와 로봇이 네트워크를 통해 Planning을 수행한다. 본 연구에서 휴머노이드 로봇인 나오와 로봇에 위치를 촬영할 카메라 그리고 이미지 처리를 하기 위해 OpenCV와 이동 알고리즘으로 $A^*$를 활용하여 Planning을 구현한다.

Design of Agent System for Learning to Ear Acupuncture (이침 혈자리 학습을 위한 에이전트 시스템의 설계)

  • Jang, Yong Hyun;Jeon, Ji Young;Yang, Janghoon;Choi, Yoo Ju
    • Annual Conference of KIPS
    • /
    • 2013.11a
    • /
    • pp.9-11
    • /
    • 2013
  • 본 논문에서는 귀의 형태와 색을 통해서 질병을 자가진단 후 귀의 특정 부위를 자극하는 이침요법을 위한 시술 보조 시스템을 제안한다. 제안 시스템은 피시술자의 귀의 이미지 정보와 질병에 대한 정보를 처리하여 이침을 위한 혈자리를 귀 이미지에 표시해 주는 시스템을 구현하였다. 특히 귀를 인식하는 부분에 있어서, Haar-like feature와 Adaboost알고리즘을 사용하는 OpenCV내의 함수를 사용하였고 인식된 귀영역을 그리드 영역으로 나누고 질병에 대한 사전 정보에 따라서 그리드 영역내의 이침혈자리 시스템을 표시하는 시스템으로 구성하였다.

A Study On User Skin Color-Based Foundation Color Recommendation Method Using Deep Learning (딥러닝을 이용한 사용자 피부색 기반 파운데이션 색상 추천 기법 연구)

  • Jeong, Minuk;Kim, Hyeonji;Gwak, Chaewon;Oh, Yoosoo
    • Journal of Korea Multimedia Society
    • /
    • v.25 no.9
    • /
    • pp.1367-1374
    • /
    • 2022
  • In this paper, we propose an automatic cosmetic foundation recommendation system that suggests a good foundation product based on the user's skin color. The proposed system receives and preprocesses user images and detects skin color with OpenCV and machine learning algorithms. The system then compares the performance of the training model using XGBoost, Gradient Boost, Random Forest, and Adaptive Boost (AdaBoost), based on 550 datasets collected as essential bestsellers in the United States. Based on the comparison results, this paper implements a recommendation system using the highest performing machine learning model. As a result of the experiment, our system can effectively recommend a suitable skin color foundation. Thus, our system model is 98% accurate. Furthermore, our system can reduce the selection trials of foundations against the user's skin color. It can also save time in selecting foundations.

Interactive Data Acquisition System based on Hand Tracking to evaluate Children's Cognitive Abilities

  • Ekaterina, Ten;Lee, Suk-Ho
    • International Journal of Internet, Broadcasting and Communication
    • /
    • v.14 no.3
    • /
    • pp.108-114
    • /
    • 2022
  • Autism (ASD) is a mental disorder characterized by a pronounced deficit in personal, social, speech, and other aspects of development and communication skills. Since autism is a complex developmental disorder that requires a lot of effort to recognize, this research was conducted to develop an interactive data Acquisition System and detect the first signs of ASD in children. The proposed system presents several variants of the tasks in an entertaining form, using hand tracking. Hand tracking is used to attract children's attention and interest them more to achieve more accurate results. The creation of the system is based on such libraries as OpenCV, PyGame, TensorFlow, and Mediapipe. The ultimate goal of the paper is to obtain data on the disease of autism in children for use in further diagnosis by medical experts.

Implementation of Real-Time Image Blurring System for User Privacy Support (사용자 보호를 위한 실시간 이미지 모자이크 처리 시스템 개발)

  • Minyeong Kim;Suah Jeon;Jihoon Lee
    • Journal of the Semiconductor & Display Technology
    • /
    • v.22 no.1
    • /
    • pp.39-42
    • /
    • 2023
  • Recently, with the explosive increase of video streaming services, real-time live broadcasting has also increased, which leads to an infringement problem for user privacy. So, to solve such problems, we proposed the real image blurring system using dlib face-recognition library. 68 face landmarks are extracted and convert into 128 vector values. After that the proposed system tries to compare this value with the image in the database, and if it is over 0.45, it is considered as different person and image blurring processing is performed. With the proposed system, it is possible to solve the problem of user privacy infringement, and also to be utilized to detect the specific person. Through experimental results, the proposed system has an accuracy of more than 90% in terms of face recognition.

  • PDF

An Architecture of Camera System for UAV (무인비행체를 위한 듀얼카메라 시스템)

  • Cho, Kiho;Jeon, Dongwoon;Kim, Doohyun
    • Annual Conference of KIPS
    • /
    • 2009.11a
    • /
    • pp.85-86
    • /
    • 2009
  • 본 논문에서는 무인비행체를 위한 듀얼 카메라 영상처리 시스템을 제안하였다. 제안된 시스템에서는 무인비행체에서 카메라 시스템을 운용함에 있어서 효율성을 극대화하기 위해 두 개의 카메라를 이용한 영상정보의 습득 및 처리 방법을 제안하였다. 영상의 습득과 프로세싱 과정에서는 OpenCV와 FF-MPEG을 활용한 영상의 분석과 압축을 구현하였다. 무인비행체에서의 데이터 전송은 디지털 광대역 통신인 와이브로를 이용하였다. 또한 지상스테이션은 데이터를 전송받아 영상을 확인하고 무인비행체조작과 카메라조작 명령을 내리는 역할을 담당하도록 하였다.

Design and Implementation of Program Control Interface Based on Hand Gestures (손동작 인식을 이용한 프로그램 제어 인터페이스 설계 및 구현)

  • Jung, Ji-In;Kim, Hye-Rim;Seo, Se-Hyun;Gui, Yi-Qi;Choi, Hwang Kyu
    • Annual Conference of KIPS
    • /
    • 2009.11a
    • /
    • pp.383-384
    • /
    • 2009
  • 본 논문은 사람의 손동작만으로 컴퓨터상의 응용 프로그램을 제어할 수 있는 휴먼 마우스를 설계 구현한다. 발광을 위한 적외선 LED와 가시광선 제거를 위해 네거티브필름을 씌운 웹캠이 장치로써 사용되었으며, OpenCV의 함수를 이용하여 프로그램을 완성하였다.

Online class concentration analysis system using face recognition (얼굴인식을 활용한 온라인 수업 집중도 분석 시스템)

  • Lee, Gyu-Sup;Hwang, In-Ho;Seo, Seung-Hyun
    • Annual Conference of KIPS
    • /
    • 2021.05a
    • /
    • pp.29-32
    • /
    • 2021
  • 현재 코로나 사태로 인해 많은 학교에서 온라인으로 수업이 진행되고 있지만 대면강의에 비해 온라인수업은 진행자와 수강자의 상호작용이 원활하지 않아 집중도가 떨어지는 문제가 있다. 따라서 본 논문에서는 진행자가 전체 수강자의 집중도를 파악하고 전체적인 집중도가 낮아졌을 때 진행자에게 메시지를 전송하여 적절한 주의/환기 등을 줌으로써 온라인수업의 집중도를 향상시킬 수 있는 온라인 수업집중도 분석시스템을 제안한다. 본 시스템을 활용하여 수강자의 집중도 향상 뿐만 아니라 수업의 진행 방향을 조절할 수 있으며 상호작용을 가능하게 하여 수업의 질을 향상시킬 수 있다. 본 논문의 시스템은 dlib 의 안면 검출기와 OpenCV 및 PyQt5 의 QtDesigner 를 사용하여 프로토타입을 구현하였다.