• 제목/요약/키워드: Webcam

검색결과 86건 처리시간 0.032초

Real-time Human Pose Estimation using RGB-D images and Deep Learning

  • 림빈보니카;성낙준;마준;최유주;홍민
    • 인터넷정보학회논문지
    • /
    • 제21권3호
    • /
    • pp.113-121
    • /
    • 2020
  • Human Pose Estimation (HPE) which localizes the human body joints becomes a high potential for high-level applications in the field of computer vision. The main challenges of HPE in real-time are occlusion, illumination change and diversity of pose appearance. The single RGB image is fed into HPE framework in order to reduce the computation cost by using depth-independent device such as a common camera, webcam, or phone cam. However, HPE based on the single RGB is not able to solve the above challenges due to inherent characteristics of color or texture. On the other hand, depth information which is fed into HPE framework and detects the human body parts in 3D coordinates can be usefully used to solve the above challenges. However, the depth information-based HPE requires the depth-dependent device which has space constraint and is cost consuming. Especially, the result of depth information-based HPE is less reliable due to the requirement of pose initialization and less stabilization of frame tracking. Therefore, this paper proposes a new method of HPE which is robust in estimating self-occlusion. There are many human parts which can be occluded by other body parts. However, this paper focuses only on head self-occlusion. The new method is a combination of the RGB image-based HPE framework and the depth information-based HPE framework. We evaluated the performance of the proposed method by COCO Object Keypoint Similarity library. By taking an advantage of RGB image-based HPE method and depth information-based HPE method, our HPE method based on RGB-D achieved the mAP of 0.903 and mAR of 0.938. It proved that our method outperforms the RGB-based HPE and the depth-based HPE.

진동촉각 햅틱 마우스 기반 버블포핑 증강현실 시스템 (Bubble Popping Augmented Reality System Using a Vibro-Tactile Haptic Mouse)

  • 정다운;이우근;장성은;김만배
    • 방송공학회논문지
    • /
    • 제15권6호
    • /
    • pp.715-722
    • /
    • 2010
  • 본 논문에서는 증강현실 응용으로 진동촉각 햅틱 마우스를 이용하여 버블 포핑을 구현하는 버블포핑 증강현실 시스템을 제안한다. 이 시스템에서는 가상 그래픽 버블이 3차원 공간에서 랜덤하게 떠다닌다. 사용자의 진동촉각마우스가 버블과 접촉하면 버블이 터지는 포핑이 발생한다. 또한 포핑 효과와 더불어, 마우스가 진동을 함으로써 마우스를 잡고 있는 사용자의 손에 보다 실감나는 버블포핑을 전달한다. 제안 시스템은 진동촉각마우스, 비디오 입력용 웹캠, 마커 패턴 영상, 그래픽 구 버블 객체, 그래픽 마우스 등으로 구성된다. 버블과의 충돌이 발생하게 되면, 마우스 진동과 버블 포핑의 두가지 효과를 동시에 제공한다. 버블포핑 이벤트로 페이드 아웃 및 발산 이드 아웃 기법을 제안한다. 따라서 시각 및 촉각 버블 포핑은 단일 효과보다 실감있는 증강현실을 전달한다.

저해상도 손 제스처 영상 인식에 대한 연구 (A Study on Hand Gesture Recognition with Low-Resolution Hand Images)

  • 안정호
    • 한국위성정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.57-64
    • /
    • 2014
  • 최근 물리적 디바이스의 도움 없이 사람이 시스템과 인터랙션 할 수 있는 인간 친화적인 인간-기계 인터페이스가 많이 연구되고 있다. 이중 대표적인 것이 본 논문의 주제인 비전기반 제스처인식이다. 본 논문에서 우리는 설정된 가상세계의 객체와의 인터랙션을 위한 손 제스처들을 정의하고 이들을 인식할 수 있는 효과적인 방법론을 제안한다. 먼저, 웹캠으로 촬영된 저해상도 영상에서 사용자의 양손을 검출 및 추적하고, 손 영역을 분할하여 손 실루엣을 추출한다. 우리는 손 검출을 위해, RGB 공간에서 명암에 따라 두개의 타원형 모델을 이용하여 피부색을 모델링하였으며, 블랍매칭(blob matching) 방법을 이용하여 손 추적을 수행하였다. 우리는 플러드필(floodfill) 알고리즘을 이용해 얻은 손 실루엣의 행/열 모드 검출 및 분석을 통해 Thumb-Up, Palm, Cross 등 세 개의 손모양을 인식하였다. 그리고 인식된 손 모양과 손 움직임의 콘텍스트를 분석해서 다섯 가지 제스처를 인식할 수 있었다. 제안하는 제스처인식 방법론은 정확한 손 검출을 위해 카메라 앞에 주요 사용자가 한 명 등장한다는 가정을 하고 있으며 많은 실시간 데모를 통해 효율성 및 정확성이 입증되었다.

사물인터넷(IoT) 환경에서 프라이버시 보호 기술: 네트워크 카메라 사례 연구 (Privacy Protection Technologies on IoT Environments: Case Study of Networked Cameras)

  • 김미희
    • 한국콘텐츠학회논문지
    • /
    • 제16권9호
    • /
    • pp.329-338
    • /
    • 2016
  • 물리적인 세계의 모든 사물들이 디지털화되고 통신이 이루어지는 사물인터넷(Internet of Things; IoT) 기술은 새로운 패러다임으로 부각되고 있고 편리하고 효율적인 생활을 제공할 것으로 기대되고 있다. 그러나 성공적인 기술의 실현을 위해서는 IoT 보안이라는 중요한 선결 이슈가 존재하며, 특히 인간과 직접 관계된 사물 통신이라는 점에서 프라이버시 보호는 더욱 중요시 될 것으로 예상된다. 본 논문에서는 IoT 환경에서의 보안과 프라이버시 위협에 대해 기술하고, 쇼단(인터넷에 연결된 라우터, 스위치, 공유기, 웹캠, IoT기기 등을 찾아주는 합법적인 백도어 검색엔진)을 통한 IoT 장비의 보안과 프라이버시 노출 가능성을 지적한다. 마지막으로 현재 많이 사용되고 있는 네트워크 카메라의 실제 사례들을 통해 프라이버시 보안 위협들을 비교하며 대응방안에 대해 기술한다.

전역 임계치 벡터의 유전적 진화에 기반한 적응형 배경차분화 (Adaptive Background Subtraction Based on Genetic Evolution of the Global Threshold Vector)

  • 임양미
    • 한국멀티미디어학회논문지
    • /
    • 제12권10호
    • /
    • pp.1418-1426
    • /
    • 2009
  • 주어진 배경 이미지로부터 전경 객체를 분리하는 것을 목표로 하는 배경 차분화 기법에 관한 많은 연구가 있어 왔다. 최근에 발표된 몇 가지 통계 기반 배경 차분화 기법들은 동적인 환경에서 동작할 수 있을 정도로 안정된 성능을 보이는 것으로 보고되고 있다. 그러나 이들 기법은 일반적으로 매우 많은 계산 자원을 요구하며, 객체의 명확한 윤곽을 획득하는데 있어서는 아직 어려움이 있다. 본 논문에서는 점진적으로 변화하는 배경을 모델링하기 위해 복잡한 통계 기법을 적용하는 대신 간단한 이동-평균 기법을 사용한다. 또한 픽셀별로 할당되는 다중의 임계치 대신 유전자 학습에 의해 최적화되는 하나의 전역적 임계치를 사용한다. 유전자 학습을 위해 새로운 적합도 함수를 정의하여 학습하고 이를 이용하여 이미지의 분할 결과들을 평가한다. 본 논문의 시스템은 웹 카메라가 장착된 개인용 컴퓨터에서 구현하였으며, 실사 이미지들에 대한 실험 결과에 의하면 기존의 가우시안 믹스쳐 방식보다 우수한 성능을 보이는 것으로 나타났다.

  • PDF

영상센서/GPS에 기반한 차량의 이동변위 추정 (Vehicle Displacement Estimation By GPS and Vision Sensor)

  • 김민우;임준후;박제두;김희성;이형근
    • 한국항행학회논문지
    • /
    • 제16권3호
    • /
    • pp.417-425
    • /
    • 2012
  • 위치결정기법으로 근래에 널리 활용되는 GPS(Global Navigation Satellite System)는 가시성이 확보되지 않은 상황에서는 측위가 어려운 단점을 내포하고 있다. 이와 같은 단점을 극복하고 위치 정확도를 향상시키기 위하여 최근에 영상센서와 기존 항법시스템을 결합하는 복합측위에 대한 연구가 활발하게 이루어지고 있다. 본 논문에서는 GPS 기반 차량 항법의 성능을 보완하기 위하여 GPS와 단일 Webcam을 결합하여 차량의 이동변위를 효과적으로 추정하는 복합측위 방법을 제안하였다. 제안된 방법은 가시 위성이 부족한 구간에서도 2개 이상의 GPS 측정치가 가용할 경우 영상센서 정보를 결합하여 차량 위치해의 정확도를 유지한다. 실측 데이터를 바탕으로 GPS 위성을 2개로 줄인 구간에서도 오차가 바로 발산하지 않고 최대 누적 오차가 N축 방향으로 약 2.5m E축 방향으로 약 3m가 발생하는 것을 확인하였다.

Webcam-Based 2D Eye Gaze Estimation System By Means of Binary Deformable Eyeball Templates

  • Kim, Jin-Woo
    • Journal of information and communication convergence engineering
    • /
    • 제8권5호
    • /
    • pp.575-580
    • /
    • 2010
  • Eye gaze as a form of input was primarily developed for users who are unable to use usual interaction devices such as keyboard and the mouse; however, with the increasing accuracy in eye gaze detection with decreasing cost of development, it tends to be a practical interaction method for able-bodied users in soon future as well. This paper explores a low-cost, robust, rotation and illumination independent eye gaze system for gaze enhanced user interfaces. We introduce two brand-new algorithms for fast and sub-pixel precise pupil center detection and 2D Eye Gaze estimation by means of deformable template matching methodology. In this paper, we propose a new algorithm based on the deformable angular integral search algorithm based on minimum intensity value to localize eyeball (iris outer boundary) in gray scale eye region images. Basically, it finds the center of the pupil in order to use it in our second proposed algorithm which is about 2D eye gaze tracking. First, we detect the eye regions by means of Intel OpenCV AdaBoost Haar cascade classifiers and assign the approximate size of eyeball depending on the eye region size. Secondly, using DAISMI (Deformable Angular Integral Search by Minimum Intensity) algorithm, pupil center is detected. Then, by using the percentage of black pixels over eyeball circle area, we convert the image into binary (Black and white color) for being used in the next part: DTBGE (Deformable Template based 2D Gaze Estimation) algorithm. Finally, using DTBGE algorithm, initial pupil center coordinates are assigned and DTBGE creates new pupil center coordinates and estimates the final gaze directions and eyeball size. We have performed extensive experiments and achieved very encouraging results. Finally, we discuss the effectiveness of the proposed method through several experimental results.

차세대 공항 서비스를 위한 베이지안 연령추정기법을 이용하는 스마트 디지털 사이니지에 대한 연구 (A Study on a Smart Digital Signage Using Bayesian Age Estimation Technique for the Next Generation Airport Service)

  • 김춘호;이동우;백경민;문성엽;허찬;나종화;온승엽;최우영
    • 한국항행학회논문지
    • /
    • 제18권6호
    • /
    • pp.533-540
    • /
    • 2014
  • 차세대 공항 서비스를 위하여 고객의 연령 정보를 인식하는 스마트 디지털 사이니지를 제안한다. 제안된 시스템은 고객의 얼굴을 검출하고 연령대를 베이지안 분류기법을 이용하여 추정하여 맞춤형 정보를 디스플레이 함으로서 고객의 만족도를 향상시키도록 설계되었다. 연령대 인식은 카메라를 이용하여 고객의 얼굴 영상을 획득한 뒤, 얼굴의 주름을 계산하고 베이지안 분류기를 이용하여 연령대를 추정한다. 개발된 연령대 인식기반 스마트 디지털 사이니지는 영상시스템 평가용 FERET 얼굴 데이터베이스를 이용하여 성능을 검증하였다. 연령추정 스마트 디지털 사이니지는 다양한 연령대의 공항고객에게 맞춤형 광고를 제시함으로서 광고 효율을 개선하여 공항 고객의 만족도 향상에 기여할 수 있을 것으로 기대된다.

지능형 IoT 미러 시스템을 활용한 인터랙티브 콘텐츠 서비스 구현 (Development of Interactive Content Services through an Intelligent IoT Mirror System)

  • 정원석;서정욱
    • 한국항행학회논문지
    • /
    • 제22권5호
    • /
    • pp.472-477
    • /
    • 2018
  • 본 논문에서는 지능형 IoT (internet of things) 미러 시스템을 통해 사용자의 우울증 예방을 위한 인터랙티브 콘텐츠 서비스를 구현한다. 인터랙티브 콘텐츠 서비스를 위해 IoT 미러 장치는 뇌파 헤드셋 디바이스로부터 집중도 및 명상도 데이터를 측정하고, 웹캠을 통해 다층 퍼셉트론 알고리즘으로 분류된 "슬픔", "분노", "혐오감", "중립", "행복" 및 "놀람"과 같은 표정 데이터를 측정한 후, oneM2M 표준을 준용한 IoT 서버로 전송한다. IoT 서버에 수집된 데이터는 제안한 병합 레이블링 과정을 거쳐 세 가지의 우울 단계(RED, YELLOW, GREEN)를 분류하는 기계학습 모델을 생성한다. 실험을 통해 k-최근접 이웃 모델로 우울 단계를 분류한 결과 약 93%의 정확도를 얻을 수 있었고, 분류된 우울 단계에 따라 가족, 친구 및 사회복지사에게 소셜 네트워크 서비스 에이전트를 통해 알림 메시지를 전송하여 사용자와 보호자 간의 인터랙티브 콘텐츠 서비스를 구현하였다.

인공지능 기반 구글넷 딥러닝과 IoT를 이용한 의류 분류 (Classification of Clothing Using Googlenet Deep Learning and IoT based on Artificial Intelligence)

  • 노순국
    • 스마트미디어저널
    • /
    • 제9권3호
    • /
    • pp.41-45
    • /
    • 2020
  • 최근 4차 산업혁명 관련 IT기술 중에서 머신러닝과 딥러닝으로 대표되는 인공지능과 사물인터넷은 다양한 연구를 통해 여러 분야에서 우리 실생활에 적용되고 있다. 본 논문에서는 사물인터넷과 객체인식 기술을 활용한 인공지능을 적용하여 의류를 분류하고자 한다. 이를 위해 이미지 데이터셋은 웹캠과 라즈베리파이를 이용하여 의류를 촬영하고, 촬영된 이미지 데이터를 전이학습된 컨벌루션 뉴럴 네트워크 인공지능망인 구글넷에 적용하였다. 의류 이미지 데이터셋은 온전한 이미지 900개와 손상이 있는 이미지 900 그리고 총 1800개를 가지고 상하의 2개의 카테고리로 분류하였다. 분류 측정 결과는 온전한 의류 이미지에서는 약 97.78%의 정확도를 보였다. 결론적으로 이러한 측정결과와 향후 더 많은 이미지 데이터의 보완을 통해 사물인터넷 기반 플랫폼상에서 인공지능망을 활용한 여타 사물들의 객체 인식에 대한 적용 가능성을 확인하였다.