• 제목/요약/키워드: Camera Action

검색결과 121건 처리시간 0.028초

비인가 접근 사용자 확인을 위한 앱 (An Application for Checking Unauthorized Access User)

  • 용승림;조혜민;이민철
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2015년도 제52차 하계학술대회논문집 23권2호
    • /
    • pp.167-168
    • /
    • 2015
  • 본 논문에서는 스마트폰 인증기법 중 연산기반 패스워드 기법을 통하여 사용자의 접근을 제어하고 비인가 접근자에 대해 얼굴을 촬영하여 비인가 접근 시도를 소유자가 확인할 수 있도록 한다. 우선적으로 사용자 접근 제어를 위해 연산기반 패스워드 기법을 이용하고, 비인가 접근이 확인되는 경우 잠금 기능과 함께 비인가자의 얼굴을 촬영하여 소유자가 비인가자를 확인할 수 있는 카메라 액션을 추가한다. 스마트폰 소유자는 사용자의 접근을 제어하고 비인가자의 접근에 대한 확인을 할 수 있으므로 안전성에 대한 향상을 기대할 수 있다.

  • PDF

심층 큐 신경망을 이용한 게임 에이전트 구현 (Deep Q-Network based Game Agents)

  • 한동기;김명섭;김재윤;김정수
    • 로봇학회논문지
    • /
    • 제14권3호
    • /
    • pp.157-162
    • /
    • 2019
  • The video game Tetris is one of most popular game and it is well known that its game rule can be modelled as MDP (Markov Decision Process). This paper presents a DQN (Deep Q-Network) based game agent for Tetris game. To this end, the state is defined as the captured image of the Tetris game board and the reward is designed as a function of cleared lines by the game agent. The action is defined as left, right, rotate, drop, and their finite number of combinations. In addition to this, PER (Prioritized Experience Replay) is employed in order to enhance learning performance. To train the network more than 500000 episodes are used. The game agent employs the trained network to make a decision. The performance of the developed algorithm is validated via not only simulation but also real Tetris robot agent which is made of a camera, two Arduinos, 4 servo motors, and artificial fingers by 3D printing.

Fall Situation Recognition by Body Centerline Detection using Deep Learning

  • Kim, Dong-hyeon;Lee, Dong-seok;Kwon, Soon-kak
    • Journal of Multimedia Information System
    • /
    • 제7권4호
    • /
    • pp.257-262
    • /
    • 2020
  • In this paper, a method of detecting the emergency situations such as body fall is proposed by using color images. We detect body areas and key parts of a body through a pre-learned Mask R-CNN in the images captured by a camera. Then we find the centerline of the body through the joint points of both shoulders and feet. Also, we calculate an angle to the center line and then calculate the amount of change in the angle per hour. If the angle change is more than a certain value, then it is decided as a suspected fall. Also, if the suspected fall state persists for more than a certain frame, then it is determined as a fall situation. Simulation results show that the proposed method can detect body fall situation accurately.

저조도 환경 감시 영상에서 시공간 패치 프레임을 이용한 이상행동 분류 (Spatiotemporal Patched Frames for Human Abnormal Behavior Classification in Low-Light Environment)

  • ;공성곤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.634-636
    • /
    • 2023
  • Surveillance systems play a pivotal role in ensuring the safety and security of various environments, including public spaces, critical infrastructure, and private properties. However, detecting abnormal human behavior in lowlight conditions is a critical yet challenging task due to the inherent limitations of visual data acquisition in such scenarios. This paper introduces a spatiotemporal framework designed to address the unique challenges posed by low-light environments, enhancing the accuracy and efficiency of human abnormality detection in surveillance camera systems. We proposed the pre-processing using lightweight exposure correction, patched frames pose estimation, and optical flow to extract the human behavior flow through t-seconds of frames. After that, we train the estimated-action-flow into autoencoder for abnormal behavior classification to get normal loss as metrics decision for normal/abnormal behavior.

감시카메라 영상기반 응급상황 탐지 및 이동로봇 추적 시스템 (Emergency Situation Detection using Images from Surveillance Camera and Mobile Robot Tracking System)

  • 한태우;서용호
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.101-107
    • /
    • 2009
  • 본 논문은 감시카메라 영상으로부터 응급상황을 탐지하는 방법과 응급상황의 정밀 탐색 및 서비스를 위한 이동로봇 추적 시스템 개발에 대하여 기술한다. 건물 곳곳에 설치된 카메라로부터 얻어지는 일련의 영상들을 분석하여 처리함으로써 사람의 행동을 인식할 수 있으며, 이 중 응급상황이 탐지된 경우 준비된 이동로봇을 이용해 응급상황 발생지점의 정밀 탐색이 가능하다. 감시 카메라 영상을 통하여 사람의 행동들을 인식하기 위해서는 인간의 모습이라고 가정되는 영역들을 추적하고 관리해야 한다. 한 영상에서 가우시안 혼합 모델(MOG)을 이용하여 배경과 분리된 관심 영역들을 추출하고, 각 영역들을 외관 모델을 이용하여 지속적으로 추적한다. 그리고 각 영역의 실루엣 정보를 이용한 움직임 누적 영상(MHI)을 생성하여 행동을 모델링하고 신경망을 이용하여 응급 상황을 최종 인식한다. 또한 응급상황에 처한 사람과 이동로봇의 위치정보를 계산해 이동로봇이 사람에게 접근하는 기술을 구현한다.

  • PDF

손 마비환자의 재활운동을 위한 테이블-탑 증강현실 시스템 구현 (An Implementation of Table-top based Augmented Reality System for Motor Rehabilitation of the Paretic Hand)

  • 이석준;박길흠;이양수;곽호완;문계완;최재헌;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제16권2호
    • /
    • pp.254-268
    • /
    • 2013
  • 본 논문에서는 마비/편마비 환자의 손 재활운동을 위한 증강현실 인터랙션을 통한 재활운동시스템을 제안한다. 주로 기계적 장치에 의존하고 있는 기존의 마비환자 재활운동시스템에서 가정에서 손쉽게 재활훈련을 수행할 수 있도록 시스템을 구성하기위하여 컴퓨터 비전 기법을 이용하여 재활훈련에 필요한 장비를 최소화하고 좀 더 간편하게 설치하여 사용할 수 있도록 하는데 초점을 맞추었다. 본 논문에서 제안된 방법은 손끝의 움직임과 상태를 손끝마커의 위치와 접촉여부를 검사함으로써 인터랙션 상태를 점검한다. 한대의 카메라로부터 입력되는 손끝 마커의 2차원 위치는 3차원 객체와의 인터랙션을 위하여 ARToolKit 마커를 기반으로 보정된 3차원 카메라 공간상의 좌표로 변환되어 사용된다. 3차원 좌표계로 변환과정을 거친 손끝 마커의 3차원 위치는 3차원 객체와의 인터랙션에 반영함으로써 증강현실 기반의 인터랙션을 구현하였다. 본 논문에서 제시한 인터랙션 기법의 구현내용을 실험결과에서 나타내었고, 증강현실 기반 테이블탑 환경에서 마비환자의 재활운동에 활용될 수 있음을 나타내었다.

스테레오 비전 기반 Light Drawing 시스템 구현 (Implementation of Digital Light Drawing System based on Stereo Vision)

  • 박원배;박창범;백두원
    • 한국콘텐츠학회논문지
    • /
    • 제10권2호
    • /
    • pp.130-137
    • /
    • 2010
  • Light Drawing은 사진 촬영 기법 중 하나로, 어두운 방이나 밤에 빛이 나는 물체의 움직임을 노출 기법을 이용하여 촬영 한 것이다[1]. 사용자가 Light Drawing을 만들려 한다면 장 노출 카메라가 필요하고, 어두운 환경이 필요함으로 제한사항이 따르며 사용자는 3차원 공간에 그림을 그리는 것에 어려움을 느낀다. 반면에 포토�斌� 같은 컴퓨터 드로잉 툴을 사용하여 Light Drawing 효과를 낼 수 있다. 그러나 마우스나, 타블렛과 같은 입력 장치는 실제로 그림을 그리는 행위와 차이가 나기에 사용자들의 흥미를 반감시킨다. 본 논문에서는 Light Drawing을 손쉽게 제작 가능한 디지털 컨텐츠를 제안한다. 스테레오 비전을 이용하여 빛의 3차원 위치 정보를 계산하고 Drawing Effect를 이용하여 3차원 가상 공간에 Light Drawing을 구현하였다.

원규격 기반 후반작업을 고려한 실사 VR 영상 촬영 (VR Image Shooting Considering Post-Production based Raw Format)

  • 김철현
    • 방송공학회논문지
    • /
    • 제23권6호
    • /
    • pp.866-875
    • /
    • 2018
  • 최근 VR 콘텐츠의 인기와 함께 다양한 촬영장치를 이용한 실사기반 VR 360 영상제작이 주목을 받고 있다. 과거 VR 콘텐츠 제작은 많은 작업이 필요해 연구소 수준에서만 가능했으나 최근 카메라의 소형화로 VR 실사 촬영이 콘텐츠 제작자들에게 보편화되고 있다. 본 논문은 오늘날 상황에서 유통되는 다양한 VR 콘텐츠를 비교 연구하고 비용면에서 강인한 실사 기반 360 영상제작의 장단점을 분석하고 있다. 기존 영상 촬영 전문가가 사용하기 어려운 단점을 지적하고 이를 위한 해결 방안을 제시하고자 한다. 액션캠이나 일체형 카메라보다 수동조작이 가능하고, 원규격(raw foramt) 지원 카메라에서 360 촬영이 영화식 후반작업에 더 적합하다는 것을 간단한 실험 촬영을 통해 증명하였다.

Deep learning based Person Re-identification with RGB-D sensors

  • Kim, Min;Park, Dong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권3호
    • /
    • pp.35-42
    • /
    • 2021
  • 본 연구에서는 3차원 RGB-D Xtion2 카메라를 이용하여 보행자의 골격좌표를 추출한 결과를 바탕으로 동적인 특성(속도, 가속도)을 함께 고려하여 딥러닝 모델을 통해 사람을 인식하는 방법을 제안한다. 본 논문의 핵심목표는 RGB-D 카메라로 손쉽게 좌표를 추출하고 새롭게 생성한 동적인 특성을 기반으로 자체 고안한 1차원 합성곱 신경망 분류기 모델(1D-ConvNet)을 통해 자동으로 보행 패턴을 파악하는 것이다. 1D-ConvNet의 인식 정확도와 동적인 특성이 정확도에 미치는 영향을 알아보기 위한 실험을 수행하였다. 정확도는 F1 Score를 기준으로 측정하였고, 동적인 특성을 고려한 분류기 모델(JCSpeed)과 고려하지 않은 분류기 모델(JC)의 정확도 비교를 통해 영향력을 측정하였다. 그 결과 동적인 특성을 고려한 경우의 분류기 모델이 그렇지 않은 경우보다 F1 Score가 약 8% 높게 나타났다.

인체 모델링을 이용한 인체의 조인트 자동 검출 및 인체 매핑 (Automatic Detecting of Joint of Human Body and Mapping of Human Body using Humanoid Modeling)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제15권4호
    • /
    • pp.851-859
    • /
    • 2011
  • 본 논문에서는 인간과 컴퓨터의 상호작용을 위해 연속된 입력영상에서 인체의 실루엣과 조인트를 자동추출하고 조인트를 추적함으로 객체를 추적하는 방법을 제안한다. 또한 추출된 조인트를 이용하여 인체를 매핑하여 사람의 동작을 재현한다. 이를 위해 인체의 치수를 이용하여 인체 움직임을 제어하는 14개의 조인트로 인체를 모델링한다. 제안방법은 단일카메라로 RGB 컬러로 입력되는 영상을 색상, 채도, 명암의 영상으로 변환한 후 차 영상기법을 이용하여 인체의 실루엣을 추출한다. 추출된 실루엣의 코너점과 인체 모델링 정보를 이용하여 조인트를 자동 검출한다. 객체의 움직임 추적은 전체 영상 중 조인트를 중심으로 블록매칭 기법을 이용하며 추출된 조인트의 위치정보를 이용하여 인체의 움직임을 매핑한다. 제안방법을 실험동영상에 적용한 결과 인체의 실루엣과 조인트를 자동 검출하며 추출된 조인트로 인체의 매핑이 효율적으로 이루어졌다. 또한 조인트의 추적이 매핑된 인체에 반영되어 인체의 움직임도 적절히 표현되었다.