• 제목/요약/키워드: 시선 인식

검색결과 166건 처리시간 0.029초

지능형 휠체어를 위한 시선 인식 인터페이스 개발 (Gaze Recognition Interface Development for Smart Wheelchair)

  • 박세현
    • 재활복지공학회논문지
    • /
    • 제5권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

SVM 기반의 시선 인식 시스템의 구현 (An Implementation of Gaze Recognition System Based on SVM)

  • 이규범;김동주;홍광석
    • 정보처리학회논문지B
    • /
    • 제17B권1호
    • /
    • pp.1-8
    • /
    • 2010
  • 시선 인식에 관한 연구는 현재 사용자가 응시하고 있는 위치를 파악하는 것으로 많은 응용 분야를 가지며 지속적으로 발전되어 왔다. 기존의 시선 인식에 관한 대부분의 연구는 적외선 LED 및 카메라, 고가의 헤드마운티드 장비 등을 이용하였기 때문에 범용 사용에 문제점을 가지고 있다. 이에 본 논문에서는 한 대의 PC용 웹 카메라를 사용한 SVM(Support Vector Machine) 기반의 시선 인식 시스템을 제안하고 구현한다. 제안한 시스템은 4방향과 9방향의 시선을 인식하기 위해 모니터를 가로 6, 세로 6, 총 36개의 시선 위치로 나누어 각각 9개, 4개씩 그룹핑 및 학습하여 사용자의 시선을 인식한다. 또한, 시선 인식의 성능을 높이기 위해 차영상 엔트로피를 이용한 영상 필터링 방법을 적용한다. 제안한 시스템의 성능을 평가하기 위하여 기존에 제시되었던 차영상 엔트로피 기반의 시선 인식 시스템, 눈동자 중심점과 눈의 끝점을 이용한 시선 인식 시스템, PCA 기반의 시선 인식 시스템을 구현하고 비교 실험을 수행하였다. 실험 결과 본 논문에서 제안한 SVM 기반의 시선 인식 시스템이 4방향은 94.42%, 9방향은 81.33%의 인식 성능을 보였으며, 차영상 엔트로피를 이용한 영상 필터링 방법을 적용하였을 경우에 4방향은 95.37%, 9방향은 82.25%의 성능을 보여 기존의 시선 인식 시스템보다 높은 성능을 나타내었다.

시선인식을 이용한 지능형 휠체어 시스템

  • 김태의;이상윤;권경수;박세현
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2009년도 춘계학술대회 미래 IT융합기술 및 전략
    • /
    • pp.88-92
    • /
    • 2009
  • 본 논문에서는 시선인식을 이용한 지능형 휠체어 시스템에 대해 설명한다. 지능형 휠체어는 초음파센서를 이용하여 전동휠체어가 장애물을 감지하여 회피할 수 있게 하고, 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 인터페이스를 제안한다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선 추적을 한다. 시선이 응시하는 곳의 명령어를 사용자 인터페이스를 통해서 하달 받고, 모터 제어 모듈은 하달된 명령과 센서들에 의해 반환된 장애물과의 거리 정보로 모터제어보드에 연결되어 있는 두 개의 좌우 모터들을 조종한다. 센서 모듈은 전등휠체어가 움직이는 동안에 주기적으로 센서들로부터 거리 값을 반환 받아 벽 또는 장애물을 감지하여 장애물 회피 모듈에 의해 장애물을 우회 하도록 움직인다. 제안된 방법의 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 효과적으로 감지하고 보다 정확하게 장애물을 회피 할 수 있음을 보였다.

  • PDF

스마트 이동단말 기반 시선 추적기 설계 (A Design of Gaze Tracker based on Smart Mobile Device)

  • 고기남;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1455-1456
    • /
    • 2013
  • 최근 스마트 이동단말에 장착된 영상 센서를 통해 획득한 영상에서 실시간으로 사용자의 눈을 인식하거나 시선을 추적하여 콘텐츠 제어, 행태 분석 등을 수행하는 기술에 대한 필요성이 증가하고 있다. 기존의 영상 분석 기반 시선 추적 기술은 고가의 시선 추적기를 기반으로 하며, 추적한 시선 좌표를 통해 실제 응시객체를 분석하는 사후 작업이 필요하다. 이에, 본 논문에서는 OpenCV를 기반으로 스마트 이동단말의 전면에 장착된 영상 센서에서 사용자의 눈을 인식하고, 시선을 추적한 후, 이를 실시간으로 시선 좌표와 화면의 콘텐츠 내 객체 영역을 매칭함으로써, 응시객체를 분석하는 스마트 이동단말 기반 시선 추적기를 설계하였다. 본 논문의 시선 추적기는 시선 추적을 수행하기 위해, 사용자에게 5개의 화면 교정점을 제공하고 응시하도록 하여 시선 추적 범위를 측정한다. 또한, 스마트 이동단말에 내장된 자이로스코프 센서를 통해 기울기가 변경될 시, 이를 반영하여 시선 교정을 수행하도록 설계하였다.

실내 환경에서 시선 방향을 고려한 사람 행동 인식 (Human Behavior Recognition based on Gaze Direction In Office Environment)

  • 공병용;정도준;김항준
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.119-120
    • /
    • 2007
  • 본 논문에서는 실내의 고정된 단일 칼라 카메라에서 획득된 비디오 스트림으로부터 사람의 행동을 인식하기 위한 시스템을 제안한다. 제안된 시스템은 사람의 시공간적 상태 변화와 사람의 시선 방향을 이용하여 규칙기반으로 행동을 인식한다. 사람의 의미 있는 상태변화를 이벤트로, 이벤트의 시퀀스 즉, 사람의 행동을 시나리오로 정의하였다. 따라서 입력비디오 스트림에서 사람의 상태변화로 이벤트를 검출하고, 검출된 이벤트의 시퀀스로 사람의 행동을 인식한다. 사람의 시선은 얼굴과 머리 영역의 색정보를 이용한 시선 방향 추정 방법으로 찾아지며, 사람의 상태 변화는 사람의 위치와 키 등을 이용하여 검출된다. 본 시스템은 실내 환경에서 획득한 비디오에서 실험하였으며, 실험결과 시선 방향에 의해 서로 다른 행동을 구분하여 인식할 수 있었다.

  • PDF

모델 기반의 시선 방향 추정을 이용한 사람 행동 인식 (Human Activity Recognition using Model-based Gaze Direction Estimation)

  • 정도준;윤정오
    • 한국산업정보학회논문지
    • /
    • 제16권4호
    • /
    • pp.9-18
    • /
    • 2011
  • 본 논문에서는 모델 기반으로 추정한 사람의 시선 방향을 이용하여 실내 환경에서 발생 할 수 있는 사람의 행동을 인식하는 방법을 제안한다. 제안하는 방법은 크게 두 단계로 구성된다. 첫째, 행동 인식을 위한 사전 정보를 얻는 단계로 사람의 머리 영역을 검출하고 시선 방향을 추정한다. 사람의 머리 영역은 색상 정보와 모양 정보를 이용하여 검출하고, 시선 방향은 머리와 얼굴의 관계를 표현한 베이지안 네트워크 모델을 이용하여 추정한다. 둘째, 이벤트와 사람의 행동을 나타내는 시나리오를 인식하는 단계이다. 이벤트는 사람의 상태 변화로 인식하고, 시나리오는 이벤트들의 조합과 제약 사항을 이용하여 규칙 기반으로 인식한다. 본 논문에서는 시선방향과 연관이 있는 4 가지의 시나리오를 정의하여 실험 한다. 실험을 통해 시선 방향 추정의 성능과 시선 방향이 고려된 상황에서의 행동 인식 성능을 보인다.

스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템 (Gaze Recognition System using Random Forests in Vehicular Environment based on Smart-Phone)

  • 오병훈;정광우;홍광석
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 논문에서는 스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템을 제안한다. 제안한 시스템은 Adaboost 알고리즘을 이용한 얼굴 검출, 히스토그램 정보를 이용한 얼굴 구성 요소 추출, 그리고 랜덤 포레스트 알고리즘 기반의 시선 인식으로 구성되어 있다. 카메라로부터 획득한 영상정보를 바탕으로 운전자의 얼굴을 검출하고, 이를 기반으로 운전자의 얼굴 구성 요소를 추정한다. 그리고 추정된 구성 요소로부터 시선 인식에 필요한 특징 벡터를 추출하고, 랜덤 포레스트 인식 알고리즘을 이용하여 9개 방향에 대한 시선을 인식한다. 실험을 위해 실제 환경에서 다양한 시선 방향을 포함하여 DB를 수집하였으며, 실험 결과 얼굴 검출률은 약 82.02%, 시선 인식률은 약 84.77% 성능을 확인하였다.

차영상 엔트로피를 이용한 시선 인식 시스템의 구현 (An Implementation of Gaze Direction Recognition System using Difference Image Entropy)

  • 이규범;정동근;홍광석
    • 정보처리학회논문지B
    • /
    • 제16B권2호
    • /
    • pp.93-100
    • /
    • 2009
  • 본 논문에서는 차영상 엔트로피 기반의 시선 인식 시스템을 제안한다. 차영상 엔트로피는 현재 입력된 영상과 참조 영상 또는 시선의 위치별 평균 영상들로부터 차영상을 획득하고, -255부터 +255까지의 히스토그램 빈도수를 이용하여 계산한다. 차영상 엔트로피 기반의 시선 인식방법은 2가지 방법이다. 1) 첫 번째 방법은 현재 입력된 영상과 시선 위치별 45개의 평균 영상들과의 차영상 엔트로피를 계산하여 현재 응시하고 있는 방향을 인식하고, 2) 두 번째 방법은 현재 입력된 영상과 45개의 참조 영상들과의 차영상 엔트로피를 계산하여 현재의 응시 방향을 인식한다. 참조 영상은 네 방향의 영상을 입력받아 시선 위치별 45개의 평균 영상을 이용하여 생성한다. 제안한 시스템의 성능을 평가하기 위해 PCA 기반의 시선 인식 시스템과 비교 실험을 하였고, 인식 방향은 좌상, 우상, 좌하, 우하 네 방향으로 하였으며, 45개의 참조 영상 또는 평균영상에 대하여 인식 영역을 변경하여 실험하였다. 실험 결과 차영상 엔트로피는 97.00%, PCA는 95.50%의 인식률을 보여 차영상 엔트로피 기반의 시스템이 PCA 기반의 시스템보다 1.50% 더 높은 인식률을 나타내었다.

시선인식기능기반 스마트러닝 시스템 설계 (Design of Smart Learning System Based on Gaze Recognition Function)

  • 최승란
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 춘계학술발표대회
    • /
    • pp.306-309
    • /
    • 2015
  • 현재 태블릿 PC와 스마트기기의 급속한 보급으로 다양한 분야의 스마트러닝 시스템들이 운영되고 있다. 그러나 현재까지의 스마트러닝 시스템에서는 학습자가 강의를 정확하게 수강하였는지의 판단은 로그인과 동영상강의의 런닝타임으로 체크하여 학습자가 동영상강의를 제대로 수강하였는지는 판단하기 어렵다. 그래서 본 논문에서는 기존 스마트러닝 시스템에 스마트기기의 내장 카메라를 이용한 시선인식기능을 사용하여 학습자가 동영상강의를 수강하는 동안 시선인식이 되지 못하면 동영상이 멈추게 설계하여 강의내용을 끝까지 수강하게 한다. 그리고 각 수강생별로 시선인식이 되지않아 동영상이 멈춘 시간대와 멈춘 시간을 기록하여 강의종료 후 서버에 전송하여 전체 강의시간에 대한 집중도를 체크하며 학습자의 수강여부를 판단하고 같은 강의를 수강하는 여러 학습자들의 자료를 분석하여 교수자가 강의를 개선할 수 있는 스마트러닝 시스템을 설계하려고 한다.

시선 인식을 이용한 자율 주행 휠체어 시스템 (Autonomous Wheelchair System Using Gaze Recognition)

  • 김태의;이상윤;권경수;박세현
    • 한국산업정보학회논문지
    • /
    • 제14권4호
    • /
    • pp.91-100
    • /
    • 2009
  • 본 논문에서는 시선 인식을 이용하여 사용자의 명령을 전달받고, 거리 센서들에 의해 감지된 거리 정보를 통해 주행 중에 장애물을 회피할 수 있는 지능형 휠체어 시스템을 제안한다. 사용자의 명령은 적외선 필터가 장착된 카메라를 통해 검출된 눈의 동공 중심과 반사점을 이용하여 시선에 의해 인식되고, 이는 사용자 인터페이스를 통해 휠체어를 조종한다. 이때 10개의 초음파 센서를 이용하여 장애물을 감지하고, 목표지점까지 장애물과의 충돌을 피하도록 도와준다. 제안된 지능형 휠체어 시스템은 시선 인식기, 자율 주행 모듈, 센서 제어 보드, 모터제어 보드로 구성된다. 시선 인식기는 사용자의 명령을 인식하고, 이를 모터 제어보드를 통해 휠체어를 조종한다. 그 후에 초음파 센서들에 의해 감지된 장애물 정보는 센서 제어 보드로 전달되고, 센서 제어 보드는 이 정보를 자율 주행 모듈로 전달한다. 자율 주행 모듈은 장애물을 감지하고 이를 피하기 위해 모터 제어 보드로 명령을 전달한다. 모터제어보드는 자율 주행 모듈에서 받은 명령어를 지능형 휠체어에 전달하고 지능형 휠체어는 이 명령에 따라 움직인다. 실험에서 제안된 시스템은 사용자의 편의와 안전을 위해 효과적으로 시선을 인식하고 장애물 회피할 수 있음을 보인다.