• 제목/요약/키워드: Skin color region detection

검색결과 141건 처리시간 0.02초

단일 시점 축구 비디오의 3차원 영상 변환을 위한 깊이지도 생성 방법 (2D-to-3D Stereoscopic conversion: Depth estimation in monoscopic soccer videos)

  • 고재승;김영우;정용주;김창익
    • 방송공학회논문지
    • /
    • 제13권4호
    • /
    • pp.427-439
    • /
    • 2008
  • 본 논문에서는 일반 단일 시점의 축구 비디오를 스테레오스코픽 영상으로 변환하는 방법을 제안한다. 축구 비디오 분석 과정을 통하여 축구 비디오를 일정한 종류의 샷으로 분류하고, 분류된 샷 종류에 따른 깊이지도 생성 방법을 제안한다. 원거리 샷의 경우에는 운동장 영역 추출을 통하여 운동장 영역에 깊이기도 (Depth Map)을 생성하는 방법을 제안한다. 그리고 비 원거리 샷의 경우, 운동장 영역 블록 수와, 간단한 피부색 발견 알고리즘을 통해 생성한 스킨 블록의 수에 따라 다시 3가지로 샷을 분류하고, 각 종류의 샷에 따른 깊이지도 생성 방식 1) 오브젝트 영역 추출을 통한 깊이지도 생성, 2) 스킨 블록을 이용한 전경 영역 추출과 가우시안 함수를 이용한 깊이기도 생성, 그리고 3) 스킨블록이 없는 상황에서의 깊이기도 생성 방법을 제안한다. 제안한 방법을 통하여 생성한 깊이 지도를 이용하여, 스테레오스코픽 영상을 생성하는 방법을 소개하고, 생성한 실험영상을 결과로 제공한다. 그리고 주관적 깊이감 품질 평가를 통해서, 제안된 방법을 통해 생성된 영상이 원본 영상에 비해 깊이감이 향상됨을 증명한다.

무인 영상 감시 시스템을 위한 실시간 얼굴 영역 추출 알고리즘 (Real-time Face Localization for Video Monitoring)

  • 주영현;이정훈;문영식
    • 전자공학회논문지C
    • /
    • 제35C권11호
    • /
    • pp.48-56
    • /
    • 1998
  • 본 논문에서는 영상 감시 시스템을 위한 이동물체 추적 및 얼굴 영역 추출 알고리즘을 제안한다. 제안된 방법은 두 단계로 구성되어 있으며, 첫 번째의 이동 물체 감지 단계에서는 각각의 입력 프레임에 대하여 화소값의 변화를 기반으로 한 세 종류의 특징값들을 추출한 다음, 그 값들에 의하여 입력 프레임을 다섯 종류의 클래스로 분류한다. 분류 결과 현재의 프레임이 이동물체를 포함하고 있다면 두 번째의 얼굴 영역 분리 단계에서 컬러 정보와 프레임간의 차이를 이용하여 그 얼굴 영역을 추출하게 된다. 제안된 알고리즘은 광류등 계산시간이 많이 걸리는 특징값들에 의존하지 않으므로 실시간 처리에 적합하다. 또한 여러 테스트 영상시퀀스에 대하여 실험을 수행한 결과 본 논문에서 제안된 알고리즘의 유용성이 입증되었다.

  • PDF

졸음운전 방지를 위한 하품 인식 알고리즘 (Yawn Recognition Algorism for Prevention of Drowsy Driving)

  • 윤원종;이재성
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.447-450
    • /
    • 2013
  • 본 논문에서는 카메라로부터 운전자의 눈동자, 하품을 인식하여 운전자의 졸음운전을 방지하는 방법을 제안한다. Viola-Jones 알고리즘을 사용하여 얼굴의 영역을 확보하고 이로부터 눈 영역과 입 영역을 추출해낸다. 눈 영역에서는 Hough변환을 적용하여 눈동자를 인식하여 졸음을 인식한다. 입 영역에는 전처리 필터를 적용하여 하품할 때 혀의 피부색을 검출한 뒤에 Sub-Window를 사용하여 하품 여부를 판단한다. 실험 결과 하품 인식률은 87%에 달했다. 본 논문에서 제안된 방법을 사용함으로서 졸음운전에 대한 사고를 줄이는 데 기여할 수 있을 것으로 보인다.

  • PDF

손 제스처 기반의 애완용 로봇 제어 (Hand gesture based a pet robot control)

  • 박세현;김태의;권경수
    • 한국산업정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.145-154
    • /
    • 2008
  • 본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식 로봇 제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다.

  • PDF

의상 특징 기반의 동일인 식별 (Person Identification based on Clothing Feature)

  • 최유주;박선미;조위덕;김구진
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-7
    • /
    • 2010
  • 비전 기반의 감시 시스템에서 동일인의 식별은 매우 중요하다. 감시 시스템에서 주로 사용되는 CCTV 카메라의 영상은 상대적으로 낮은 해상도를 가지므로 얼굴 인식 기법을 이용하여 동일인을 식별하기는 어렵다. 본 논문에서는 CCTV 카메라 영상에서 의상 특징을 이용하여 동일인을 식별하는 알고리즘을 제안한다. 건물의 주출입구에서 출입자가 인증을 받을 때, 의상 특징이 데이터베이스에 저장된다. 그 후, 건물 내에서 촬영한 영상에 대해 배경 차감 및 피부색 발견 기법을 이용하여 의상 영역을 발견한다. 의상의 특징 벡터는 텍스처와 색상 특징을 이용하여 구성한다. 텍스처 특징은 지역적 에지 히스토그램을 이용하여 추출된다. 색상 특징은 색상 지도의 옥트리 기반 양자화(octree-based quantization)를 이용하여 추출된다. 건물 내의 촬영 영상이 주어질 때, 데이터베이스에서 의상 특징이 가장 유사한 사람을 발견함으로써 동일인을 식별하며, 의상 특징 벡터 간의 유사도 측정을 위해서는 유클리디안 거리(Euclidean distance)를 사용한다. 실험 결과, 얼굴인식 기법이 최대 43%의 성공률을 보인 데 비해, 의상 특징을 이용하여 80%의 성공률로 동일인을 식별하였다.

비마커 증강현실을 위한 색상 및 깊이 정보를 융합한 Mean-Shift 추적 기반 손 자세의 추정 (The Estimation of Hand Pose Based on Mean-Shift Tracking Using the Fusion of Color and Depth Information for Marker-less Augmented Reality)

  • 이선형;한헌수;한영준
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권7호
    • /
    • pp.155-166
    • /
    • 2012
  • 본 논문은 비마커 증강현실(Marker-less Augmented Reality)을 위한 색상 및 깊이 정보를 융합한 Mean-Shift 추적 알고리즘 기반 손 자세의 추정 기법을 제안한다. 기존 비마커 증강현실의 연구는 손을 검출하기 위해 단순한 실험 배경에서 피부색상 기반으로 손 영역을 검출한다. 그리고 손가락의 특징점을 검출하여 손의 자세를 추정하므로 카메라에서 검출할 수 있는 손 자세에 많은 제약이 따른다. 하지만, 본 논문은 3D 센서의 색상 및 깊이 정보를 융합한 Mean-Shift 추적 기법을 사용함으로써 복잡한 배경에서 손을 검출할 수 있으며 손 자세를 크게 제약하지 않고 손 영역의 중심점과 임의의 2점의 깊이 값만으로 정확한 손 자세를 추정한다. 제안하는 Mean Shift 추적 기법은 피부 색상정보만 사용하는 방법보다 약 50픽셀 이하의 거리 오차를 보였다. 그리고 증강실험에서 제안하는 손 자세 추정 방법은 복잡한 실험환경에서도 마커 기반 방법과 유사한 성능의 실험결과를 보였다.

모바일 증강현실 물체와 몰입형 상호작용을 위한 비전기반 동작제어 (Vision-based Motion Control for the Immersive Interaction with a Mobile Augmented Reality Object)

  • 전준철
    • 인터넷정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.119-129
    • /
    • 2011
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 특히 최근 모바일 증강현실의 활용에 대한 수요증대는 증강된 가상 객체와 사용자간의 효과적인 상호작용 기술 개발을 요구하고 있다. 본 논문에서는 안드로이드기반 모바일 플랫폼에서 비 마커기반의 새로운 모바일 증강현실 객체생성 및 제어 방법을 제시하였다. 전통적인 마커를 대신하여 비 마커기반 모바일 증강현실 시스템에서는 사용자에게 친숙한 손 인터페이스를 이용하였다. 기존의 데스크 탑 기반의 증강현실에 비하여 제한된 시스템 사양을 이용하는 비 마커기반 모바일 증강현실을 구현하기 위하여 마커의 역할을 수행할 손의 최적영역을 모바일 장치의 카메라로부터 실시간으로 검출 하여 객체를 증강시키는 방법을 제시하였다. 손의 최적영역의 추출은 YCbCr 스킨컬러 모델을 이용한 손영역 검출과 Rotating Calipers 알고리즘을 적용한 최적 사각형 추출에 의해 구현하였다. 이때 추출된 최적 사각형은 통상적인 마커기반 증강현실에서의 마커역할을 수행할 수 있도록 하였으며, 기존의 손끝추적에 의한 마커 생성 시 발생하는 손의 회전이나 가려짐에 의한 문제를 해결하였다. 실험을 통하여 제안된 방법이 비 마커기반 모바일 객체를 효과적으로 생성 제어할 수 있음을 입증하였다.

실시간 얼굴 방향성 추정을 위한 효율적인 얼굴 특성 검출과 추적의 결합방법 (A Hybrid Approach of Efficient Facial Feature Detection and Tracking for Real-time Face Direction Estimation)

  • 김웅기;전준철
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.117-124
    • /
    • 2013
  • 본 논문에서는 실시간으로 입력되는 비디오 영상으로부터 사용자의 얼굴 방향을 효율적으로 추정하는 새로운 방법을 제안하였다. 이를 위하여 입력 영상으로부터 외부조명의 변화에 덜 민감한 Haar-like 특성을 이용하여 얼굴영역의 검출을 수행하고 검출 된 얼굴영역 내에서 양쪽 눈, 코, 입 등의 주요 특성을 검출한다. 이 후 실시간으로 매 프레임마다 광류를 이용해 검출된 특징 점을 추적하게 되며, 추적된 특징 점을 이용해 얼굴의 방향성 추정한다. 일반적으로 광류를 이용한 특징 추적에서 발생할 수 있는 특징점의 좌표가 유실되어 잘못된 특징점을 추적하게 되는 상황을 방지하기 위하여 검출된 특징점의 템플릿 매칭(template matching)을 사용해 추적중인 특징점의 유효성을 실시간 판단하고, 그 결과에 따라 얼굴 특징 점들을 다시 검출하거나, 추적을 지속하여 얼굴의 방향성을 추정을 가능하게 한다. 탬플릿 매칭은 특징검출 단계에서 추출된 좌우 눈, 코끝 그리고 입의 위치 등 4가지 정보를 저장한 후 얼굴포즈 측정에 있어 광류에의해 추적중인 해당 특징점들 간의 유사도를 비교하여 유사도가 임계치를 벗어 날 경우 새로이 특징점을 찾아내는 작업을 수행하여 정보를 갱신한다. 제안된 방법을 통해 얼굴의 특성 추출을 위한 특성 검출과정과 검출된 특징을 지속적으로 보완하는 추적과정을 자동적으로 상호 결합하여 안정적으로 실시간에 얼굴 방향성 추정 할 수 있었다. 실험을 통하여 제안된 방법이 효과적으로 얼굴의 포즈를 측정할 수 있음을 입증하였다.

복잡한 영상에 강인한 손동작 인식 방법 (Hand Gesture Recognition Algorithm Robust to Complex Image)

  • 박상윤;이응주
    • 한국멀티미디어학회논문지
    • /
    • 제13권7호
    • /
    • pp.1000-1015
    • /
    • 2010
  • 본 논문에서는 손동작 인식을 위한 새로운 방법을 제안한다. 손 추출을 위한 방법으로는 피부색과 boundary energy 정보를 이용하고 moment method로 손바닥의 중심을 구하게 된다. 손동작 인식은 두 단계로 나눌 수 있다. 첫 번째 단계는 손 형상 인식으로 병렬 신경망을 이용하였다. 손 형상의 패턴을 추출하기 위해서 fitting ellipses method를 이용하였다. fitting ellipses method는 추출된 손 영역을 12개의 타원형으로 분류하고 타원 외곽선의 흰 픽셀 비율을 계산한다. 패턴은 12개의 입력 노드로 신경망에 입력되고 4개의 출력 노드로 출력되는데 각 출력 노드는 0~1사이의 값을 갖게 된다. 손 형상은 4개의 출력 노드의 구성으로 나타낼 수 있다. 두 번째 단계는 손동작 추적과 인식이다. 손동작 추적과 인식을 위해서는 손동작의 위치 정보를 예측 할 수 있는 Kalman Filter를 이용하였다. 실험은 Windows XP상에서 수행되었고 제안한 알고리즘의 효율성을 평가하였다. 손 형상을 인식하기 위해서 300개의 이미지를 인식기에 훈련시키고 200개의 이미지를 실험에 사용하였다. 194개 이상의 이미지가 정확하게 인식 되었다. 그리고 손동작 추적 인식을 실험하기 위해서 1200번의 손동작(각 동작은 400번)을 사용하였고 그 중 1002번의 손동작이 정확하게 인식 되었다.이러한 결과는 제안된 방법이 손 영역을 추출하고 손 동작을 인식하는데 유용함을 확인 할 수 있었다.

HCI를 위한 트리 구조 기반의 자동 얼굴 표정 인식 (Automatic Facial Expression Recognition using Tree Structures for Human Computer Interaction)

  • 신윤희;주진선;김은이;;;박세현;정기철
    • 한국산업정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.60-68
    • /
    • 2007
  • 본 논문에서는 자동으로 사용자의 얼굴 표정을 인식할 수 있는 시스템을 제안한다. 제안된 시스템은 휴리스틱 정보를 기반으로 설계된 트리 구조를 이용하여 행복, 역겨움, 놀람의 감정과 무표정을 인식한다. 카메라로부터 영상이 들어오면 먼저 얼굴 특징 검출기에서 피부색 모델과 연결성분 분석을 이용하여 얼굴 영역을 획득한다. 그 후에 신경망 기반의 텍스처 분류기를 사용하여 눈 영역과 비 눈 영역으로 구분한 뒤 눈의 중심 영역과 에지 정보를 기반으로 하여 눈, 눈썹, 입 등의 얼굴 특징을 찾는다. 검출된 얼굴 특징들은 얼굴 표정 인식기에 사용되며 얼굴 인식기는 이를 기반으로 한 decision tree를 이용하여 얼굴 감정을 인식한다. 제안된 방법의 성능을 평가하기 위해 MMI JAFFE, VAK DB에서 총 180장의 이미지를 사용하여 테스트하였고 약 93%의 정확도를 보였다.

  • PDF