Abstract
Most of face detection technique uses information from the face of the movement. The traditional face detection method is to use difference picture method ate used to detect movement. However, most do not consider this mathematical approach using real-time or real-time implementation of the algorithm is complicated, not easy. This paper, the first to detect real-time facial image is converted YCbCr and RGB video input. Next, you convert the difference between video images of two adjacent to obtain and then to conduct Glassfire Labeling. Labeling value compared to the threshold behavior Area recognizes and converts video extracts. Actions to convert video to conduct face detection, and detection of facial characteristics required for the extraction and use of AdaBoost algorithm.
얼굴 검출은 대부분 얼굴의 움직임 정보를 이용한다. 기존에 얼굴 검출 방법은 프레임간의 차를 이용하여 움직임을 검출하는 방법이 사용되어 왔으나 대부분이 실시간을 고려하지 않은 수학적 접근법을 사용하거나 알고리즘이 지나치게 복잡하여 실시간 구현에 용이하지 않았다. 본 논문에서는 실시간 얼굴검출을 위하여 감시카메라에서 입력된 RGB 영상을 YCbCr 영상으로 변환한 후 연속된 두 영상의 차를 구하고 Glassfire 라벨링을 실시했다. 라벨링 결과 가장 넓은 구역의 면적과 Area 임계치 값을 비교하여 임계값 이상의 면적이면 동작변환으로 인식하고 영상을 추출하였다. 이렇게 추출된 동작변환 영상을 대상으로 얼굴 검출을 실시하였다. 얼굴 검출에 필요한 특징을 추출하기 위해 AdaBoost 알고리즘을 사용하였다.