• 제목/요약/키워드: PCA 투영

검색결과 40건 처리시간 0.031초

PDA를 이용한 실시간 얼굴인식 시스템 구현 (Real-Time Face Recognition System using PDA)

  • 권만준;양동화;고현주;김진환;전명근
    • 한국지능시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.649-654
    • /
    • 2005
  • 본 논문은 유비쿼터스 컴퓨팅 환경 기반에서의 온라인 얼굴인식 시스템 구현을 기술한다. 구현된 시스템은 CMOS 카메라를 장착한 PDA를 이용하여 얼굴영상을 획득하고 이 영상을 무선랜을 이용하여 인증 서버로 전송하여 서버로부터 인증된 결과를 받도록 하였다. 먼저 클라이언트 측인 PDA에서는 등록과 인증을 확인할 수 있도록 임베디드 비주얼 프로그램으로 사용자 인터페이스를 구축하고, 서버 영역에서는 얼굴인식에서 탁월한 성능을 보이는 PCA와 LDA 알고리즘을 사용하여 PDA로부터 전송 받은 얼굴 데이터를 학습하고 인식한 결과를 재전송하는 부분이 구현되었다. 시스템 구현에서 실시간성을 확보하기 위해 PDA에서는 영상에 웨이블렛을 이용하여 압축한 뒤 압축률 효과가 좋은 JPG 형식의 데이터로 서버에 전송하였다. 본 논문에서 구현한 시스템은 학습과정에서 미리 구한 고유값을 이용하여 테스트 얼굴영상을 같은 공간에 투영시켜 서로간의 유사도를 비교하도록 하여 얼굴인식 속도 및 성능을 개선하였다.

집적 영상을 이용한 가려진 표적의 복원과 인식 (Occluded Object Reconstruction and Recognition with Computational Integral Imaging)

  • 이동수;염석원;김신환;손정영
    • 한국광학회지
    • /
    • 제19권4호
    • /
    • pp.270-275
    • /
    • 2008
  • 본 논문에서는 집적 영상의 획득과 복원을 통하여 장애물에 가려진 물체를 인식하는 기술은 제안하고 구현하였다. 집적 영상의 복원은 해당되는 화소 세기의1차 확률적 특성인 평균으로 구한다. 복원평면까지의 거리는 2차 확률적 특성인 표준 편차를 이용하여 구하고3차원 물체의 경계(edge)를 검출한다. 표준 편차의 합을 최소로 하는 거리에서 복원된 영상을 표적인식에 이용한다. 표적인식은 주성분 분석(principle component analysis, PCA) 분류기를 복원된 영상에 적용하였다. 표적 분류에 대한 판정은 분류기에 의해서 투영된 클래스의 평균 특징 벡터와 테스트 특징 벡터간의 유클리드 거리(Euclidean distance)를 이용한다. 실험 및 시뮬레이션을 통하여 가려진 표적을 본 논문에서 제안한 방법을 통하여 오차 없이 분류하였다.

자동 목표물 인식 시스템을 위한 클러스터 기반 투영기법과 혼합 전문가 구조 (Cluster-based Linear Projection and %ixture of Experts Model for ATR System)

  • 신호철;최재철;이진성;조주현;김성대
    • 대한전자공학회논문지SP
    • /
    • 제40권3호
    • /
    • pp.203-216
    • /
    • 2003
  • In this paper a new feature extraction and target classification method is proposed for the recognition part of FLIR(Forwar Looking Infrared)-image-based ATR system. Proposed feature extraction method is "cluster(=set of classes)-based"version of previous fisherfaces method that is known by its robustness to illumination changes in face recognition. Expecially introduced class clustering and cluster-based projection method maximizes the performance of fisherfaces method. Proposed target image classification method is based on the mixture of experts model which consists of RBF-type experts and MLP-type gating networks. Mixture of experts model is well-suited with ATR system because it should recognizee various targets in complexed feature space by variously mixed conditions. In proposed classification method, one expert takes charge of one cluster and the separated structure with experts reduces the complexity of feature space and achieves more accurate local discrimination between classes. Proposed feature extraction and classification method showed distinguished performances in recognition test with customized. FLIR-vehicle-image database. Expecially robustness to pixelwise sensor noise and un-wanted intensity variations was verified by simulation.

얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성 (3D Facial Model Expression Creation with Head Motion)

  • 권오륜;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

포톤 카운팅 선형판별법을 이용한 저해상도 얼굴 영상 인식 (Low Resolution Face Recognition with Photon-counting Linear Discriminant Analysis)

  • 염석원
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.64-69
    • /
    • 2008
  • 얼굴영상의 인식 기술은 보안과 감시를 비롯하여 머신 인터페이스와 콘텐츠 검색 등에서 활용이 광범위 하다. 그러나 주로 고해상도 영상이 연구의 대상이었고 원거리에서 획득된 저해상도 표적에 대하여 상대적으로 드물게 연구가 이루어졌다. 본 논문에서는 포톤 카운팅(Photon-counting) 선형판별법을 이용하여 저해상도 환경에서 얼굴영상의 인식을 수행한다. 포톤 카운팅 선형판별법은 Fisher 선형 판별법에서 발생하는 특이행렬 문제없이 Fisher의 최적화 기준을 실현한다. 즉, 차원의 축소나 특징 추출 과정 없이 고차원 공간에서 최적화된 투영을 위한 선형판별함수를 구성하고 이를 이용하여 판정하므로 저해상도 환경을 비롯한 얼굴영상의 왜곡의 극복에 효과적이다. 실험 결과는 제안한 방법이 주성분 분석을 활용하는 Eigen face 또는 주성분 분석과 Fisher 선형판별법이 결합된 Fisher face보다 우수하다는 것을 보여준다.

개선된 ICA 기저영상을 이용한 국부적 왜곡에 강인한 얼굴인식 (Face Recognition Robust to Local Distortion using Modified ICA Basis Images)

  • 김종선;이준호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권5호
    • /
    • pp.481-488
    • /
    • 2006
  • 부공간 투영기술(subspace projection)을 이용한 얼굴인식기술의 성능은 이들 기저영상들(basis images)의 특징과 밀접한 관련이 있다. 특히 표정변화와 같은 국부적 왜곡이나 오클루전이 있는 경우의 인식성능은 기저영상들의 특징에 의해 영향을 받게 된다. 부공간 투영기반의 얼굴인식 방법이 오클루전이나 표정변화와 같은 국부적인 왜곡발생에 강인하려면 부분국부적 표현(part-based local representation)의 기저벡터를 갖는 것이 중요하다. 본 연구에서는 국부적 왜곡과 오클루전에 강인한 효과적인 부분국부적 표현방법을 제안한다. 제안한 방법을 LS-ICA(locally salient ICA) 방법이라고 명명하였다. LS-ICA방법은 ICA 구조I의 기저영상을 구하는 과정에서 공간적인 국부성(locality)의 제약조건을 부과함으로써 부분국부적 기저영상(part-based local basis images)을 얻는 방법이다. 결과적으로 공간적으로 현저한 특징만을 포함하는 기저영상을 사용하게 되며, 이는 "Recognition by Parts"의 방법론과 유사하다. LS-ICA방법과 LNMF(Localized Non-negative Matrix Factorization)와 LFA(Local Feature Analysis)와 같은 기존의 부분 표현방법(part-based representation)들에 대해 다양한 얼굴영상 데이타베이스를 사용하여 실험한 결과, LS-ICA방법이 기존의 방법에 비하여 높은 인식성능을 보였으며, 특히 오클루전이나 국부적인 변형이 포함된 얼굴영상에서 뛰어난 인식성능을 보였다.

AAM 기반 얼굴 표정 인식을 위한 입술 특징점 검출 성능 향상 연구 (A Study on Enhancing the Performance of Detecting Lip Feature Points for Facial Expression Recognition Based on AAM)

  • 한은정;강병준;박강령
    • 정보처리학회논문지B
    • /
    • 제16B권4호
    • /
    • pp.299-308
    • /
    • 2009
  • AAM(Active Appearance Model)은 PCA(Principal Component Analysis)를 기반으로 객체의 형태(shape)와 질감(texture) 정보에 대한 통계적 모델을 통해 얼굴의 특징점을 검출하는 알고리즘으로 얼굴인식, 얼굴 모델링, 표정인식과 같은 응용에 널리 사용되고 있다. 하지만, AAM알고리즘은 초기 값에 민감하고 입력영상이 학습 데이터 영상과의 차이가 클 경우에는 검출 에러가 증가되는 문제가 있다. 특히, 입을 다문 입력얼굴 영상의 경우에는 비교적 높은 검출 정확도를 나타내지만, 사용자의 표정에 따라 입을 벌리거나 입의 모양이 변형된 얼굴 입력 영상의 경우에는 입술에 대한 검출 오류가 매우 증가되는 문제점이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 입술 특징점 검출을 통해 정확한 입술 영역을 검출한 후에 이 정보를 이용하여 AAM을 수행함으로써 얼굴 특징점 검출 정확성을 향상시키는 방법을 제안한다. 본 논문에서는 AAM으로 검출한 얼굴 특징점 정보를 기반으로 초기 입술 탐색 영역을 설정하고, 탐색 영역 내에서 Canny 경계 검출 및 히스토그램 프로젝션 방법을 이용하여 입술의 양 끝점을 추출한 후, 입술의 양 끝점을 기반으로 재설정된 탐색영역 내에서 입술의 칼라 정보와 에지 정보를 함께 결합함으로써 입술 검출의 정확도 및 처리속도를 향상시켰다. 실험결과, AAM 알고리즘을 단독으로 사용할 때보다, 제안한 방법을 사용하였을 경우 입술 특징점 검출 RMS(Root Mean Square) 에러가 4.21픽셀만큼 감소하였다.

주요고유성분분석을 이용한 연속음성의 세그멘테이션 (Segmentation of Continuous Speech based on PCA of Feature Vectors)

  • 신옥근
    • 한국음향학회지
    • /
    • 제19권2호
    • /
    • pp.40-45
    • /
    • 2000
  • 음소에 대한 사전지식 없이 음성의 신호나 특징벡터 만으로부터 음소별 경계를 추출하는 맹목 세그멘테이션의 한가지 방법은 음소별 특징벡터들 사이의 거리를 최소화하는 경계를 찾는 것이다. 이런 방법에서 특징벡터들 사이의 거리척도로 유클리드 거리가 자주 사용되고 있지만 한 음소의 특징벡터들 사이에도 많은 변화가 있어 단순한 유클리드 거리척도만으로는 음소별 경계를 추출하기에 효율적이지 못하다. 본고에서는 한 음소에 속하는 특징벡터들의 전체적인 추이를 반영한 특징벡터들 사이의 거리를 구하기 위해 주요고유성분분석법(principal component analysis)을 이용하는 방법을 제안한다. 이 방법에서는 각 특징벡터들과 이들을 주요고유성분에 투영한 점 사이의 거리를 척도로 이용한다. 제안하는 거리척도를 LBDP 알고리즘에 적용하여 연속음성의 음소간 경계를 추출하는 실험을 수행하였다. 실험 결과, 단순한 유클리드 거리를 척도로 할 때 보다 약 3-6% 정도의 누락오류를 줄일 수 있어 유용하게 이용될 수 있음을 보였다.

  • PDF

에지 방향성 히스토그램과 HMM을 이용한 제스처 인식에 관한 연구 (A Study on Gesture Recognition using Edge Orientation Histogram and HMM)

  • 이기준
    • 한국정보통신학회논문지
    • /
    • 제15권12호
    • /
    • pp.2647-2654
    • /
    • 2011
  • 본 논문에서는 에지 방향성 히스토그램과 주성분 분석을 통해서 얻어진 특징 정보를 저차원 제스처 심볼로 구성하여 제스처를 인식하는 알고리즘에 대해 기술한다. 제안된 방법은 기존의 기하학적인 특징 기반 방법이나 외관기반 방법에 비해 많은 계산 량이 요구 되지 않고 최소한의 정보를 사용하고도 높은 인식률을 유지 할 수 있기에 실시간 시스템 구축에 매우 적합하다. 또한 제스처 인식 시 발생하는 잘못된 인식이나 인식 오차를 줄이기 위해 객체 공간상에 투영된 모델 특징 값을 은닉마르코프 모델의 입력 기호로 이용되기 위해서 군집화 알고리즘을 통해 특정한 상태 기호로 구성한다. 이렇게 함으로써 임의의 입력 제스처는 확률 값이 가장 높은 해당 제스처 모델로 인식하게 된다.

초분광 영상 융합을 이용한 종양인식 (Hyperspectral Image Fusion for Tumor Detection)

  • 허성철;김인택
    • 전자공학회논문지SC
    • /
    • 제43권4호
    • /
    • pp.11-20
    • /
    • 2006
  • 본 논문에서는 초분광 형광영상과 반사영상 융합을 이용한 닭의 종양인식방법을 제안하였다. 형광영상에 밴드비율을 적용하여 피부의 정상과 종양부분을 구분한다. 이를 위해 각각 부분의 확률밀도함수의 중첩된 면적을 최소화하는 방법을 사용하였다. 이 방법으로 획득한 4개의 특정영상에 분할-합병법을 적용하여 형광영상 분류결과를 얻었다. 반사영상 분석에서는 단일 밴드가 정보량에 주는 영향에 근거하여 밴드 선택 방법을 제안하였다. 학습데이터에 의해 투영 축을 선택하는 선형변환을 정의함으로써 영상분류에 효과적인 많은 특징을 확보하였다. 이에 따라 반사영상에서도 세밀한 영상의 해석이 가능하였고 특징 선택의 자동화를 실현하였다. 반사영상에서 획득한 특정영상도 분할-합병법으로 분류하였으며 형광영상의 분류결과와 융합하여 종양을 인식하였다. 모의실험을 통해 제안한 방법은 기존의 방법에 비해 오인식이 낮음을 확인하였다.