• 제목/요약/키워드: 3차원 얼굴

검색결과 283건 처리시간 0.026초

CGS 시스템의 페이셜 애니메이션 발상단계 개발 (Development of Facial Animation Generator on CGS System)

  • 조동민
    • 한국멀티미디어학회논문지
    • /
    • 제14권6호
    • /
    • pp.813-823
    • /
    • 2011
  • 본 연구는 한국멀티미디어학회 2010년 7월 멀티미디어학회 논문지 제 13권 7호에 발표된 기존 3차원 캐릭터 모델기반 CGS System 의 Digital 개발 프로세스 중 얼굴 애니메이션 발상단계로써 3D 캐릭터 디자이너가 애니메이션 제작단계에서 아이디어를 창출하고 이를 활용하는 과정에서 반복되어지는 과정을 보다 효과적으로 활용할 수 있는 프로세스를 제안한다. 본 연구를 위해서 캐릭터의 해부학적인 구조로써 감정변화에 따른 3D 캐릭터의 표정연출에 관한 선행 연구 및 극장용 애니메이션 캐릭터 표정 사례연구 통하여 최종 CGS System의 Facial Animation 에 유용한 시스템을 제안하였다.

3차원 얼굴 인식을 위한 PSO와 다중 포인트 특징 추출을 이용한 RBFNNs 패턴분류기 설계 (Design of RBFNNs Pattern Classifier Realized with the Aid of PSO and Multiple Point Signature for 3D Face Recognition)

  • 오성권;오승훈
    • 전기학회논문지
    • /
    • 제63권6호
    • /
    • pp.797-803
    • /
    • 2014
  • In this paper, 3D face recognition system is designed by using polynomial based on RBFNNs. In case of 2D face recognition, the recognition performance reduced by the external environmental factors such as illumination and facial pose. In order to compensate for these shortcomings of 2D face recognition, 3D face recognition. In the preprocessing part, according to the change of each position angle the obtained 3D face image shapes are changed into front image shapes through pose compensation. the depth data of face image shape by using Multiple Point Signature is extracted. Overall face depth information is obtained by using two or more reference points. The direct use of the extracted data an high-dimensional data leads to the deterioration of learning speed as well as recognition performance. We exploit principle component analysis(PCA) algorithm to conduct the dimension reduction of high-dimensional data. Parameter optimization is carried out with the aid of PSO for effective training and recognition. The proposed pattern classifier is experimented with and evaluated by using dataset obtained in IC & CI Lab.

임베디드 환경에서 SIFT 알고리즘의 실시간 처리를 위한 특징점 검출기의 하드웨어 구현 (A Hardware Design of Feature Detector for Realtime Processing of SIFT(Scale Invariant Feature Transform) Algorithm in Embedded Systems)

  • 박찬일;이수현;정용진
    • 대한전자공학회논문지SD
    • /
    • 제46권3호
    • /
    • pp.86-95
    • /
    • 2009
  • SIFT(Scale Invariant Feature Transform) 알고리즘은 영상 데이터로부터 객체의 꼭지점이나 모서리와 같이 색상 성분의 차가 심한 영역에서 특징점을 찾아 벡터성분을 추출하는 알고리즘으로, 현재 얼굴인식, 3차원 객체 인식, 파노라마, 3차원 영상 복원 작업의 핵심 알고리즘으로 연구 되고 있다. 본 논문에서는 SIFT 알고리즘을 임베디드 환경에서 실시간으로 처리하기 위해 가장 연산량이 많은 특징점 위치 결정 단계를 Verilog HDL 언어를 이용하여 FPGA로 구현하고 그 성능을 분석한다. 하드웨어는 100MHz 클럭에서 $1,280{\times}960$영상기준 25ms, $640{\times}480$영상기준 5ms의 빠른 연산속도를 보인다. 그리고 Xilinx Virtex4 XC4VLS60 FPGA를 타겟으로 Synplify Pro 8.1i합성툴을 이용하여 합성시 약 45,792LUT(85%)의 결과를 나타낸다.

팬/틸트 탑제형 스테레오 카메라를 이용한 지능형 이동표적 추적 및 감시 시스템의 구현 (Implementation of Intelligent Moving Target Tracking and Surveillance System Using Pan/Tilt-embedded Stereo Camera System)

  • 고정환;이준호;김은수
    • 한국통신학회논문지
    • /
    • 제29권4C호
    • /
    • pp.514-523
    • /
    • 2004
  • 본 논문에서는 팬/틸트가 탑재된 스테레오 카메라를 이용한 새로운 지능형 이동표적 추적감시 시스템을 제안하고 구현하였다. 제안된 시스템은 먼저, 스테레오 카메라에서 입력된 영상으로부터 YCbCr 칼라 임계치 기법을 사용하여 표적 얼굴영역을 검출한 다음, 지능형 시각 시스템에 기반한 팬/틸트 탑재형 스테레오 카메라의 능동적인 제어를 통해 표적의 다양한 변화에 관계없이 표적의 거리정보 및 3차원적 이동 정보를 실시간적으로 검출함으로써 표적의 적응적 추적감시를 수행하게 된다. 80 프레임의 스테레오 영상을 사용한 실험 결과, 이동표적에 대한 실시간적 위치정보 검출 및 적응적 추적을 확인하였으며 특히, 팬/틸트 추적후 표적 중심좌표의 수평, 수직 표준편차가 매우 작은 값인 1.82, 1.11로 각각 유지되고, 표적의 3차원적 위치 좌표값의 오차 역시 평균 0.5% 이하로 유지됨이 분석됨으로써 이를 통한 새로운 실시간 스테레오 표적 감시추적 시스템의 구현 가능성을 제시하였다.

준 지도학습과 여러 개의 딥 뉴럴 네트워크를 사용한 멀티 모달 기반 감정 인식 알고리즘 (Multi-modal Emotion Recognition using Semi-supervised Learning and Multiple Neural Networks in the Wild)

  • 김대하;송병철
    • 방송공학회논문지
    • /
    • 제23권3호
    • /
    • pp.351-360
    • /
    • 2018
  • 인간 감정 인식은 컴퓨터 비전 및 인공 지능 영역에서 지속적인 관심을 받는 연구 주제이다. 본 논문에서는 wild 환경에서 이미지, 얼굴 특징점 및 음성신호로 구성된 multi-modal 신호를 기반으로 여러 신경망을 통해 인간의 감정을 분류하는 방법을 제안한다. 제안 방법은 다음과 같은 특징을 갖는다. 첫째, multi task learning과 비디오의 시공간 특성을 이용한 준 감독 학습을 사용함으로써 영상 기반 네트워크의 학습 성능을 크게 향상시켰다. 둘째, 얼굴의 1 차원 랜드 마크 정보를 2 차원 영상으로 변환하는 모델을 새로 제안하였고, 이를 바탕으로 한 CNN-LSTM 네트워크를 제안하여 감정 인식을 향상시켰다. 셋째, 특정 감정에 오디오 신호가 매우 효과적이라는 관측을 기반으로 특정 감정에 robust한 오디오 심층 학습 메커니즘을 제안한다. 마지막으로 소위 적응적 감정 융합 (emotion adaptive fusion)을 적용하여 여러 네트워크의 시너지 효과를 극대화한다. 제안 네트워크는 기존의 지도 학습과 반 지도학습 네트워크를 적절히 융합하여 감정 분류 성능을 향상시켰다. EmotiW2017 대회에서 주어진 테스트 셋에 대한 5번째 시도에서, 제안 방법은 57.12 %의 분류 정확도를 달성하였다.

성인 남성 머리와 얼굴 부위의 형태분류와 3차원적 분석 (Classification of Head Shape and 3-dimensional analysis for Korean Men)

  • 최영림;김재승;남윤자
    • 한국의류산업학회지
    • /
    • 제12권6호
    • /
    • pp.812-820
    • /
    • 2010
  • The objectives of this study were to classify the head shapes of Korean men and to suggest computer tomography as a new body measurement method. The 23 head measurement items of 760 men, aged more than 18 in Sizekorea 2004 database were used to analyze, measured by using statistical methods. Factor analysis, cluster analysis and duncan test were performed using these data. Through factor analysis, 5 factors were extracted upon factor scores and those factors comprised 70.91% for the total variances. The head and face shapes were categorized as 5 types-triangle, round, oval, long, rectangle. We decided for the type 1(triangle) to standard head shape since this type was the most observed. 21 participants were measured using computed tomography(CT). The measured data of skin and skeleton and the standard head shapes were illustrated.

외상 경험자의 암묵적 자기-불안 및 자기-우울의 연합 (Implicit Self-anxious and Self-depressive Associations among College Students with Posttraumatic Stress Symptoms)

  • 최윤경;이재호
    • 한국심리학회지 : 문화 및 사회문제
    • /
    • 제24권3호
    • /
    • pp.451-472
    • /
    • 2018
  • 본 연구의 목적은 외상후 스트레스 증상을 경험하는 대학생들의 부정적 정서(불안 및 우울)와 자기의 암묵적 연합을 알아보는 것이었다. 61명의 참가자들(남 16명, 여 45명)은 한국판 사건 충격척도의 점수에 따라 두 집단, 즉 외상군과 통제군으로 분류되었다. 정서 단어와 얼굴표정 사진을 사용한 암묵연합검사로 측정한 두 집단의 자동적 자기-불안 및 자기-우울이 비교되었다. 결과에 따르면, 명시적 차원의 경우 인지 및 우울 증상에서 집단 간 차이가 유의하지 않았으나, 암묵적 차원의 경우 외상군은 통제군에 비해 단어 조건에서 자기-불안 연합이 더 강화되고 사진 조건에서는 더 강한 자기-불안과 자기-우울 연합을 보여주었다. 이러한 결과는 외상 경험이 자동적, 암묵적 과정의 자기 개념에 영향을 줄 가능성을 시사한다. 본 연구의 한계점과 후속 연구를 위한 제언이 논의되었다.

AGV의 작업자 식별 및 회피를 위한 2D 공간 지도 구성 (2D Spatial-Map Construction for Workers Identification and Avoidance of AGV)

  • 고정환
    • 전자공학회논문지
    • /
    • 제49권9호
    • /
    • pp.347-352
    • /
    • 2012
  • 본 논문에서는 지능적인 경로 계획을 위한 스테레오 카메라 기반의 AGV의 작업자 식별 및 회피를 위한 2D 공간 지도 구성 기법을 제안하였다. 우선 스테레오 카메라로부터 입력된 영상 중 좌 영상에 YCbCr 컬러 모델 및 무게 중심법을 이용하여 이동중인 작업자의 얼굴 영역과 중심좌표를 검출하고, 검출된 좌표 값에 따라 스테레오 카메라 제어를 통해 이동하는 작업자를 실시간적으로 검출하게 된다. 다음으로, AGV 구동에 의해 추적 제어된 스테레오 카메라의 좌, 우 영상간의 시차정보와 카메라 내부 변환관계를 통해 깊이 정보를 검출한 후, 검출된 깊이 지도로부터 각 열에 존재하는 최소값을 이용한 2차원 공간좌표를 검출하여 AGV과 작업자간의 거리와 실제좌표는 물론 다른 물체들과의 상대 거리를 산출하게 되며, 산출된 위치 좌표를 토대로 AGV의 지능적인 경로 추정 및 판단에 따라 자율적인 주행을 수행하게 된다. 실시간적으로 입력되는 240 프레임의 스테레오 영상을 사용한 실험결과, 산출된 2차원 공간좌표는 검출된 작업자의 위치좌표와의 관계를 통해 작업자의 폭과 실제 측정한 값과의 오차율이 평균 1.8% 이하로 유지됨으로써 보다 지능적인 AGV 시스템의 구현 가능성을 제시하였다.

3차원 얼굴인식 모델에 관한 연구: 모델 구조 비교연구 및 해석 (A Study On Three-dimensional Optimized Face Recognition Model : Comparative Studies and Analysis of Model Architectures)

  • 박찬준;오성권;김진율
    • 전기학회논문지
    • /
    • 제64권6호
    • /
    • pp.900-911
    • /
    • 2015
  • In this paper, 3D face recognition model is designed by using Polynomial based RBFNN(Radial Basis Function Neural Network) and PNN(Polynomial Neural Network). Also recognition rate is performed by this model. In existing 2D face recognition model, the degradation of recognition rate may occur in external environments such as face features using a brightness of the video. So 3D face recognition is performed by using 3D scanner for improving disadvantage of 2D face recognition. In the preprocessing part, obtained 3D face images for the variation of each pose are changed as front image by using pose compensation. The depth data of face image shape is extracted by using Multiple point signature. And whole area of face depth information is obtained by using the tip of a nose as a reference point. Parameter optimization is carried out with the aid of both ABC(Artificial Bee Colony) and PSO(Particle Swarm Optimization) for effective training and recognition. Experimental data for face recognition is built up by the face images of students and researchers in IC&CI Lab of Suwon University. By using the images of 3D face extracted in IC&CI Lab. the performance of 3D face recognition is evaluated and compared according to two types of models as well as point signature method based on two kinds of depth data information.

3차원 얼굴 영상을 이용한 상악 전방견인 치료 후의 연조직 평가 (Soft tissue evaluation using 3-dimensional face image after maxillary protraction therapy)

  • 최동순;이경훈;장인산;차봉근
    • 대한치과의사협회지
    • /
    • 제54권3호
    • /
    • pp.217-229
    • /
    • 2016
  • Purpose: The aim of this study was to evaluate the soft-tissue change after the maxillary protraction therapy using threedimensional (3D) facial images. Materials and Methods: This study used pretreatment (T1) and posttreatment (T2) 3D facial images from thirteen Class III malocclusion patients (6 boys and 7 girls; mean age, $8.9{\pm}2.2years$) who received maxillary protraction therapy. The facial images were taken using the optical scanner (Rexcan III 3D scanner), and T1 and T2 images were superimposed using forehead area as a reference. The soft-tissue changes after the treatment (T2-T1) were three-dimensionally calculated using 15 soft-tissue landmarks and 3 reference planes. Results: Anterior movements of the soft-tissue were observed on the pronasale, subnasale, nasal ala, soft-tissue zygoma, and upper lip area. Posterior movements were observed on the lower lip, soft-tissue B-point, and soft-tissue gnathion area. Vertically, most soft-tissue landmarks moved downward at T2. In transverse direction, bilateral landmarks, i.e. exocanthion, zygomatic point, nasal ala, and cheilion moved more laterally at T2. Conclusion: Facial soft-tissue of Class III malocclusion patients was changed three-dimensionally after maxillary protraction therapy. Especially, the facial profile was improved by forward movement of midface and downward and backward movement of lower face.

  • PDF