• 제목/요약/키워드: 다중표정

검색결과 47건 처리시간 0.022초

다중센서 결합에 의한 외부표정요소 직접결정기법에 관한 연구 (A Study on Direct Georeferencing by Combined Multi-sensor)

  • 송연경
    • 한국지리정보학회지
    • /
    • 제8권1호
    • /
    • pp.88-95
    • /
    • 2005
  • 다중센서 결합에 의한 외부표정요소 결정기법은 항공기에 탑재한 GPS와 INS로 센서의 위치와 회전각을 정확히 결정함으로써 외부표정요소 결정을 위한 지상기준점 측량을 생략하거나 또는 최소한의 기준점만을 사용하여 외부표정요소를 결정할 수 있으며, 이에 따라 지형도 제작에 대한 시간과 경비를 크게 절감할 수 있다. 따라서 본 연구에서는 다중센서 결합과 동시에 CCD 카메라를 탑재하여 동시에 측량을 하고, 외부표정요소 직접결정 기법에 의한 CCD 영상으로 수치정사영상을 제작하였다. 본 연구에서 제작된 결과물에 대한 정확도 검증을 위하여 GPS로 측량한 지상검사점을 기본으로 하여 외부표정요소 직접결정 기법에 의하여 제작된 수치정사영상의 위치 정확도를 평가하였다. 수치정사영상은 소수의 기준점을 사용한 경우와 기준점을 사용하지 않은 경우의 두 가지로 제작하였다. 다중센서에 의한 제작된 수치정사영상의 정확도는 소수의 기준점을 사용한 경우, 축척 1:1,000 지도의 정확도 기준을 만족시켰으며, 기준점이 없이 제작된 정사영상의 정확도는 축척 1:5,000 지도의 정확도 기준을 만족함을 알 수 있었다.

  • PDF

다중 제어 레벨을 갖는 입모양 중심의 표정 생성 (Speech Animation with Multilevel Control)

  • 문보희;이선우;원광연
    • 인지과학
    • /
    • 제6권2호
    • /
    • pp.47-79
    • /
    • 1995
  • 오래 전부터 컴퓨터 그래픽을 이용한 얼굴의 표정 생성은 여러 분야에서 응용되어 왔고,요즘에는 가상현실감 분야나 원격 회의 분야 등에서 가상 에이전트의 표정을 생성하는데 사용되고 있다.그러나 네트워크를 통해 다중 참여자가 상호 작용을 하는 상황에서 표정을 생성하는 경우에는 상호작용을 위해 전송되어야 할 정보의 양으로 인해,실시간에 원하는 표정을 생성하기 어려운 경우가 생긴다.본 연구에서는 이러한 문지를 해결하기 위해 표정 생성에 Level-of-Detail을 적용하였다.Level-of-Detail은 그래픽스 분야에서 복잡한 물체의 외형을 좀 더 효율적으로 나타내기 위해 오랜 전부터 연구되어져 온 기법이지만 아직까지 표정 생성에 적용된 예는 없다.본 연구에서는 상황을 고려하여 적절하게 상세도를 변경하여 표정을 생성하도록 Level-of-Detail기법을 적용하는 방법에 대해 연구하였다.구현된 시스템은 텍스트,음성,Gui, 사용자의 머리의 움직임 등과 같은 다양한 입력에 대해 입모양과 동기화 되는 표정을 생성한다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.401-404
    • /
    • 2007
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링을 기반으로한 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 6가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고, 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

  • PDF

가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석 (Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.9-19
    • /
    • 2012
  • 디지털 콘텐츠에서 HCI로 활용되는 가상 인간은 얼굴 표정과 신체자세와 같은 모달을 이용하여 다양한 감정을 표현하지만 비언어적 다중모달의 조합에 대한 연구는 많지 않다. 감정을 표현하는 가상 인간을 제작하려면 계산 엔진 모델은 얼굴 표정과 신체자세와 같은 비언어적 모달의 조합이 사용자에 의해 어떻게 인식되는지를 고려해야 하기 때문에 본 연구는 가상 인간의 감정 표현 디자인에 필요한 비언어적 다중모달의 영향을 분석하여 제시한다. 먼저 가상 인간에 대한 다중모달 별 감정 인식을 평가하여 다른 모달간의 상대적 영향성을 분석하였다. 그리고 일치하는 얼굴과 자세 모달을 통해 기본 감정 및 정서가와 활성화 인식에 대한 영향을 평가하며 감정이 불일치하는 다중모달을 통해 일상생활에서 빈번하게 드러나는 중첩된 감정의 인식 정도를 관측하였다. 실험 결과, 가상 인간의 얼굴과 신체자세의 표정이 일치하면 감정 인식이 용이하며, 얼굴 표정으로 감정 카테고리를 판별하지만 감정의 활성화 차원 판단에는 자세 모달리티가 선호됨을 확인하였다. 본 연구 결과는 감정을 드러내는 가상 인간의 행동 동기화 및 애니메이션 엔진 시스템 구현에 활용할 수 있다.

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

Quantified Lockscreen: 감정 마이닝과 자기정량화를 위한 개인화된 표정인식 및 모바일 잠금화면 통합 어플리케이션 (Quantified Lockscreen: Integration of Personalized Facial Expression Detection and Mobile Lockscreen application for Emotion Mining and Quantified Self)

  • 김성실;박준수;우운택
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1459-1466
    • /
    • 2015
  • 잠금화면은 현대인들이 모바일 플랫폼에서 가장 자주 대면하는 인터페이스 중 하나이다. 조사에 따르면 스마트폰 사용자들은 일일 평균 150번 잠금해제를 수행하지만[1], 패턴인식, 비밀번호와 같은 잠금화면 인터페이스등은 보안 및 인증의 목적을 제외하곤 별 다른 이익을 제공하지 못하는 것이 현 실정이다. 본 논문에서는 보안용도의 기존 잠금화면을 전방 카메라를 활용한 얼굴 및 표정인식 어플리케이션으로 대체하여 표정 데이터를 수집한 뒤 실시간 표정 및 감정 변화 피드백을 제공하는 인터페이스를 제시한다. 본 연구에선 Quantified Lockscreen 어플리케이션을 통한 실험을 통해 1) 잠금화면을 활용한 비침습적인 인터페이스를 통해 연속적인 표정데이터 획득과 감정패턴을 분석할 수 있는 것을 검증했으며 2) 개인화된 학습 및 분석으로 표정인식 및 감정 검출의 정확도를 개선하였으며 3) 표정으로부터 추론된 감정 데이터의 타당성을 강화하기 위한 양괄식 검증기법을 도입하여 감정 검출의 다중채널 및 다중입력 방법론의 가능성을 확인하였다.

병렬 다중 홉 필드 네트워크 구성으로 인한 2-차원적 얼굴인식 기법에 대한 새로운 제안 (Redundant Parallel Hopfield Network Configurations: A New Approach to the Two-Dimensional Face Recognitions)

  • 김영택
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권2호
    • /
    • pp.63-68
    • /
    • 2018
  • 얼굴인식 분야의 관심은 다양한 신흥분야의 응용에 의해 증강되고 있다. 2-차원적인 인식 알고리즘의 필요성이 어떤 변화무쌍한 환경들, 예를 들어서, 얼굴의 방향이나 조명도, 안경의 유무, 혹은 웃음과 울음 같은 다양한 표정변화의 처리에 적합할 수 있게 고찰 되어 지고 있다. 형상 기억이나 일반화 과정, 유사성 인식, 오류수정 등에 장점을 가지고 있는 홉 필드 네트워크의 기능을 바탕으로 하여 본 연구에서는 새로운 방법의 병렬적인 다중 홉 필드 네트워크를 구성하여 변화에 강한 얼굴표정 인식의 실험을 2-차원 알고리즘으로 실시하였고 결과가 실제적인 얼굴 형상 환경 변화에서 강한 적응성을 가지고 있음을 확인하였다.

다중 2D 레이저 스캐너 시스템의 외부 표정요소 캘리브레이션을 위한 시뮬레이션 기반 표적 배치 결정 기법 (Simulation based Target Geometry Determination Method for Extrinsic Calibration of Multiple 2D Laser Scanning System)

  • 주성하;윤상현;박상윤;허준
    • 한국측량학회지
    • /
    • 제36권6호
    • /
    • pp.443-449
    • /
    • 2018
  • SLAM (Simultaneous Localization and Mapping) 기반 모바일 매핑 시스템을 활용한 실내 공간의 포인트 클라우드 취득은 건축물의 유지, 관리를 위한 as-built BIM (Building Information Model) 구축의 기초 공정이다. 본 연구에서는 다중 2D 레이저 스캐너로 구성된 모바일 매핑 시스템의 구축을 위한 시뮬레이션 기반 검정(calibration) 표적의 구조 결정 방법을 제안하였다. 2D 레이저 스캐너의 외부 표정요소 검정을 위해 (1) 원형, (2) 사각형, (3) 이중 원형, (4) 이중 사각형 형태의 표적을 구성하였다. 시뮬레이션을 통해 얻어진 각 표적 관측 값을 토대로, 최소제곱법 기반의 외부 표정요소 검정을 수행하였다. 그 결과 사각형 형태의 표적 구조가 주어진 시스템의 검정에 가장 적합한 형태임을 확인하였다. 또한 외부 표정요소 간의 높은 상관성을 확인할 수 있었으며, 표적의 구조에 따른 외부 표정요소의 검정 결과가 상이한 것으로 나타났다.

다중 클래스 이미지 표정 분류 (Multiclass image expression classification)

  • 오명호;민송하;김종민
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.701-703
    • /
    • 2022
  • 본 논문에서는 지도 학습에 기반을 둔 다중 클래스 이미지 장면 분류 방법을 제시한다. 데이터 세트에서 콘볼루션 뉴런 네트워크 모델에 학습시켜 다중 클래스 사람의 표정 장면 이미지를 분류하였으며, 실험에서는 최적화된 CNN 모델을 Google image 데이터 세트에 분류하여 유의미한 결과를 얻을 수 있었다.

  • PDF

다중 체온 감지용 지능형 카메라 개발 (Development of an intelligent camera for multiple body temperature detection)

  • 이수인;김윤수;석종원
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.430-436
    • /
    • 2022
  • 본 논문에서는 다중 체온 감지용 지능형 카메라를 제안한다. 제안하는 카메라는 광학(4056*3040) 및 열화상(640*480) 2종의 카메라로 구성되고 획득된 영상으로부터 사람의 표정 및 체온을 분석하여 이상 증상을 감지한다. 광학 및 열화상카메라는 동시에 운영되며 광학 영상에서 객체를 검출한 후 얼굴영역을 도출하여 표정분석을 수행한다. 열화상카메라는 광학카메라에서 얼굴영역으로 판단한 좌표 값을 적용하고 해당영역의 최고 온도를 측정하여 화면에 표출한다. 이상 징후 감지는 분석된 표정 3가지(무표정, 웃음, 슬픔)와 체온 값을 활용하여 판단하며 제안된 장비의 성능을 평가하기 위해 광학영상 처리부는 Caltech, WIDER FACE, CK+ 데이터셋을 3종의 영상처리 알고리즘(객체검출, 얼굴영역 검출, 표정분석)에 적용하였다. 실험결과로 객체검출률, 얼굴영역 검출률, 표정분석률 각각 91%, 91%, 84%을 도출하였다.