• 제목/요약/키워드: 표정 제어

검색결과 52건 처리시간 0.049초

선형 푸시브룸 센서모델의 번들조정 정확도 및 외부표정요소추정 정확도 분석 (Investigation on the Accuracy of bundle Adjustments and Exterior Orientation Parameter Estimation of Linear Pushbroom Sensor Models)

  • 김태정
    • 한국측량학회지
    • /
    • 제23권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 이 논문에서는 선형 푸시브룸 방식으로 촬영한 위성영상에 대한 다양한 센서모델들의 정확도를 비교분석하고자 한다. 특히 이 논문에서는 센서모델의 정확도를 번들조정의 정확도와 외부표정요소추정의 정확도로 분리하여 고찰하려고 한다. 번들조정 정확도는 수립된 센서모델이 얼마나 기준점에 잘 부합하는 가를 알려주는 척도로 이제까지 대부분의 센서모델 정확도 분석에 사용되어온 기준이다. 이에 반하여 외부표정요소추정의 정확도는 센서모델이 얼마나 정확하게 촬영당시의 위성의 궤도 및 자세를 예측할 수 있는 지의 척도로서 매우 중요한 요소임에도 불구하고 기존의 연구에서 간과해온 부분이다. 이 논문에서는 여러 센서모델 중에서 사진측량분야에서 주로 사용하는 변형된 공선방정식기반 모델과 위성지상국 또는 자세제어분야에서 주로 사용하는 궤도좌표계 및 자세각에 기반한 모델의 정확도를 비교분석하고자 한다. 실험은 다목적실용위성 1호 EOC 영상과 GPS 수신기에서 취득한 기준점을 사용하였다. 실험결과 번들조정 정확도는 두 모델이 큰 차이를 보이지 않는 것으로 나타났으나 외부표정요소추정 정확도는 궤도좌표계 및 자세각에 기반한 모델이 더 나은 성능을 보였다.

얼굴 입모양 변화를 이용한 3D Avatar Messenger (3D Avatar Messenger Using Lip Shape Change for Face model)

  • 김명수;이현철;김은석;허기택
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.225-228
    • /
    • 2005
  • 얼굴표정은 상대방에게 자신의 감정과 생각을 간접적으로 나타내는 중요한 의사소통의 표현이 되며 상대방에게 직접적인 표현방법의 수단이 되기도 한다. 이러한 표현 방법은 컴퓨터를 매개체로 하는 메신저간의 의사 전달에 있어서 얼굴표정을 사용함으로써 상대방의 감정을 문자로만 인식하는 것이 아니라 현재 상대방이 느끼는 내적인 감정까지 인식하여 대화할 수 있다. 본 논문은 3D 메시로 구성된 얼굴 모델을 이용하여 사용자가 입력한 한글 메시지의 한글 음절을 분석 추출 하고, 3D 얼굴 메시에 서 8개의 입술 제어점을 사용하여 입 모양의 변화를 보여주는 3D Avatar 아바타 메신저 시스템을 설계 및 구현 하였다.

  • PDF

한글 입술 움직임과 얼굴 표정이 동기화된 3차원 개인 아바타 대화방 시스템 (Supporting the Korean Lip Synchronization and Facial Expression)

  • 이정;오범수;정원기;김창헌
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.640-642
    • /
    • 2000
  • 대화방 시스템은 텍스트화 화상을 이용한 대화방 또는 메시지 전달시스템이 널리 사용되고 있다. 본 논문은 3차원 아바타가 등장하는 대화방 시스템을 생성 및 관리하는 기술을 제안한다. 본 아바타 대화방의 특징은 사진을 가지고 간단히 3차원 개인 아바타로 변환 생성하는 기술, 3차원 개인 아바타의 한글 발음에 적합한 입술 움직임, 메시지에 따른 적절한 표정변화 등이다. 특히, 3차원 개인 아바타는 사진만으로 생성이 가능하며, 텍스쳐 매핑된 3차원 아바타는 실시간으로 사실감있는 대화방 서비스가 가능하도록 제어된다.

  • PDF

표정짓고 말하는 가상 얼굴의 실시간 합성 (Realtime Synthesis of Virtual Faces with Facial Expressions and Speech)

  • 송경준;이기영;최창석;민병의
    • 한국음향학회지
    • /
    • 제17권8호
    • /
    • pp.3-11
    • /
    • 1998
  • 본 논문에서는 고품질의 얼굴 동영상과 운율이 첨가된 음성을 통합하여 자연스런 가상얼굴을 실시간으로 합성하는 방법을 제안한다. 이 방법에서는 한글 텍스트를 입력하여, 텍스트에 따라 입모양과 음성을 합성하고, 얼굴 동영상과 음성의 동기를 맞추고 있다. 먼저, 텍스트를 음운 변화한 후, 문장을 분석하고 자모음사이의 지속시간을 부여한다. 자모음과 지 속시간에 따라 입모양을 변화시켜 얼굴 동영상을 생성하고 있다. 이때, 텍스트에 부합한 입 모양 변화뿐만 아니라, 두부의 3차원 동작과 다양한 표정변화를 통하여 자연스런 가상얼굴 을 실시간으로 합성하고 있다. 한편, 음성합성에서는 문장분석 결과에 따라 강세구와 억양구 를 정하고 있다. 강세구와 억양구를 이용하여 생성된 운율모델이 고품질의 음성합성에 필요 한 지속시간, 억양 및 휴지기를 제어한다. 합성단위는 무제한 어휘가 가능한 반음절과 triphone(VCV)의 조합이며, 합성방식은 TD-PSOLA를 사용한다.

  • PDF

벡터 기반 캐리커처에 모션 데이터를 적용한 얼굴 표정 애니메이션 (Facial Expression Animation which Applies a Motion Data in the Vector based Caricature)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제10권5호
    • /
    • pp.90-98
    • /
    • 2010
  • 본 논문은 얼굴 모션 데이터를 벡터 기반 캐리커처의 얼굴에 적용하여 캐리커처 얼굴 표정 애니메이션을 생성할 수 있도록 하는 방법론을 기술한다. 본 방법은 일러스트레이터의 플러그인 형식으로 구현하였으며, 별도의 사용자 인터페이스를 갖추고 있다. 실험에 사용된 얼굴 모션 데이터는 28개의 소형 마커를 배우 얼굴의 주 근육 부분에 부착하고 다양한 다수 개의 표정을 Facial Tracker로 캡처한 것이다. 캐리커처는 모션데이터와의 연결을 위해 모션 캡처를 할 때 배우의 얼굴에 부착된 주요 마커의 위치와 동일한 부위에 각각의 제어점을 가진 베지어 곡선 형태로 제작되었다. 그러나 얼굴 모션 데이터는 캐리커처에 비하여 공간적인 규모가 너무 크기 때문에 모션 캘리브레이션 과정을 거쳤으며, 사용자로 하여금 수시로 조절이 가능하게 하였다. 또한 캐리커처와 마커들을 연결시키기 위해서는 사용자가 얼굴 부위의 각 명칭을 메뉴에서 선택한 다음, 캐리커처의 해당 부위를 클릭함으로써 가능하게 하였다. 결국 본 논문은 일러스트레이터의 사용자 인터페이스를 통하여 벡터 기반 캐리커처에 얼굴 모션 데이터를 적용한 캐리커처 얼굴 표정 애니메이션 생성이 가능하도록 하였다.

MIRIS에서 적외선 관측용 이미지 센서의 제어를 위한 FPGA 개발

  • 방승철;이대희;위석오;가능현;차상묵;박영식;남욱원;정웅섭;이창희;문봉곤;박성준;이덕행;표정현;한원용
    • 한국우주과학회:학술대회논문집(한국우주과학회보)
    • /
    • 한국우주과학회 2010년도 한국우주과학회보 제19권1호
    • /
    • pp.25.2-25.2
    • /
    • 2010
  • MIRIS는 과학기술위성 3호의 주 탑제체로 우주 및 지구의 적외선 관측을 위한 두 개의 카메라 시스템을 가지고 있으며 이를 위한 적외선 검출용 이미지 센서가 각각 장착되어 있다. 이미지 센서를 통해 검출된 이미지 데이터를 읽기 위해 고속의 데이터 처리가 요구되어 FPGA 구성방식으로 전용 제어기를 구성하였다. 우주 및 지구의 적외선 관측용 이미지 센서는 구성 및 동작방법이 달라 요구기능을 만족하는 각각의 전용 이미지 센서 제어기를 개발했다. FPGA를 이용한 이미지 센서 제어기에는 검출된 이미지를 읽기위한 센서 제어 신호발생기, 아날로그 이미지 신호를 디지털 정보로 변환하는 ADC 제어용 신호 발생기, ADC의 출력 신호를 고속의 직렬 통신선로로 출력 하는 기능 외에 동작 모드 및 동작 상태 입력용 DSP 인터페이스, 고속의 직렬 통신 선로에 MIRIS 상태정보 삽입 기능, 제어기의 기능을 원격지에서 확인 할 수 있는 이미지 패턴 생성기능 등을 가지고 있다. 특히, 이미지를 읽기 위한 동작 시에만 클록 주파수를 인가하는 방법으로 FPGA 내부 회로를 구성하여 전류의 소모량을 최소화 하였다.

  • PDF

EAI를 이용한 인터넷 상에서의 아바타 동작에 관한 설계 및 구현 (Design and Implementation of avatar behaving on Internet Using EAI)

  • 정회경;안성옥;정재길
    • 정보학연구
    • /
    • 제4권1호
    • /
    • pp.97-108
    • /
    • 2001
  • 본 논문은 VRML(Virtual Reality Modeling Language)을 제어 할 수 있는 EAI(External Authoring Interface) 기술을 이용하여, 가상세계에서 사용자의 분신인 아바타(Avatar)를 제어하기 위한 시스템의 설계 및 구현에 관한 것이다. VRML 언어로 기술된 사용자들의 아바타가 사용자의 요구에 따라 움직이거나, 표정을 표현한 수 있는 상호작용들을 자바로 구현하였다. 이는 앞으로 가상 공간상에서 아바타를 활용하여 사이버정치, 강연, 시연회, 경매와 같은 사회의 다양한 통합을 목적으로 한 웹 기반의 가상적인 사회를 구현하기 위한 연구로 발전될 수 있으리라 본다.

  • PDF

실시간 얼굴 표정 인식을 위한 새로운 사각 특징 형태 선택기법 (New Rectangle Feature Type Selection for Real-time Facial Expression Recognition)

  • 김도형;안광호;정명진;정성욱
    • 제어로봇시스템학회논문지
    • /
    • 제12권2호
    • /
    • pp.130-137
    • /
    • 2006
  • In this paper, we propose a method of selecting new types of rectangle features that are suitable for facial expression recognition. The basic concept in this paper is similar to Viola's approach, which is used for face detection. Instead of previous Haar-like features we choose rectangle features for facial expression recognition among all possible rectangle types in a 3${\times}$3 matrix form using the AdaBoost algorithm. The facial expression recognition system constituted with the proposed rectangle features is also compared to that with previous rectangle features with regard to its capacity. The simulation and experimental results show that the proposed approach has better performance in facial expression recognition.

로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어 (Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity)

  • 김민규;이희승;박정우;조수훈;정명진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.547-552
    • /
    • 2008
  • 앞으로 로봇은 더욱 사람과 가까워 질 것이고, 따라서 사람과 로봇간의 상호작용도 활발해질 것이다. 이 때 직관적인 소통수단이 필수적이기 때문에, 로봇이 표정을 통해 감정을 표현할 수 있도록 하는 연구가 활발히 진행되어왔다. 기존에는 얼굴 표정을 주로 이용하였는데, 사람처럼 감정의 강도를 표현하기 위해서는 얼굴 외의 다른 방법도 필요하다. 로봇이 감정의 강도를 표현하기 위해서는 팔의 제스처, 움직임, 소리, 색깔 등을 이용할 수 있다. 본 논문에서는 LED 를 이용할 수 있도록 색과 깜빡임에 대해 연구하였다. 색깔과 감정의 관계에 대해서는 기존에 연구가 많이 되어 있지만, 실제로 로봇에 구현하기에는 정량적 자료가 부족하여 어려움이 있다. 본 논문에서는 6 가지 기본 감정(화남, 슬픔, 혐오, 놀람, 기쁨, 공포)을 효과적으로 나타낼 수 있는 색과 깜빡임 주기를 결정하고, 아바타를 이용하여 감정의 강도를 설문조사 하였다. 결과적으로, 슬픔, 혐오, 화남의 경우 색깔과 깜빡임을 통해 감정의 강도를 높일 수 있었다. 공포, 기쁨, 놀람의 경우 색깔과 깜빡임이 감정 인식에 큰 영향을 미치지 못했는데, 이는 그 감정에 해당하는 색깔이나 깜빡임을 수정해서 개선할 수 있을 것이다.

  • PDF

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.