• Title/Summary/Keyword: 공간표현(表征空間)

Search Result 44, Processing Time 0.024 seconds

"空間轉向"与叙事空間

  • Jo, Bin;Eom, Yeong-Uk
    • 중국학논총
    • /
    • no.66
    • /
    • pp.1-13
    • /
    • 2020
  • After the "spatial turn" space narrative has become the hottest "doctrine". Howe er, the current space narrative to a bottleneck stage, a variety of reasons. "Spatial turn" of the modern trend of thought has a unshirkable responsibility. Has been, scholars turned to "empty" the complex relationship between space narrative and, type of narrative space narrative theory problem also not too clear by the noun, the term textual research, narrative of space studies provide some of the necessary theoretical support, to promote the healthy de elopment of the research on novel narrative space.

A Study on the Analysis of Emotion-expressing Vocabulary for Realtime Conversion of Avatar′s Countenances (아바타의 실시간 표정변환을 위한 감정 표현 어휘 분석에 관한 연구)

  • 이영희;정재욱
    • Archives of design research
    • /
    • v.17 no.2
    • /
    • pp.199-208
    • /
    • 2004
  • In cyberspace based on internet, users constitute communities and interact one another. Avatar means not only the other self but also the 'another being' that describes oneself in the cyberspace. If user's avatar shows expressive faces and behaves according to his thinking and emotion, he will have a feel of reality much more in the cyberspace. If avatar's countenances can be animated by just typing characters in avatar-based chat communication, the user is able to express his emotions more effectively. In this study, emotion-expressing vocabulary is analyzed and classified. Emotion-expressing vocabulary is essential to develop self-reactive avatar system in which avatar's countenances are automatically converted according to the words typed by users at chat. The results are as follows; First, emotion-expressing vocabulary selected out of Korean adjectives and intransitive verbs is made up of 209 words and is classified into 25 groups. Second, there are only 2 groups out of the 25 groups for positive expressions and others are for negative expressions. Therefore, negative expressions are more abundant than positive expressions in Korean vocabulary. Third, avatar's countenances are modelled according to the 25 groups by using the Quantification Method 3. The result shows that the emotion-expressing vocabulary has dose relations with avatar's countenances and is useful to communicate users' emotions. However, this study has some limits, in that Korean linguistical structure - the whole meaning of context - cannot be interpreted quantitatively.

  • PDF

On Parameterizing of Human Expression Using ICA (독립 요소 분석을 이용한 얼굴 표정의 매개변수화)

  • Song, Ji-Hey;Shin, Hyun-Joon
    • Journal of the Korea Computer Graphics Society
    • /
    • v.15 no.1
    • /
    • pp.7-15
    • /
    • 2009
  • In this paper, a novel framework that synthesizes and clones facial expression in parameter spaces is presented. To overcome the difficulties in manipulating face geometry models with high degrees of freedom, many parameterization methods have been introduced. In this paper, a data-driven parameterization method is proposed that represents a variety of expressions with a small set of fundamental independent movements based on the ICA technique. The face deformation due to the parameters is also learned from the data to capture the nonlinearity of facial movements. With this parameterization, one can control the expression of an animated character's face by the parameters. By separating the parameterization and the deformation learning process, we believe that we can adopt this framework for a variety applications including expression synthesis and cloning. The experimental result demonstrates the efficient production of realistic expressions using the proposed method.

  • PDF

The Design of Context-Aware Middleware Architecture for Processing Facial Expression Information (얼굴표정정보를 처리하는 상황인식 미들웨어의 구조 설계)

  • Jin-Bong Kim
    • Annual Conference of KIPS
    • /
    • 2008.11a
    • /
    • pp.649-651
    • /
    • 2008
  • 상황인식 컴퓨팅 기술은 넓게 보면 유비쿼터스 컴퓨팅 기술의 일부분으로 볼 수 있다. 그러나 상황인식 컴퓨팅 기술의 적용측면에 대한 접근 방법이 유비쿼터스 컴퓨팅과는 다르다고 할 수 있다. 지금까지 연구된 상황인식 컴퓨팅 기술은 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에 주된 초점을 두고 있다. 또한, 상황정보로는 객체의 위치 정보만을 주로 사용하고 있다. 그러나 본 논문에서는 객체의 얼굴표정을 상황정보로 사용하여 감성을 인식할 수 있는 상황인식 미들웨어로서 CM-FEIP의 구조를 제안한다. CM-FEIP의 가상공간 모델링은 상황 모델링과 서비스 모델링으로 구성된다. 또한, 얼굴표정의 인식기술을 기반으로 온톨로지를 구축하여 객체의 감성을 인식한다. 객체의 얼굴표정을 상황정보로 사용하고, 무표정일 경우에는 여러 가지 환경정보(온도, 습도, 날씨 등)를 이용한다. 온톨로지를 구축하기 위하여 OWL 언어를 사용하여 객체의 감성을 표현하고, 감성추론 엔진은 Jena를 사용한다.

The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation (효과적인 로봇 행동 생성을 위한 선형의 정서-표정 공간 내 감정 경계의 결정 -비선형의 제스처 동기화를 위한 정서, 표정 공간의 영역 결정)

  • Jo, Su-Hun;Lee, Hui-Sung;Park, Jeong-Woo;Kim, Min-Gyu;Chung, Myung-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.540-546
    • /
    • 2008
  • In the near future, robots should be able to understand human's emotional states and exhibit appropriate behaviors accordingly. In Human-Human Interaction, the 93% consist of the speaker's nonverbal communicative behavior. Bodily movements provide information of the quantity of emotion. Latest personal robots can interact with human using multi-modality such as facial expression, gesture, LED, sound, sensors and so on. However, a posture needs a position and an orientation only and in facial expression or gesture, movements are involved. Verbal, vocal, musical, color expressions need time information. Because synchronization among multi-modalities is a key problem, emotion expression needs a systematic approach. On the other hand, at low intensity of surprise, the face could be expressed but the gesture could not be expressed because a gesture is not linear. It is need to decide the emotional boundaries for effective robot behavior generation and synchronization with another expressible method. If it is so, how can we define emotional boundaries? And how can multi-modality be synchronized each other?

  • PDF

Real-time Recognition System of Facial Expressions Using Principal Component of Gabor-wavelet Features (표정별 가버 웨이블릿 주성분특징을 이용한 실시간 표정 인식 시스템)

  • Yoon, Hyun-Sup;Han, Young-Joon;Hahn, Hern-Soo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.6
    • /
    • pp.821-827
    • /
    • 2009
  • Human emotion can be reflected by their facial expressions. So, it is one of good ways to understand people's emotions by recognizing their facial expressions. General recognition system of facial expressions had selected interesting points, and then only extracted features without analyzing physical meanings. They takes a long time to find interesting points, and it is hard to estimate accurate positions of these feature points. And in order to implement a recognition system of facial expressions on real-time embedded system, it is needed to simplify the algorithm and reduce the using resources. In this paper, we propose a real-time recognition algorithm of facial expressions that project the grid points on an expression space based on Gabor wavelet feature. Facial expression is simply described by feature vectors on the expression space, and is classified by an neural network with its resources dramatically reduced. The proposed system deals 5 expressions: anger, happiness, neutral, sadness, and surprise. In experiment, average execution time is 10.251 ms and recognition rate is measured as 87~93%.

Study on improvement of graphic motion editor for sign language (수화 동작 그래픽 편집기 개선에 관한 연구)

  • Oh, Young-Joon;Park, Kwang-Hyun;Jang, Hyo-Young;Kim, Dae-Jin;Jung, Jin-Woo;Bien, Zeung-Nam
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.976-981
    • /
    • 2006
  • 수화는 청각장애인이 사용하는 시각적인 언어이다. OpenGL 기반의 가상 현실 공간에서 수화 동작을 표현하기 위해서는 수화 동작 데이터를 삽입하고 수정하는 편집 프로그램이 필요하다. 하지만, 기존의 수화 동작 편집기는 수화를 잘 이해하지 못하는 일반 사용자가 손 모양을 정확하게 편집하거나 얼굴 표정을 표현하는데 어려움이 있다. 또한, 수화 사전에 포함되는 각 수화 단어의 데이터 수가 많기 때문에 이를 효율적으로 생성하고 저장하는 프로그램이 절실히 필요하다. 본 논문에서는 사용자의 편의성을 높이기 위해 수화 동작 그래픽 편집기를 개선하는 방법을 제안한다. 이를 위해 각 손 모양에 대해 21 개의 파라마터로 구성된 데이터를 손가락 별로 분류한 후, 손가락 고유 기호로 변환하고, 손 모양 이름과 일련 번호를 부여하여 손 모양 데이터를 얻었으며, 유사한 손 모양을 그룹으로 묶은 손 모양 그룹 데이터를 구성하여 손 모양 데이터 사전을 구축하였다. 구축된 손 모양 사전을 수화 동작 편집기에 적용함으로써 사용자는 손 모양 그룹과 손 모양 이름, 일련번호를 선택하여 손의 각 관절 움직임을 쉽게 편집할 수 있으며, 이를 가상현실 공간에서 움직여 볼 수 있다. 또한, 얼굴 표정과 안색을 편집할 수 있는 기능을 추가함으로써 수화 동작 중에 얼굴 표정을 쉽게 표현할 수 있도록 하였다.

  • PDF

Development of Vision based Emotion Recognition Robot (비전 기반의 감정인식 로봇 개발)

  • Park, Sang-Sung;Kim, Jung-Nyun;An, Dong-Kyu;Kim, Jae-Yeon;Jang, Dong-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.670-672
    • /
    • 2005
  • 본 논문은 비전을 기반으로 한 감정인식 로봇에 관한 논문이다. 피부스킨칼라와 얼굴의 기하학적 정보를 이용한 얼굴검출과 감정인식 알고리즘을 제안하고, 개발한 로봇 시스템을 설명한다. 얼굴 검출은 RGB 칼라 공간을 CIElab칼라 공간으로 변환하여, 피부스킨 후보영역을 추출하고, Face Filter로 얼굴의 기하학적 상관관계를 통하여 얼굴을 검출한다. 기하학적인 특징을 이용하여 눈, 코, 입의 위치를 판별하여 표정 인식의 기본 데이터로 활용한다. 눈썹과 입의 영역에 감정 인식 윈도우를 적용하여, 윈도우 내에서의 픽셀값의 변화와 크기의 변화로 감정인식의 특징 칼을 추출한다. 추출된 값은 실험에 의해서 미리 구해진 샘플과 비교를 통해 강정을 표현하고, 표현된 감정은 Serial Communication을 통하여 로봇에 전달되고, 감정 데이터를 받은 얼굴에 장착되어 있는 모터를 통해 표정을 표현한다.

  • PDF

Face Image Synthesis using Nonlinear Manifold Learning (비선형 매니폴드 학습을 이용한 얼굴 이미지 합성)

  • 조은옥;김대진;방승양
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.2
    • /
    • pp.182-188
    • /
    • 2004
  • This paper proposes to synthesize facial images from a few parameters for the pose and the expression of their constituent components. This parameterization makes the representation, storage, and transmission of face images effective. But it is difficult to parameterize facial images because variations of face images show a complicated nonlinear manifold in high-dimensional data space. To tackle this problem, we use an LLE (Locally Linear Embedding) technique for a good representation of face images, where the relationship among face images is preserving well and the projected manifold into the reduced feature space becomes smoother and more continuous. Next, we apply a snake model to estimate face feature values in the reduced feature space that corresponds to a specific pose and/or expression parameter. Finally, a synthetic face image is obtained from an interpolation of several neighboring face images in the vicinity of the estimated feature value. Experimental results show that the proposed method shows a negligible overlapping effect and creates an accurate and consistent synthetic face images with respect to changes of pose and/or expression parameters.

Learning/Training System Supporting Real Time Video Chatting on Web-based 3D Virtual Space (웹 기반 3차원 가상 공간에서 실시간 화상 대화 지원 학습/훈련 시스템)

  • 정헌만;탁진현;이세훈;왕창종
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.571-573
    • /
    • 2000
  • 기존 분산 가상환경 시스템에서는 참여자들 사이의 언어 외적인 의사교환을 지원하기 위해 참여자의 아바타에 몸짓이나 얼굴 표정 등을 표현할 수 있도록 애니메이션 가능한 아바타를 사용한다. 하지만 아바타 애니메이션으로 참여자의 의사 및 감정 표현을 표현하는데는 한계가 있다. 따라서, 이 논문에서는 가상 환경 내의 다중 사용자들의 의사 교환 및 감정 표현을 극대화할 수 있는 방법으로 실시간 화상 대화 가상 환경 학습.훈련 시스템을 설계하였다. 설계한 시스템은 학습 참여자의 화상 및 음성 스트림을 전달함으로써 기존 응용들에 비해 풍부한 의사 교환을 지원하고, 가상 공간에서 학습에 필요한 다양한 모듈들을 포함하고 있다.

  • PDF