• Title/Summary/Keyword: 놀람

검색결과 81건 처리시간 0.031초

감정동사 및 감정형용사 분류에 관한 연구 (Classification System for Emotional Verbs and Adjectives)

  • 장효진
    • 한국정보관리학회:학술대회논문집
    • /
    • 한국정보관리학회 2001년도 제8회 학술대회 논문집
    • /
    • pp.29-34
    • /
    • 2001
  • 영상자료 및 소리자료의 색인과 검색을 위해서는 감정동사 및 감정형용사 등의 감정 어휘를 필요로 한다. 그러나 감정어휘는 그 뉘앙스가 미묘하여 분명한 분류체계가 없이는 체계적인 정리가 불가능하다. 이에 따라 본 연구에서는 국어학과 분류사전의 분류체계를 고찰하고 새로운 감정어휘의 분류방안을 연구하였으며, 감정에 따른 기쁨, 슬픔, 놀람, 공포, 혐오, 분노의 6가지 기본유형을 제시하였다.

  • PDF

아이겐포인트를 이용한 표정 인식 (Facial expression recognition using eigen-points)

  • 홍성희;변혜란
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 봄 학술발표논문집 Vol.31 No.1 (B)
    • /
    • pp.817-819
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정을 구분하기 위해서 무표정 영상으로부터 18개의 특징점을 찾고, 그 특징점 간의 거리를 템플릿으로 이용하는 방법을 연구하였다. 얼굴표정인식을 위해 정의된 기본 템플릿과 입력 표정 영상에서의 특징정 간의 상대적인 거리의 차이와 특징점의 좌표변위 차이를 이용하여 표정을 구분하도록 하였다. 각 테스트 표정영상의 특징점은 주요 얼굴요소로부터 아이겐포인트(eigen-point)를 자동으로 추출하였다. 표정 인식은 신경망 학습을 통해서 기쁨, 경멸, 놀람, 공포 슬픔 등 5가지로 나누어 실험하였고, 신경망의 인식 결과와 사람의 인식 결과를 통해서 비교한 결과, 72%의 인식성능을 보여주었다.

  • PDF

얼굴영상을 이용한 한국인과 일본인의 감정 인식 비교 (Emotion Recognition of Korean and Japanese using Facial Images)

  • 이대종;안의숙;박장환;전명근
    • 한국지능시스템학회논문지
    • /
    • 제15권2호
    • /
    • pp.197-203
    • /
    • 2005
  • 본 논문에서는 얼굴영상을 이용하여 한국인과 일본인의 감정인식에 대하여 연구하였다. 얼굴의 감정인식을 위하여 심리학자인 Ekman과 Friesen의 연구에 의해 문화에 영향을 받지 않고 공통으로 인식하는 6개의 기본 감정인 기쁨, 슬픔, 화남, 놀람, 공포, 혐오를 바탕으로 실험하였다. 감정인식에서 입력영상은 이산 웨이블렛을 기반으로 한 다해상도 분석기법을 사용하여 데이터 수를 압축한 후, 각각의 영상에서 주성분분석기법 및 선형판별분석기법에 의해 얼굴의 감정특징을 추출하였다. 실험결과 한국인과 일본인 모두 "기쁨", "슬픔", "화남" 감정은 비교적 인식률이 높은 반면에 "놀람", "공포", "혐오" 감정은 인식률이 저조하게 나타냈다. 특히, 일본인의 경우 "혐오" 감정이 가장 저조한 결과를 나타냈으며, 전반적으로 한국인에 비해 일본인의 감정인식결과가 낮은 것으로 나타났다.

챗봇의 사회적 현존감을 위한 비언어적 감정 표현 방식 (Non-verbal Emotional Expressions for Social Presence of Chatbot Interface)

  • 강민정
    • 한국콘텐츠학회논문지
    • /
    • 제21권1호
    • /
    • pp.1-11
    • /
    • 2021
  • 챗봇과 친밀한 관계를 느끼고 대화에 몰입감을 높이기 위해 인간의 감정을 정확히 인지하고 그에 적합한 감정적 반응을 표현하는 인공지능 연구가 활발히 진행되고 있다. 따라서 본 연구에서는 챗봇이 감정을 표현할 때 사람같이 느끼게 하는 사회적 현존감을 높이는 비언어적 표현 방식에 대해서 밝히고자 한다. 본 연구는 우선 배경연구를 진행하여 표정이 가장 감정을 잘 드러내는 비언어적 표현이며 움직임은 관계몰입에 중요하다는 것을 파악하였다. 이를 바탕으로 감정에 따라 사회적 현존감이 느껴지는 표현 방식을 밝히기 위해 5가지 기본 감정인, 기쁨, 슬픔, 놀람, 두려움, 화남을 동적 텍스트, 동적 제스처, 정적 표정 이모티콘으로 자극물을 준비하여 설문조사를 통해 가장 사회적 현존감이 느껴지는 표현 방식을 각 감정별로 택하도록 하였다. 설문 결과 기쁨과 같은 긍정적이고 각성 상태가 높은 감정에서는 동적인 표현이, 슬픔과 화남과 같은 부정적인 감정에서는 정적 표정 이모티콘이, 놀람, 두려움과 같은 중립적 감정의 경우 의미를 확실히 알 수 있는 동적 텍스트가 주로 선택되었다. 본 연구 결과는 챗봇 개발 시 감정을 표현하는 방식을 정할 때 중요한 참고자료가 될 것으로 기대한다.

공황장애환자의 정신생리적 반응 (Psychophysiologic Response in Patients with Panic Disorder)

  • 정상근;조광현;정애자;박태원;황익근
    • 수면정신생리
    • /
    • 제8권1호
    • /
    • pp.52-58
    • /
    • 2001
  • 목 적 : 정상 대조군보다 공황장애환자의 생리적 각성수준이 더 높고 생리적 유연성이 더 적을 것이다. 이러한 가정을 확인하기 위해 공황장애환자와 정상대조군사이의 정신생리반응의 차이를 알아보았다. 방 법 : 환자군은 DSM-Ⅳ의 공황장애 진단기준에 맞는 외래 및 입원 환자 10명(남성 9명, 여성 1명;연령 $47.5{\pm}14.3$세), 정상 대조군(남성 9명, 여성 1명 ; 연령 $47.3{\pm}10.1$세)은 전북의대 학생 및 전북대학교병원직원 10명으로 선정하였다. 심리적 평가항목으로서, 불안, 우울 수준은 상태특성불안척도, Beck 우울 척도, Hamilton 불안 및 우울 척도로 평가하였다. 생리적 평가항목으로서 자율신경계의 정신생리반응을 측정하였는데, 맥박, 호흡속도, 피부전도반응, 근전도 등은 J & J I-330모델을 이용하였다. 스트레스작업은 4가지로서 암산, 비디오게임, 과호흡, 스트레스사건 이야기작업을 이용하였다. 정신생리반응의 측정순서는 생리반응 측정전 약 15분간의 휴식후 각각 3분씩의 '기저기간-암산작업 기간-휴식기간(3분)-비디오게임 기간-휴식기간-과호흡 기간-휴식기간-트레스사건 이야기작업 기간'으로 하였다. 두 군사이의 스트레스작업에 따른 심리적, 생리적 평가 항목들의 차이를 통계 분석하였다. 결 과 : 대조군보다 공황장애군에서 우울, 불안수준이 유의하게 더 높았다. 생리반응 중 피부전도반응(p=.017), 근전도(p=.047), 맥박(p=.049)의 기저치가 대조군보다 공황장애군에서 유의하게 더 높았다. 또한, 피부전도반응의 경우, 과호흡시 놀람반응이 대조군보다 공황장애군에서 유의하게 더 컸다(p=.001). 맥박의 경우, 암산작업시 놀람 및 회복반응이 대조군보다 환자군에서 유의하게 더 적었다(각각 p=.007, p=.002). 환자군내에서 피부전도반응의 경우, 암산(p=.0001) 및 비디오게임(p=.021) 작업시 놀람반응이 회복반응보다 유의하게 더 컸다. 또한 호흡반응의 경우, 환자군내에서 과호흡시(p=.035) 놀람반응보다 회복반응이 유의하게 더 컸다. 결 론 : 상기 결과로 미루어보아, 공황장애환자는 정상 대조군보다 기저기에서 대부분 자율신경계의 생리적 각성수준이 더 높았으나, 측정항목에 따라 생리적 유연성의 기복이 있었다. 따라서, 공황장애환자의 치료시 자율신경계의 각성수준을 감소시키고, 일부 스트레스에 대한 생리적 유연성 회복이 필요하다고 생각한다.

  • PDF

감성적 인간 로봇 상호작용을 위한 음성감정 인식 (Speech emotion recognition for affective human robot interaction)

  • 장광동;권오욱
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.401-404
    • /
    • 2007
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링을 기반으로한 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 6가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고, 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

  • PDF

얼굴표정을 이용한 감정인식 및 표현 기법 (Emotion Recognition and Expression using Facial Expression)

  • 주종태;박경진;고광은;양현창;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.295-298
    • /
    • 2007
  • 본 논문에서는 사람의 얼굴표정을 통해 4개의 기본감정(기쁨, 슬픔, 화남, 놀람)에 대한 특징을 추출하고 인식하여 그 결과를 이용하여 감정표현 시스템을 구현한다. 먼저 주성분 분석(Principal Component Analysis)법을 이용하여 고차원의 영상 특징 데이터를 저차원 특징 데이터로 변환한 후 이를 선형 판별 분석(Linear Discriminant Analysis)법에 적용시켜 좀 더 효율적인 특징벡터를 추출한 다음 감정을 인식하고, 인식된 결과를 얼굴 표현 시스템에 적용시켜 감정을 표현한다.

  • PDF

음성 신호와 얼굴 표정을 이용한 감정인식 몇 표현 기법 (An Emotion Recognition and Expression Method using Facial Image and Speech Signal)

  • 주종태;문병현;서상욱;장인훈;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.333-336
    • /
    • 2007
  • 본 논문에서는 감정인식 분야에서 가장 많이 사용되어지는 음성신호와 얼굴영상을 가지고 4개의(기쁨, 슬픔, 화남, 놀람) 감정으로 인식하고 각각 얻어진 감정인식 결과를 Multi modal 기법을 이용해서 이들의 감정을 융합한다. 이를 위해 얼굴영상을 이용한 감정인식에서는 주성분 분석(Principal Component Analysis)법을 이용해 특징벡터를 추출하고, 음성신호는 언어적 특성을 배재한 acoustic feature를 사용하였으며 이와 같이 추출된 특징들을 각각 신경망에 적용시켜 감정별로 패턴을 분류하였고, 인식된 결과는 감정표현 시스템에 작용하여 감정을 표현하였다.

  • PDF

개인 내 정서판별을 위한 특징 추출 및 선택 (Feature Extraction and Selection for Emotion Classification of inter-persons)

  • 양희경;이정환;이영재;이필재;손진훈;허준형
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1970-1971
    • /
    • 2011
  • 정서인식분야에서 현재 활발히 연구되고 있는 방법은 다양한 생체신호를 통해 인간의 감정을 인식하는 것이다. 생리심리학적 연구에서 인간의 감정상태와 생체반응은 강한 상관이 있다고 알려져 있다. 생체신호는 센서 등으로 비교적 간단하게 획득할 수 있으며, 이를 이용한 감정인식은 사회적, 문화적인 차이에 덜 민감하므로 최근에 주목 받고 있다. 본 연구에서는 audio-visual film clips 자극으로 기쁨, 분노, 놀람, 스트레스 4종류의 정서를 유발하고 그에 대한 반응으로써 생체신호를 측정하였다. 그리고 생체신호로부터 feature를 추출하였고, 주성분분석(PCA)로 특징 축소를 수행하였다. 4가지 정서를 분류 한 결과, 9명의 가우시안 프로세스 분류기에 의한 평균 정서 판별율은 64.85 % (57.14~70.0)의 결과를 얻었다.

  • PDF