• 제목/요약/키워드: 놀람

검색결과 81건 처리시간 0.021초

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

영화 대본에서 감정 및 정서 분석: 사례 연구 (Emotion and Sentiment Analysis from a Film Script: A Case Study)

  • 유혜연;김문현;배병철
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권8호
    • /
    • pp.1537-1542
    • /
    • 2017
  • 감정은 서사 생성과 이해 모두에서 중요한 역할을 한다. 본 논문은 플루칙의 감정 모델을 기반으로 영화 대본에서 8가지 감정 표현을 분석하였다. 먼저 각 장면별 수동으로 감정을 태깅하였고, 이 때 8가지 감정 중 분노, 공포, 그리고 놀람이 가장 우세하게 나타났는데, 이는 스릴러 영화 장르를 고려할 때 의미있다고 할 수 있다. 또한, 스토리에서 긴장이 가장 고조되는 클라이맥스에서 다양한 감정이 복합적으로 나타난다고 가정하였고, 대본 상에서 3 부분의 클라이맥스를 확인할 수 있었다. 그 다음으로 파이썬 (Python) 프로그래밍 언어 기반 자연어처리 도구인 NLTK (Natural Language ToolKit)의 감성 분석 도구를 이용하여 수동 감정 태깅과 비교한 결과, 분노와 공포 감정에서 높은 일치율을, 그리고 놀람, 기대, 혐오 감정에서는 낮은 일치율을 보임을 확인하였다.

객관적 이명검사 연구를 위한 청성 후기 반응 측정 시스템의 구현 (Implementation of an Auditory Late Latency Response Measurement System for Researching Objective Tinnitus Detection Method)

  • 박일용
    • 재활복지공학회논문지
    • /
    • 제7권1호
    • /
    • pp.45-50
    • /
    • 2013
  • 최근, 동물에 대한 객관적 이명 유무 검사인 GPIAS (gap prepulse inhibition of acoustic startling) 방법이 보고된바 있으나 동물과 달리 큰 자극음에 의한 놀람 반응 (startling response)을 사람에게서 측정하는 것은 어렵기 때문에, 청성 유발 반응과 같은 뇌파 신호를 측정하는 것이 사람 이명 검사법 연구에 보다 적합하다. 본 연구에서는 GPIAS 방법에서 사용하는 gap prepulse 기반의 소리 자극법을 자유롭게 적용할 수 있으며, 청각 심리학적 현상인 이명과 연관된 대뇌 피질 활동을 반영하는 청성 후기 반응 (auditory late latency response, ALLR) 뇌파를 간편하게 측정할 수 있는 청성 후기 반응 측정 시스템을 구현하였다. 또한, 구현된 시스템을 정상 청력을 가진 8인의 피험자에게 적용하는 실험을 통해 gap prepulse 기반의 소리자극에 의한 청성 후기 반응의 N1-P2 첨두치 크기를 측정하였고, gap prepulse에 의한 N1-P2 억제율 현상을 확인 및 평가하였다. 이를 통해, 구현된 청성 후기 반응 측정 시스템이 향후 gap prepulse 소리 자극법에 기반한 객관적 이명 검사법 연구 및 검증 도구로서 이용될 수 있음을 확인하였다.

  • PDF

동물 이명 검사용 GPIAS 측정 장치 구현과 이를 통한 자극 배경음의 시작 시점이 놀람 반응에 주는 영향 (An Implementation of a GPIAS Measurement System for Animal Tinnitus Detection and Study on Effect of Starting Point of Stimulus Background Sound on Startle Response)

  • 전보람;정재윤;이승하;박일용
    • 센서학회지
    • /
    • 제22권6호
    • /
    • pp.410-414
    • /
    • 2013
  • As one of the effective methods for researching the objective tinnitus detection, the GPIAS (Gap Pre-pulse Inhibition of Acoustic Startle) measurement has been used to verify the existence of animal tinnitus objectively. The level and pattern of the background sound presented prior to a startle pulse are closely related with the GPIAS results. But the effect of the starting point of the background sound on animal startle responses has not been reported yet. In this paper, we present the implementation of a GPIAS measurement system based on an unconstrained enclosure to avoid animals' excessive constraint stress and deal with the animals' growth. After the performance of our implemented system has been tested through the animal experiment using 4 SD-rats, the effect of starting point of stimulus background sound on the startle response has been studied by the use of our implemented system. Through the results, it is verified that our system can measure the inhibition of animal startle responses due the gap pre-pulse for GPIAS calculation and the background sound starting point does not significantly effect on the startle response and the GPIAS values if the background sound continues for more than 300msec before a gap pre-pulse is presented.

정지영상과 동영상의 융합모델에 의한 얼굴 감정인식 (Face Emotion Recognition by Fusion Model based on Static and Dynamic Image)

  • 이대종;이경아;고현주;전명근
    • 한국지능시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.573-580
    • /
    • 2005
  • 본 논문에서는 인간과 컴퓨터의 인터페이스를 좀더 자연스럽고 쉬운 형태의 능동적인 휴먼 인터페이스로 구현하기 위해 정지영상 및 동영상에서의 감정인식기법을 제안하고자 한다. 제안된 얼굴의 감정인식 기법은 Hidden Markov Model(HMM), 주성분분석기법(PCA)와 웨이블렛 변환을 기반으로 구성하였다. 얼굴의 감정인식을 위하여 심리학자인 Ekman과 Friesen의 연구에 의해 문화에 영향을 받지 않고 공통으로 인식하는 6개의 기본 감정인 기쁨, 슬픔, 화남, 놀람, 공포, 혐오를 바탕으로 실험하였다. 감정인식에서 입력영상은 이산 웨이블렛을 기반으로 한 다해상도 분석기법을 사용하여 데이터 수를 압축한 후, 각각의 영상에서 PCA 특징벡터를 추출한 후 이를 사용하여 HMM의 모델을 생성한다. 인식단계에서는 정지영상에서의 인식값과 동영상에서의 인식값을 정규화 과정을 통하여 상호보완 함으로써 인식률을 높일 수 있었다.

효과적인 얼굴 표정 인식을 위한 퍼지 웨이브렛 LDA융합 모델 연구 (A Study on Fuzzy Wavelet LDA Mixed Model for an effective Face Expression Recognition)

  • 노종흔;백영현;문성룡
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.759-765
    • /
    • 2006
  • 본 논문에서는 퍼지 소속 함수와 웨이브렛 기저를 이용한 효과적인 얼굴 표정 인식 LDA 융합모델을 제안하였다. 제안된 알고리즘은 최적의 영상을 얻기 위해 퍼지 웨이브렛 알고리즘을 수행하고, 표정 검출은 얼굴 특징 추출단계와 얼굴표절인식 단계로 구성된다. 본 논문에서 얼굴 표정이 담긴 영상을 PCA를 적용하여 고차원에서 저차원의 공간으로 변환 후, LDA 특성을 이용하여 클래스 별호 특징벡터를 분류한다. LDA 융합 모델은 얼굴 표정인식단계는 제안된 LDA융합모델의 특징 벡터에 NNPC를 적응함으로서 얼굴 표정을 인식한다. 제안된 알고리즘은 6가지 기본 감정(기쁨, 화남, 놀람, 공포, 슬픔, 혐오)으로 구성된 데이터베이스를 이용해 실험한 결과, 기존알고리즘에 비해 향상된 인식률과 특정 표정에 관계없이 고른 인식률을 보임을 확인하였다.

카데바 자료를 이용한 얼굴근육의 해부학적 기능 학습을 위한 삼차원 교육 콘텐츠 제작과 관련된 융합 연구 (Convergence Study on the Three-dimensional Educational Model of the Functional Anatomy of Facial Muscles Based on Cadaveric Data)

  • 이재기
    • 한국융합학회논문지
    • /
    • 제12권9호
    • /
    • pp.57-63
    • /
    • 2021
  • 이 연구는 한국인 성인 시신의 얼굴근육을 해부하고 삼차원 스캔하여, 사실적인 얼굴근육의 형태를 삼차원 오브젝트를 만들고, 이를 통해 표정을 재현하여 카데바 얼굴근육의 복합적인 움직임을 삼차원적으로 관찰 가능한 교육 자료를 제작하는데 목적이 있다. 카데바 해부 사진 자료를 이용하여, 얼굴근육에 대해 삼차원 모델링 하였고, 네 가지 표정(슬픔, 미소, 놀람, 분노)에 따라 얼굴근육이 변화하는 삼차원 영상을 제작하였다. 이를 통해, 삼차원으로 구현한 카데바 얼굴근육의 복합적인 작용과 다양한 표정 변화를 확인할 수 있었다. 이 연구결과는 얼굴근육의 개별적인 기능에 대한 정량적인 자료를 확인할 수는 없지만, 사실적이고 입체적인 카데바의 얼굴근육 형태를 관찰할 수 있고, 복합적인 얼굴근육의 작용으로 인한 표정 변화를 확인할 수 있다. 이러한 자료는 얼굴근육의 해부학적 교육 자료로 활용할 수 있을 것으로 기대한다.

Convolutional Neural Network Model Using Data Augmentation for Emotion AI-based Recommendation Systems

  • Ho-yeon Park;Kyoung-jae Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.57-66
    • /
    • 2023
  • 본 연구에서는 딥러닝 기법과 정서적 AI를 적용하여 사용자의 감정 상태를 추정하고 이를 추천 과정에 반영할 수 있는 추천 시스템에 대한 새로운 연구 프레임워크를 제안한다. 이를 위해 분노, 혐오, 공포, 행복, 슬픔, 놀람, 중립의 7가지 감정을 각각 분류하는 감정분류모델을 구축하고, 이 결과를 추천 과정에 반영할 수 있는 모형을 제안한다. 그러나 일반적인 감정 분류 데이터에서는 각 레이블 간 분포 비율의 차이가 크기 때문에 일반화된 분류 결과를 기대하기 어려울 수 있다. 본 연구에서는 감정 이미지 데이터에서 혐오감 등의 감정 개수가 부족한 경우가 많으므로 데이터 증강을 이용한다. 마지막으로, 이미지 증강을 통해 데이터 기반의 감정 예측 모델을 추천시스템에 반영하는 방법을 제안한다.

인간과 감정적 상호작용을 위한 '감정 엔진' (Engine of computational Emotion model for emotional interaction with human)

  • 이연곤
    • 감성과학
    • /
    • 제15권4호
    • /
    • pp.503-516
    • /
    • 2012
  • 지금까지 로봇 및 소프트웨어 에이전트들을 살펴보면, 감정 모델이 내부에 종속적으로 존재하기 때문에 감정모델만을 별도로 분리해 새로운 시스템에 재활용하기란 쉽지 않다. 따라서 어떤 로봇 및 에이전트와 연동될 수 있는 Engine of computational Emotion model (이하 EE로 표시한다)을 소개한다. 이 EE는 어떤 입력 정보에도 치중되지 않고, 어떤 로봇 및 에이전트의 내부와도 연동되도록 독립적으로 감정을 담당하기 위해, 입력 단계인 인식과 출력 단계인 표현을 배제하고, 순수하게 감정의 생성 및 처리를 담당하는 중간 단계인 감정 발생만을 분리하여, '입력단 및 출력단과 독립적인 소프트웨어 형태, 즉 엔진(Engine)'으로 존재한다. 이 EE는 어떤 입력단 및 출력단과 상호작용이 가능하며, 자체 감정뿐 아니라 상대방의 감정을 사용하며, 성격을 활용하여 종합적인 감정을 산출해낸다. 또한 이 EE는 로봇 및 에이전트의 내부에 라이브러리 형태로 존재하거나, 별도의 시스템으로 존재하여 통신할 수 있는 구조로 활용될 수 있다. 감정은 Joy(기쁨), Surprise(놀람), Disgust(혐오), Fear(공포), Sadness(슬픔), Anger(분노)의 기본 감정을 사용하며, 문자열과 계수를 쌍으로 갖는 정보를 EE는 입력 인터페이스를 통해 입력 신호로 받고, 출력 인터페이스를 통해 출력 신호로 내보낸다. EE는 내부에 감정마다 감정경험의 연결 목록을 가지고 있으며, 이의 계수의 쌍으로 구성된 정보를 감정의 생성 및 처리하기 위한 감정상태 목록으로 사용한다. 이 감정경험 목록은 '인간이 실생활에서 경험하는 다양한 감정에 대한 이해를 도모'하는 감정표현어휘로 구성되어 있다. EE는 인간의 감정을 탐색하여 적절한 반응을 나타내주는 상호작용 제품에 이용 가능할 것이다. 본 연구는 제품이 '인간을 공감하고 있음'을 인간이 느낄 수 있도록 유도하는 시스템을 만들고자 함이므로, HRI(인간-로봇 상호작용)나 HCI(인간-컴퓨터 상호작용)와 관련 제품이 효율적인 감정적 공감 서비스를 제공하는데 도움이 될 수 있을 것으로 기대한다.

  • PDF