• 제목/요약/키워드: 감정(感情)

검색결과 4,458건 처리시간 0.029초

인공 감정 모델의 설계 (Design of an Artificial Emotion Model)

  • 이인근;서석태;정혜천;권순학
    • 한국지능시스템학회논문지
    • /
    • 제17권5호
    • /
    • pp.648-653
    • /
    • 2007
  • 인간의 감정을 모방하여 다양한 외부 자극에 대해 인위적으로 감정을 생성하는 인공 감정에 관한 연구가 최근에 시작되어 이루어지고 있다. 그러나 기존의 인공 감정 연구에서는 외부 감정 자극에 대한 감정 상태를 선형적, 지수적으로 변화시킴으로써 감정 상태가 급격하게 변하는 단점을 갖고 있다. 본 논문에서는 외부 감정 자극의 강도와 빈도뿐만 아니라 자극의 반복 주기를 감정 상태에 반영하고, 시간에 따른 감정의 변화를 시그모이드 곡선 형태로 표현하는 인공 감정 생성 모델을 제안한다. 그리고 기존의 감정 자극에 대한 회상을 통해 외부 감정 자극이 없는 상황에서도 감정을 생성할 수 있는 인공감정 시스템을 제안하고 컴퓨터 모의실험 결과를 통해 그 효용성을 보인다.

기억회상과 지식추론에 따른 감정 상태 변화의 추이 (The Changing Trace of Emotional state by Memory retrieval and Knowledge Reasoning process)

  • 심정연
    • 전자공학회논문지
    • /
    • 제50권4호
    • /
    • pp.83-88
    • /
    • 2013
  • 최근 들어 뇌과학적인 연구가 활발해짐에 따라 두뇌기능을 공학적으로 응용하려는 연구가 많아지고 있다. 두뇌 기능 중 기억과 감정을 담당하는 부분을 살펴보면 기억을 담당하는 해마체와 감정중추인 편도체가 긴밀히 협조하고 있는 것을 알 수 있다. 실제적으로 지식은 감정에 영향을 미치고 감정은 지식에 영향을 미친다. 인간의 모든 판단과 결정에 있어서 감정요소는 배제할 수 없는 아주 중요한 영향을 미친다. 보다 정교한 지능 시스템을 구축하려면 감정이 결합된 지식베이스를 설계하여야 한다. 따라서 본 논문에서는 해마체와 편도체의 공조 시스템에 착안하여 지식과 감정이 결합된 지식감정 결합 시스템을 설계하고 기억회상과 추론 과정에서 변화하는 감정 상태의 추이를 감지하는 메커니즘을 제안하고자 한다.

강인한 음성 인식 시스템을 사용한 감정 인식 (Emotion Recognition using Robust Speech Recognition System)

  • 김원구
    • 한국지능시스템학회논문지
    • /
    • 제18권5호
    • /
    • pp.586-591
    • /
    • 2008
  • 본 논문은 음성을 사용한 인간의 감정 인식 시스템의 성능을 향상시키기 위하여 감정 변화에 강인한 음성 인식 시스템과 결합된 감정 인식 시스템에 관하여 연구하였다. 이를 위하여 우선 다양한 감정이 포함된 음성 데이터베이스를 사용하여 감정 변화가 음성 인식 시스템의 성능에 미치는 영향에 관한 연구와 감정 변화의 영향을 적게 받는 음성 인식 시스템을 구현하였다. 감정 인식은 음성 인식의 결과에 따라 입력 문장에 대한 각각의 감정 모델을 비교하여 입력 음성에 대한 최종감정 인식을 수행한다. 실험 결과에서 강인한 음성 인식 시스템은 음성 파라메터로 RASTA 멜 켑스트럼과 델타 켑스트럼을 사용하고 신호편의 제거 방법으로 CMS를 사용한 HMM 기반의 화자독립 단어 인식기를 사용하였다. 이러한 음성 인식기와 결합된 감정 인식을 수행한 결과 감정 인식기만을 사용한 경우보다 좋은 성능을 나타내었다.

얼굴표정과 음성을 이용한 감정인식 (An Emotion Recognition Method using Facial Expression and Speech Signal)

  • 고현주;이대종;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.799-807
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정과 음성 속에 담긴 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 혐오, 공포)에 대한 특징을 추출하고 인식하고자 한다. 이를 위해 얼굴표정을 이용한 감정인식에서는 이산 웨이블렛 기반 다해상도 분석을 이용하여 선형판별분석기법으로 특징을 추출하고 최소 거리 분류 방법을 이용하여 감정을 인식한다. 음성에서의 감정인식은 웨이블렛 필터뱅크를 이용하여 독립적인 감정을 확인한 후 다중의사 결정 기법에 외해 감정인식을 한다. 최종적으로 얼굴 표정에서의 감정인식과 음성에서의 감정인식을 융합하는 단계로 퍼지 소속함수를 이용하며, 각 감정에 대하여 소속도로 표현된 매칭 감은 얼굴에서의 감정과 음성에서의 감정별로 더하고 그중 가장 큰 값을 인식 대상의 감정으로 선정한다.

Predicate Logic Form을 이용한 자연어 텍스트로부터의 감정인식 (Emotion Recognition from Natural Language Text Using Predicate Logic Form)

  • 설용수;김동주;김한우;박정기
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2010년도 제42차 하계학술발표논문집 18권2호
    • /
    • pp.411-412
    • /
    • 2010
  • 전통적으로 자연어 텍스트로부터의 감정인식 연구는 감정 키워드에 기반한다. 그러나 감정 키워드만을 이용하면 자연어 문장이 원래 갖고 있는 통사정보나 의미정보는 잃어버리게 된다. 이를 극복하기 위해 본 논문에서는 자연어 텍스트를 Predicate Logic 형태로 변환하여 감정 정보처리의 기반데이터로 사용한다. Predicate Logic형태로 변환하기 위해서 의존 문법 구문분석기를 사용하였다. 이렇게 생성된 Predicate 데이터 중 감정 정보를 갖고 있는 Predicate만을 찾아내는데 이를 위해 Emotional Predicate Dictionary를 구축하였고 이 사전에는 하나의 Predicate마다 미리 정의된 개념 클래스로 사상 시킬 수 있는 정보를 갖고 있다. 개념 클래스는 감정정보를 갖고 있는지, 어떤 감정인지, 어떤 상황에서 발생하는 감정인지에 대한 정보를 나타낸다. 자연어 텍스트가 Predicate으로 변환되고 다시 개념 클래스로 사상되고 나면 KBANN으로 구현된 Lazarus의 감정 생성 규칙에 적용시켜 최종적으로 인식된 감정을 판단한다. 실험을 통해 구현된 시스템이 인간이 인식한 감정과 약 70%이상 유사한 인식 결과를 나타냄을 보인다.

  • PDF

응급실 간호사의 감정노동과 감성리더십, 소진의 관계 -직원중심 감정노동과 직무중심 감정노동 비교- (Relationship among Emotional Labor, Emotional Leadership and Burnout in Emergency Room Nurses - Comparison of employee-focused emotional labor and job-focused emotional labor -)

  • 어용숙;김묘성
    • 한국산학기술학회논문지
    • /
    • 제18권9호
    • /
    • pp.136-145
    • /
    • 2017
  • 본 연구는 응급실 간호사가 경험하는 감정노동을 직원중심 감정노동과 직무중심 감정노동으로 구분하여 감성리더십과 소진의 관계를 파악하기 위해 시도된 서술적 조사연구이다. 연구대상은 종합병원에서 근무하며 연구참여에 동의한 총 168명의 응급실 간호사이다. 자료는 직원중심 감정노동, 직무중심 감정노동, 감성리더십 및 소진을 구조화된 설문지를 이용하여 조사하였으며 수집된 자료는 실수와 백분율, 평균과 표준편차, t-test, ANOVA, 및 Pearson 상관계수로 분석하였다. 연구결과에서 응급실 간호사의 직원중심 감정노동은 표면행위 평균 3.51점, 진심행위 3.26점이었고, 직무중심 감정노동은 감정표현 빈도 평균 3.73점, 감정표현 지속시간 3.36점, 감정표현 다양성 3.46점이었다. 감성리더십 평균은 3.57점이었고, 소진 중 정서적 소모의 평균은 4.59점, 비인격화 4.13점, 개인성취감 감소 3.60점이었다. 직무중심 감정노동 점수가 직원중심 감정노동 점수보다 높았으며, 직원중심 감정노동 중 표면행위를, 직무중심 감정노동에서는 감정표현 빈도를 가장 많이 수행하였다. 직원중심 감정노동과 소진과의 관계에서 표면행위는 정서적 고갈(r=.27, p<.001)과 비인격화(r=.40, p<.001)에 유의한 양의 상관관계를, 진심행위는 개인 성취감 감소(r=-.36, p<.001)와 음의 상관관계가 있었다. 직무중심 감정노동 중 감정표현 빈도(r=.21, p=.005), 지속시간(r=.16, p=.037), 다양성(r=.15, p=.046) 모두 정서적 고갈과 양의 상관관계가 있었으며, 감정표현 지속시간은 비인격화(r=.30, p<.001)와 양의 상관관계를, 감성리더십은 표면행위(r=.18, p=.020), 진심행위(r=.33, p<.001), 그리고 감정표현 지속시간(r=.23, p=.003)과 양의 상관관계를 보였다. 본 연구결과를 근거로 하여 응급실 간호사의 감정노동 및 소진을 효과적으로 관리할 수 있는 전략 개발 노력이 필요하리라 생각된다.

인간과 감정적 상호작용을 위한 '감정 엔진' (Engine of computational Emotion model for emotional interaction with human)

  • 이연곤
    • 감성과학
    • /
    • 제15권4호
    • /
    • pp.503-516
    • /
    • 2012
  • 지금까지 로봇 및 소프트웨어 에이전트들을 살펴보면, 감정 모델이 내부에 종속적으로 존재하기 때문에 감정모델만을 별도로 분리해 새로운 시스템에 재활용하기란 쉽지 않다. 따라서 어떤 로봇 및 에이전트와 연동될 수 있는 Engine of computational Emotion model (이하 EE로 표시한다)을 소개한다. 이 EE는 어떤 입력 정보에도 치중되지 않고, 어떤 로봇 및 에이전트의 내부와도 연동되도록 독립적으로 감정을 담당하기 위해, 입력 단계인 인식과 출력 단계인 표현을 배제하고, 순수하게 감정의 생성 및 처리를 담당하는 중간 단계인 감정 발생만을 분리하여, '입력단 및 출력단과 독립적인 소프트웨어 형태, 즉 엔진(Engine)'으로 존재한다. 이 EE는 어떤 입력단 및 출력단과 상호작용이 가능하며, 자체 감정뿐 아니라 상대방의 감정을 사용하며, 성격을 활용하여 종합적인 감정을 산출해낸다. 또한 이 EE는 로봇 및 에이전트의 내부에 라이브러리 형태로 존재하거나, 별도의 시스템으로 존재하여 통신할 수 있는 구조로 활용될 수 있다. 감정은 Joy(기쁨), Surprise(놀람), Disgust(혐오), Fear(공포), Sadness(슬픔), Anger(분노)의 기본 감정을 사용하며, 문자열과 계수를 쌍으로 갖는 정보를 EE는 입력 인터페이스를 통해 입력 신호로 받고, 출력 인터페이스를 통해 출력 신호로 내보낸다. EE는 내부에 감정마다 감정경험의 연결 목록을 가지고 있으며, 이의 계수의 쌍으로 구성된 정보를 감정의 생성 및 처리하기 위한 감정상태 목록으로 사용한다. 이 감정경험 목록은 '인간이 실생활에서 경험하는 다양한 감정에 대한 이해를 도모'하는 감정표현어휘로 구성되어 있다. EE는 인간의 감정을 탐색하여 적절한 반응을 나타내주는 상호작용 제품에 이용 가능할 것이다. 본 연구는 제품이 '인간을 공감하고 있음'을 인간이 느낄 수 있도록 유도하는 시스템을 만들고자 함이므로, HRI(인간-로봇 상호작용)나 HCI(인간-컴퓨터 상호작용)와 관련 제품이 효율적인 감정적 공감 서비스를 제공하는데 도움이 될 수 있을 것으로 기대한다.

  • PDF

감성적 인간 로봇 상호작용을 위한 음성감정 인식 (Speech emotion recognition for affective human robot interaction)

  • 장광동;권오욱
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

음성 신호와 얼굴 표정을 이용한 감정인식 몇 표현 기법 (An Emotion Recognition and Expression Method using Facial Image and Speech Signal)

  • 주종태;문병현;서상욱;장인훈;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.333-336
    • /
    • 2007
  • 본 논문에서는 감정인식 분야에서 가장 많이 사용되어지는 음성신호와 얼굴영상을 가지고 4개의(기쁨, 슬픔, 화남, 놀람) 감정으로 인식하고 각각 얻어진 감정인식 결과를 Multi modal 기법을 이용해서 이들의 감정을 융합한다. 이를 위해 얼굴영상을 이용한 감정인식에서는 주성분 분석(Principal Component Analysis)법을 이용해 특징벡터를 추출하고, 음성신호는 언어적 특성을 배재한 acoustic feature를 사용하였으며 이와 같이 추출된 특징들을 각각 신경망에 적용시켜 감정별로 패턴을 분류하였고, 인식된 결과는 감정표현 시스템에 작용하여 감정을 표현하였다.

  • PDF

컨텐츠의 효과적인 공급을 위한 개인화된 감성엔진 (Personalized Emotional Engine for effective contents providing)

  • 함준석;고일주
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 3부
    • /
    • pp.152-157
    • /
    • 2007
  • 개인의 감성에 잘 부합하는 컨텐츠를 제공하기 위해선 개인의 취향과 컨텐츠를 이용할 때 어떤 감정을 가지고 있는지 알아야 한다. 개인의 취향을 알고 있다면 취향에 부합하는 컨텐츠를 재분류 할 수 있고 개인이 컨텐츠를 이용하려할 때의 감정 상태를 알 수 있다면 분류된 컨텐츠 중에서 감성에 부합하는 컨텐츠를 빠르게 제공할 수 있다. 본 논문은 개인의 취향을 인식하고 감정상태를 추측하여 연동된 플랫폼에 감정상태에 따른 결과를 출력하는 감성엔진을 제안 한다. 성격이 비슷한 사람은 비슷한 취향을 가지는 성향이 있으므로 취향인식을 위해 개인의 성격을 구별했고, 구별도구로 MBTI를 이용했다. 감정 추측을 위해 주변에서 일어나는 환경의 정보를 OCC 모델을 기반으로 분석하여 감정자극의 종류와 크기를 산출했다. 감정자극들을 감정그래프를 이용해 감정의 생성, 유지, 소멸을 관리하고 감정감정 상태에 맞는 결과를 출력했다.

  • PDF