• 제목/요약/키워드: 감정 변화

검색결과 629건 처리시간 0.031초

개체의 감정기반 행동제어를 통한 동적 군중 시뮬레이션 (Dynamic Crowd Simulation by Emotion-based Behavioral Control of Individuals)

  • 안은영;김재원;한상훈;문찬일
    • 한국콘텐츠학회논문지
    • /
    • 제9권11호
    • /
    • pp.1-9
    • /
    • 2009
  • 본 논문은 게임 또는 애니메이션과 같이 가상 환경 속에서의 군중 행동을 구현함에 있어 군중 전체의 움직임을 제어하기보다는 군중을 구성하고 있는 각 개체들의 감정요소를 개별적으로 제어하는 방식을 사용함으로써 군중의 형태 및 행동 양식에 사실감과 다양성을 부여하는 새로운 방안을 제시한다. 인간의 행동을 모사하기 위해 군중을 구성하고 있는 개체들이 각자의 감정과 기질에 따라 이동경로를 결정하도록 행동패턴을 설계한다. 제안된 방법은 군집을 구성하는 개체들이 제각기 주어진 기질과 환경에 따라 변화하는 감정을 기반으로 이동 경로뿐 아니라 군집간의 이동을 자유롭게 결정하기 때문에 다양한 군집이동을 표현할 수 있다. 이를 위해, 감정과 기질을 정의하고 행동제어 규칙을 정의한다. 또한 인간의 감정과 같은 모호한 정보를 처리하기 위하여 퍼지이론을 적용함으로써 기질과 감정에 대한 모호한 언어적 표현을 자연스럽게 정의하도록 한다. 실험을 통해 제안된 방법으로 자연스럽고 다양한 형태의 군중 시뮬레이션이 가능함을 보인다.

온라인 뉴스에 대한 한국 대중의 감정 예측 (Inference of Korean Public Sentiment from Online News)

  • ;최순영;임희석
    • 한국융합학회논문지
    • /
    • 제9권7호
    • /
    • pp.25-31
    • /
    • 2018
  • 온라인 뉴스는 기존의 신문을 대체하였고, 우리가 정보에 접근하고 공유하는 방법에 큰 변화를 가져왔다. 뉴스 웹사이트들은 사용자가 댓글을 남길 수 있는 기능을 오랜 시간동안 제공하였고, 그 중 몇몇 뉴스 웹사이트에서는 뉴스 기사들에 대한 사용자의 반응들을 크라우드소싱(crowdsource)하기 시작했다. 감정분석 분야에서는 텍스트에 반영된 감정과 반응들을 컴퓨팅적으로 모델링하기 위한 시도를 하고 있다. 본 연구에서는 뉴스 기사에 대한 반응들이 뉴스 본문과 수학적인 상관관계를 갖는지 밝히기 위해, 사용자로부터 생성된 다섯 가지의 감정 라벨(label)을 사용하여 10가지 카테고리(category)에 해당하는 100,000개 이상의 뉴스 기사들을 분석한다. 본 연구에서는 전처리과정이 최소한으로 필요하고 기계학습이 적용하지 않아도 되는 간단한 감정 분석 알고리즘(algorithm)을 제안한다. 우리는 이 모델이 한국어와 같은 형태론적으로 복잡한 언어에도 효과적이라는 것을 증명한다.

영화 시나리오와 영화촬영기법을 이용한 감정 예측 시스템 (Emotion Prediction System using Movie Script and Cinematography)

  • 김진수
    • 한국융합학회논문지
    • /
    • 제9권12호
    • /
    • pp.33-38
    • /
    • 2018
  • 최근에 다양한 정보로부터 감정을 예측하여 청중에게 감독이 알리고자 하는 정보를 빠르게 전달하고자 한다. 또한, 청중은 감독의 의도를 대화 내용에 나타나는 대사뿐만 아니라, 영상내의 다양한 정보인 촬영 기법, 장면의 배경, 배경 음악 등을 통해 비대사 구간에서도 감정의 흐름을 이해하려고 한다. 본 논문에서는 대사와 같은 문맥의 상황뿐만 아니라, 촬영 영상에 담아낸 색상, 음향, 구도, 배치 등에 의해 표현된 정보를 혼합하여 감정을 추출하고자 한다. 즉, 다양한 감정 표현 기법을 대사 구간, 비대사 구간으로 나누어 학습하고 판별하여 영상의 완성도에 기여하고 새로운 변화에 빠르게 적용할 수 있는 감정 예측 시스템을 제안한다. 본 논문에서 제안한 감정 예측시스템이 변형된 n-gram 방식과 형태소 분석을 적용한 사례와 비교했을 때, 정확도는 약 5.1%, 0.4% 향상되었고, 재현율은 약 4.3%, 1.6% 향상되었다.

1/f 수준 별 음악 자극이 감정 노동 종사자의 심장 반응에 미치는 효과 (Heart Response Effect by 1/f Fluctuation Sounds for Emotional Labor on Employee)

  • 전병무;황민철
    • 감성과학
    • /
    • 제18권3호
    • /
    • pp.63-70
    • /
    • 2015
  • 본 연구는 1/f fluctuation의 ${\alpha}$기울기 따라 구성된 사운드를 들었을 때 감정 스트레스 업무에 종사하고 있는 피험자들의 심박 변화를 확인하고자 하였다. 기존의 연구에서는 주로 사용자의 심리상태 안정시키는 효과 또는 생리적 안정성에 1/f fluctuation의 ${\alpha}$기울기가 관계가 있는 것으로 보고되었다. 본 연구에서는 1/f fluctuation 수준을 총 3가지 나누어 제작한 사운드를 독립변수로 사용하였다. 독립변수는 감정노동 종사자에게 제시하여 그에 따른 심장반응을 측정하였다. 종속변수는 네 가지로 BPM(Beat Per Minute), VLF(Very Low Frequency), SDNN(Standard Deviation of NN intervals), 그리고 HF(High Frequency) 파워(Power)값을 확인하였다. 분석결과 기울기가 3인 1/fluctuation 사운드는 각성효과를 보였다. 기울기 1, 2인 사운드는 이완효과가 있는 것을 통계적으로 검증하였다. 이러한 1/f fluctuation 사운드의 특성을 활용해 감정 노동자들의 스트레스를 완화시키기 위한 서비스에 응용될 수 있을 것으로 사료된다.

인공지능 감정분석 기술을 이용한 관객 참여형 공연에서의 실감형 콘텐츠 생성 방식에 관한 연구 (A Study on the Method of Creating Realistic Content in Audience-participating Performances using Artificial Intelligence Sentiment Analysis Technology)

  • 김지희;오진희;김명진;임양규
    • 방송공학회논문지
    • /
    • 제26권5호
    • /
    • pp.533-542
    • /
    • 2021
  • 본 연구에서는 한국 전통예술 중 하나인 진도 북춤을 다양한 인공지능 기술을 이용하여 디지털 아트로 재창조하는 과정을 제안하였다. 인공지능 언어 분석 기술을 통해 정량화된 관객들의 감정 데이터는 프로젝션 맵핑 공연에서 다양한 오브젝트 형태로 개입하여 큰 스토리에 변화를 주지 않는 선에서 영향을 준다. 대부분의 인터렉티브 아트들이 공연자와 영상 간의 소통을 표현한 것이라면, 본 공연은 인공지능 감정분석 기술을 중심으로 관객이 작품과 직접 소통할 수 있는 새로운 형태의 반응형 공연이 된다. 이는 한국 전통예술에서만 흔히 나타나는 관객이 공연에 직간접적으로 개입하여 영향을 끼치는 퍼포먼스인 '추임새'에서 시작된다. 공연자의 '프롤로그'에 담긴 감정 정보를 기반으로 관객의 감정 정보와 결합하여, 공연에 쓰이는 이미지와 파티클의 형태로 변환함으로서 공연에 관객이 간접적으로 참여하고 변화를 줄 수 있는 형태가 된다.

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.

내적상태 차원모형에 근거한 얼굴표정 합성 시스템 (A system for facial expression synthesis based on a dimensional model of internal states)

  • 한재현;정찬섭
    • 인지과학
    • /
    • 제13권3호
    • /
    • pp.11-21
    • /
    • 2002
  • 쾌-불쾌, 각성-수면의 2차원 감정상태 공간에서 임의의 좌표값을 지정하면 Parke와 Waters[1]의 근육 기반 얼굴모형에 근거하여 그것에 해당하는 표정을 자동 합성할 수 있는 시스템을 개발하였다. 얼굴 변형의 준거 설정을 위하여 정찬섭, 오경자, 이일병과 변혜란[2]의 표정 DB에 수록된 표정 자료 및 내적감정상태 모형을 사용하였다. DB 내 표정 자료들은 감정 모형에 근거하여 차원값 및 범주로 기술된 내적상태 정보를 포함하고 있었다. 내적상태 변화에 따른 표정의 변형 규칙을 찾기 위해 표집된 표정들에 대해 21개 얼굴 근육의 변화량을 측정하였다. 내적감정상태와 얼굴 근육들의 관계 구조를 파악하기 위해 수집된 자료들을 대상으로 회귀분석을 실시하였다. 이러한 과정을 거쳐 얻어진 변형 규칙은 꽤-불쾌 및 각성-수면 차원값으로 주어지는 내적상태에 대한 자연스러운 표정을 합성해내었다. 이같은 결과는 방대한 양의 자료 및 개별 근육의 변화를 포착하는 회귀분석으로부터 도출된 규칙이 얼굴표정을 합성하는데 유용하고 강력한 도구가 될 수 있음을 시사한다.

  • PDF

인간의 감정변화 상태 인지를 위한 정전용량형 피부 입모근 수축 감지센서 (Capacitive Skin Piloerection Sensors for Human Emotional State Cognition)

  • 김재민;서대건;조영호
    • 대한기계학회논문집B
    • /
    • 제39권2호
    • /
    • pp.147-152
    • /
    • 2015
  • 본 논문은 감동, 두려움 등 인간의 급격한 감정이나 온도 변화에 따른 피부 입모근 수축 (소름)현상 감지를 위한 정전용량형 전도성 폴리머 센서를 제안하였다. 전도성 폴리머를 이용한 소자 제작을 통해 소자의 착용감을 향상시켰으며, 기존 정성적 소름측정 방식에 비해 정확하고 객관적인 측정을 가능케 하였다. 인공적인 소름돌기를 이용한 실험결과, $0{\sim}326{\mu}m$ 의 정적인 소름의 높이를 $-0.00252%/{\mu}m$의 민감도, 25.9 %의 비선형도로 측정하였다. 또한, 실제 인간의 피부에 부착하여 갑작스런 체온변화의 조건에서 -6.2 fF 과 -9.2 fF 의 정전용량 변화를 측정함으로써 높이 $145{\mu}m$$194{\mu}m$ 의 피부 소름을 측정하였다. 제안된 소자는 피부 입모근 수축현상에 따른 인간의 소름을 객관적이고, 정량적으로 측정함으로써 인간이 느끼는 급격한 감정변화나 환경변화 정도를 수치화 할 수 있는 방법을 제시하였다.

감성캐릭터의 감정표현 기술의 사례분석 (A Case Study of Emotion Expression Technologies for Emotional Characters)

  • 안성혜;백선욱;성민영;이준하
    • 한국콘텐츠학회논문지
    • /
    • 제9권9호
    • /
    • pp.125-133
    • /
    • 2009
  • 오늘날 디지털 기반 커뮤니케이션 환경 속의 사용자들은 상호작용이 가능한 커뮤니케이션을 원하게 되면서, 사용자 중심의 감정표현 도구를 개발할 필요성이 대두되고 있다. 본 연구는 실시간으로 변화하는 개인화된 감정표현이 가능한 감성캐릭터를 개발하기 위한 목적을 가진 기초연구이다. 이를 위해 현재 얼굴표정을 중심으로 감정을 표현하는 기술이 어떻게 구현되고 있는지 국내외 연구동향 및 감성캐릭터를 사용한 다양한 서비스 사례분석을 통해 향후 감성캐릭터의 개발 방향을 제시해보고자 한다.

강화학습과 감정모델 기반의 지능적인 가상 캐릭터의 구현 (Implementation of Intelligent Virtual Character Based on Reinforcement Learning and Emotion Model)

  • 우종하;박정은;오경환
    • 한국지능시스템학회논문지
    • /
    • 제16권3호
    • /
    • pp.259-265
    • /
    • 2006
  • 학습과 감정은 지능형 시스템을 구현하는데 있어 가장 중요한 요소이다. 본 논문에서는 강화학습을 이용하여 사용자와 상호작용을 하면서 학습을 수행하고 내부적인 감정모델을 가지고 있는 지능적인 가상 캐릭터를 구현하였다. 가상 캐릭터는 여러 가지 사물들로 이루어진 3D의 가상 환경 내에서 내부상태에 의해 자율적으로 동작하며, 또한 사용자는 가상 캐릭터에게 반복적인 명령을 통해 원하는 행동을 학습시킬 수 있다. 이러한 명령은 인공신경망을 사용하여 마우스의 제스처를 인식하여 수행할 수 있고 감정의 표현을 위해 Emotion-Mood-Personality 모델을 새로 제안하였다. 그리고 실험을 통해 사용자와 상호작용을 통한 감정의 변화를 살펴보았고 가상 캐릭터의 훈련에 따른 학습이 올바르게 수행되는 것을 확인하였다.