• 제목/요약/키워드: Artificial Emotion Model

검색결과 52건 처리시간 0.02초

엔트리 텍스트 모델 학습을 활용한 초등 인공지능 교육 내용 개발 (Development of Elementary School AI Education Contents using Entry Text Model Learning)

  • 김병조;김현배
    • 정보교육학회논문지
    • /
    • 제26권1호
    • /
    • pp.65-73
    • /
    • 2022
  • 본 연구에서는 엔트리 텍스트 모델 학습을 활용해서 초등학교 인공지능 교육 내용을 개발하고 이를 실제 수업에 적용한다. 초·중등 인공지능 내용 체계표를 바탕으로 실과 소프트웨어 교육과 인공지능 교육의 성취 기준을 재구성한다. 기계학습이 가능한 텍스트, 이미지, 소리 중에서 다양한 플랫폼에서 지원하고 초등학생의 데이터 준비 시간을 줄일 수 있으면서 손쉽게 이해가 가능한 '텍스트 모델 학습을 활용한 감정 인식 프로그램 제작'을 교육 내용으로 선정한다. 엔트리 인공지능을 교육 플랫폼으로 선정해서 텍스트 모델 학습을 활용한 감정인식 프로그램을 만드는 인공지능 교육 내용을 개발하고 실제 초등학교 수업에 적용한다. 수업 적용 결과 엔트리 인공지능 수업에 긍정적인 반응과 흥미를 보였다. 본 연구 내용을 기반으로 초등학생을 대상으로 한 수업의 효과성에 대한 양적 연구가 후속 연구로 필요함을 제언한다.

Convolutional Neural Network Model Using Data Augmentation for Emotion AI-based Recommendation Systems

  • Ho-yeon Park;Kyoung-jae Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.57-66
    • /
    • 2023
  • 본 연구에서는 딥러닝 기법과 정서적 AI를 적용하여 사용자의 감정 상태를 추정하고 이를 추천 과정에 반영할 수 있는 추천 시스템에 대한 새로운 연구 프레임워크를 제안한다. 이를 위해 분노, 혐오, 공포, 행복, 슬픔, 놀람, 중립의 7가지 감정을 각각 분류하는 감정분류모델을 구축하고, 이 결과를 추천 과정에 반영할 수 있는 모형을 제안한다. 그러나 일반적인 감정 분류 데이터에서는 각 레이블 간 분포 비율의 차이가 크기 때문에 일반화된 분류 결과를 기대하기 어려울 수 있다. 본 연구에서는 감정 이미지 데이터에서 혐오감 등의 감정 개수가 부족한 경우가 많으므로 데이터 증강을 이용한다. 마지막으로, 이미지 증강을 통해 데이터 기반의 감정 예측 모델을 추천시스템에 반영하는 방법을 제안한다.

디지털 캐릭터를 위한 감성엔진 (Emotion Engine for Digital Character)

  • 김지환;조성현;최종학;양정진
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.208-210
    • /
    • 2006
  • 최근 온라인 게임을 비롯하여 영화, 애니메이션 등 가상현실에서 캐릭터가 중심적인 역할을 하게 되었고 좀 더 능동적이고 사람에 가까운 캐릭터 개발이 필요하게 되었다. 이러한 요구 중에서 본 논문에서는 감성기반 캐릭터에 초점을 맞추었고 Emotion Al사의 Artificial Emotion Engine Model과 OCC Model를 바탕으로 각 캐릭터의 특성을 반영하고 캐릭터간의 상호 작용을 바탕으로 감성을 도출해 낼 수 있는 Emotion Engine의 Architecture를 제시한다.

  • PDF

A Study on Explainable Artificial Intelligence-based Sentimental Analysis System Model

  • Song, Mi-Hwa
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권1호
    • /
    • pp.142-151
    • /
    • 2022
  • In this paper, a model combined with explanatory artificial intelligence (xAI) models was presented to secure the reliability of machine learning-based sentiment analysis and prediction. The applicability of the proposed model was tested and described using the IMDB dataset. This approach has an advantage in that it can explain how the data affects the prediction results of the model from various perspectives. In various applications of sentiment analysis such as recommendation system, emotion analysis through facial expression recognition, and opinion analysis, it is possible to gain trust from users of the system by presenting more specific and evidence-based analysis results to users.

인간과 감정적 상호작용을 위한 '감정 엔진' (Engine of computational Emotion model for emotional interaction with human)

  • 이연곤
    • 감성과학
    • /
    • 제15권4호
    • /
    • pp.503-516
    • /
    • 2012
  • 지금까지 로봇 및 소프트웨어 에이전트들을 살펴보면, 감정 모델이 내부에 종속적으로 존재하기 때문에 감정모델만을 별도로 분리해 새로운 시스템에 재활용하기란 쉽지 않다. 따라서 어떤 로봇 및 에이전트와 연동될 수 있는 Engine of computational Emotion model (이하 EE로 표시한다)을 소개한다. 이 EE는 어떤 입력 정보에도 치중되지 않고, 어떤 로봇 및 에이전트의 내부와도 연동되도록 독립적으로 감정을 담당하기 위해, 입력 단계인 인식과 출력 단계인 표현을 배제하고, 순수하게 감정의 생성 및 처리를 담당하는 중간 단계인 감정 발생만을 분리하여, '입력단 및 출력단과 독립적인 소프트웨어 형태, 즉 엔진(Engine)'으로 존재한다. 이 EE는 어떤 입력단 및 출력단과 상호작용이 가능하며, 자체 감정뿐 아니라 상대방의 감정을 사용하며, 성격을 활용하여 종합적인 감정을 산출해낸다. 또한 이 EE는 로봇 및 에이전트의 내부에 라이브러리 형태로 존재하거나, 별도의 시스템으로 존재하여 통신할 수 있는 구조로 활용될 수 있다. 감정은 Joy(기쁨), Surprise(놀람), Disgust(혐오), Fear(공포), Sadness(슬픔), Anger(분노)의 기본 감정을 사용하며, 문자열과 계수를 쌍으로 갖는 정보를 EE는 입력 인터페이스를 통해 입력 신호로 받고, 출력 인터페이스를 통해 출력 신호로 내보낸다. EE는 내부에 감정마다 감정경험의 연결 목록을 가지고 있으며, 이의 계수의 쌍으로 구성된 정보를 감정의 생성 및 처리하기 위한 감정상태 목록으로 사용한다. 이 감정경험 목록은 '인간이 실생활에서 경험하는 다양한 감정에 대한 이해를 도모'하는 감정표현어휘로 구성되어 있다. EE는 인간의 감정을 탐색하여 적절한 반응을 나타내주는 상호작용 제품에 이용 가능할 것이다. 본 연구는 제품이 '인간을 공감하고 있음'을 인간이 느낄 수 있도록 유도하는 시스템을 만들고자 함이므로, HRI(인간-로봇 상호작용)나 HCI(인간-컴퓨터 상호작용)와 관련 제품이 효율적인 감정적 공감 서비스를 제공하는데 도움이 될 수 있을 것으로 기대한다.

  • PDF

감정 인식을 위해 CNN을 사용한 최적화된 패치 특징 추출 (Optimized patch feature extraction using CNN for emotion recognition)

  • 하이더 이르판;김애라;이귀상;김수형
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.510-512
    • /
    • 2023
  • In order to enhance a model's capability for detecting facial expressions, this research suggests a pipeline that makes use of the GradCAM component. The patching module and the pseudo-labeling module make up the pipeline. The patching component takes the original face image and divides it into four equal parts. These parts are then each input into a 2Dconvolutional layer to produce a feature vector. Each picture segment is assigned a weight token using GradCAM in the pseudo-labeling module, and this token is then merged with the feature vector using principal component analysis. A convolutional neural network based on transfer learning technique is then utilized to extract the deep features. This technique applied on a public dataset MMI and achieved a validation accuracy of 96.06% which is showing the effectiveness of our method.

적은 양의 음성 및 텍스트 데이터를 활용한 멀티 모달 기반의 효율적인 감정 분류 기법 (Efficient Emotion Classification Method Based on Multimodal Approach Using Limited Speech and Text Data)

  • 신미르;신유현
    • 정보처리학회 논문지
    • /
    • 제13권4호
    • /
    • pp.174-180
    • /
    • 2024
  • 본 논문에서는 wav2vec 2.0과 KcELECTRA 모델을 활용하여 멀티모달 학습을 통한 감정 분류 방법을 탐색한다. 음성 데이터와 텍스트 데이터를 함께 활용하는 멀티모달 학습이 음성만을 활용하는 방법에 비해 감정 분류 성능을 유의미하게 향상시킬 수 있음이 알려져 있다. 본 연구는 자연어 처리 분야에서 우수한 성능을 보인 BERT 및 BERT 파생 모델들을 비교 분석하여 텍스트 데이터의 효과적인 특징 추출을 위한 최적의 모델을 선정하여 텍스트 처리 모델로 활용한다. 그 결과 KcELECTRA 모델이 감정 분류 작업에서 뛰어난 성능이 보임을 확인하였다. 또한, AI-Hub에 공개되어 있는 데이터 세트를 활용한 실험을 통해 텍스트 데이터를 함께 활용하면 음성 데이터만 사용할 때보다 더 적은 양의 데이터로도 더 우수한 성능을 달성할 수 있음을 발견하였다. 실험을 통해 KcELECTRA 모델을 활용한 경우가 정확도 96.57%로 가장 우수한 성능을 보였다. 이는 멀티모달 학습이 감정 분류와 같은 복잡한 자연어 처리 작업에서 의미 있는 성능 개선을 제공할 수 있음을 보여준다.

표정 피드백을 이용한 딥강화학습 기반 협력로봇 개발 (Deep Reinforcement Learning-Based Cooperative Robot Using Facial Feedback)

  • 전해인;강정훈;강보영
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.264-272
    • /
    • 2022
  • Human-robot cooperative tasks are increasingly required in our daily life with the development of robotics and artificial intelligence technology. Interactive reinforcement learning strategies suggest that robots learn task by receiving feedback from an experienced human trainer during a training process. However, most of the previous studies on Interactive reinforcement learning have required an extra feedback input device such as a mouse or keyboard in addition to robot itself, and the scenario where a robot can interactively learn a task with human have been also limited to virtual environment. To solve these limitations, this paper studies training strategies of robot that learn table balancing tasks interactively using deep reinforcement learning with human's facial expression feedback. In the proposed system, the robot learns a cooperative table balancing task using Deep Q-Network (DQN), which is a deep reinforcement learning technique, with human facial emotion expression feedback. As a result of the experiment, the proposed system achieved a high optimal policy convergence rate of up to 83.3% in training and successful assumption rate of up to 91.6% in testing, showing improved performance compared to the model without human facial expression feedback.

감정요소가 적용된 게임 캐릭터의 표현을 위한 인공감정 모델 (An Artificial Emotion Model for Expression of Game Character)

  • 김기일;윤진홍;박병선;김미진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 2부
    • /
    • pp.411-416
    • /
    • 2008
  • 게임의 발달은 시각적으로 현실에 가까운 게임캐릭터의 탄생을 가져왔고 현재는 아바타나 이모티 콘 등으로 게임 캐릭터에 감정을 불어넣는 움직임이 활발히 진행되고는 있으나 이는 유동적으로 변화하는 게임 속 환경에 능동적으로 대처하는 감정표현이 아닌 1차적인 입력에 의해 결과 값만을 표현하는 것으로서, 아직 깊이 있는 게임캐릭터의 감정표현은 이루어지고 있지 않다. 이에 본 논문은 유동적으로 변화하는 게임 속 환경에 능동적으로 행동과 감정을 표현하는 게임캐릭터를 제작하기 위해 게임 캐릭터에게 적용할 수 있는 감정 요소를 대표적인 인지심리모델인 OCC모델을 바탕으로 분류하고 이를 상용화 된 RPG게임의 게임 상황 분석을 온톨로지를 통하여 체계화시켜 게임캐릭터를 위한 인공감정모델 'CROSS(Character Reaction on Specific Situation) Model AE Engine'을 제안하고자 한다.

  • PDF

Development of a driver's emotion detection model using auto-encoder on driving behavior and psychological data

  • Eun-Seo, Jung;Seo-Hee, Kim;Yun-Jung, Hong;In-Beom, Yang;Jiyoung, Woo
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권3호
    • /
    • pp.35-43
    • /
    • 2023
  • 운전 중 감정 인식은 사고를 예방하기 위해 꼭 필요한 과제이다. 더 나아가 자율 주행 시대에서 자동차는 모빌리티의 주체로 운전자와의 감정적인 소통이 더욱 요구되고 있으며 감정 인식 시장은 점점 확산되고 있다. 이에 따라 본 연구 방안에서는 수집하기 비교적 용이한 데이터인 심리데이터와 행동 데이터를 이용해 운전자의 감정을 분류하는 인공지능 모델을 개발하고자 한다. 오토인코더 모델을 통해 잠재 변수를 추출하고, 이를 본 분류 모델의 변수로 사용하였으며, 이는 성능 향상에 영향을 미침을 확인하였다. 또한 기존 뇌파 데이터를 포함했을 때 보다 본 논문이 제시하는 프레임워크를 사용하였을 때 성능이 향상됨도 확인하였다. 최종적으로 심리 및 개인정보데이터, 행동 데이터만을 통해 운전자의 감정 분류 정확도 81%와 F1-Score 80%를 달성하였다.