• 제목/요약/키워드: 얼굴표정

검색결과 518건 처리시간 0.027초

7포커 인공지능 시뮬레이터 구현 (Development of Artificial Intelligence Simulator of Seven Ordinary Poker Game)

  • 허종문;원재연;조재희;노영주
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.277-283
    • /
    • 2018
  • 일부의 혁신적인 사람들은 스스로 생각하는 컴퓨터에 대한 환상을 꿈꾸며, 그 능력을 부여하는 방법을 꾸준히 연구하여왔다. 그런데 알파고의 등장 이후 그 환상이 마냥 허황된 생각만은 아님을 간접적으로 느낄 수 있었고, 이제는 컴퓨터를 전공하는 대부분의 학생들은 그 방법을 공부할 만큼 일반화 되어가고 있다. 딥 러닝에 대한 사람들의 관심이 커지면서 그로 인해 머신러닝에 대한 발전 가능성 또한 많은 사람들이 기대하고 있다. 이번 연구에서는 포커게임을 매개로 하여 머신러닝 기술을 적용하여 시스템의 게임능력을 개선해 보려 하였고, 또한 얼굴 표정에 따른 감정의 변화 분석을 활용하여 게임의 완성도 또한 높여 보았다.

MobileNet과 TensorFlow.js를 활용한 전이 학습 기반 실시간 얼굴 표정 인식 모델 개발 (Development of a Ream-time Facial Expression Recognition Model using Transfer Learning with MobileNet and TensorFlow.js)

  • 차주호
    • 디지털산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.245-251
    • /
    • 2023
  • Facial expression recognition plays a significant role in understanding human emotional states. With the advancement of AI and computer vision technologies, extensive research has been conducted in various fields, including improving customer service, medical diagnosis, and assessing learners' understanding in education. In this study, we develop a model that can infer emotions in real-time from a webcam using transfer learning with TensorFlow.js and MobileNet. While existing studies focus on achieving high accuracy using deep learning models, these models often require substantial resources due to their complex structure and computational demands. Consequently, there is a growing interest in developing lightweight deep learning models and transfer learning methods for restricted environments such as web browsers and edge devices. By employing MobileNet as the base model and performing transfer learning, our study develops a deep learning transfer model utilizing JavaScript-based TensorFlow.js, which can predict emotions in real-time using facial input from a webcam. This transfer model provides a foundation for implementing facial expression recognition in resource-constrained environments such as web and mobile applications, enabling its application in various industries.

USN 컴퓨팅에서 효율적인 감성 추론 연구 (An Efficient Study of Emotion Inference in USN Computing)

  • 양동일;김영규;정연만
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권1호
    • /
    • pp.127-134
    • /
    • 2009
  • 최근 선진국 뿐 아니라 우리나라에서는 유비쿼터스 컴퓨팅 모델에 대해 많은 연구를 하고 있다. 유비쿼터스 컴퓨팅이란 언제 어디서나 사용하는 컴퓨팅 환경을 의미하는 말로, 다양한 종류의 컴퓨터가 사람, 사물, 환경 속에 내재되어 있고, 이들이 서로 연결되어 필요한 곳이라면 언제 어디서나 컴퓨팅을 할 수 있는 환경을 말한다. 본 연구에서는 사용자의 감성을 인식하기 위해서 얼굴 표정, 온도, 습도, 날씨, 조명등을 사용하여 온톨로지를 구축하였다. 온톨로지를 구축하기 위하여 OWL 언어를 사용하였고, 감성추론 엔진은 Jena(예나)를 사용한다. 본 연구에서 제시한 상황인식 서비스인프라(Context-Awareness Service Infra)의 구조는 기능에 따라 여러 개의 모듈로 나뉜다.

얼굴 표정 인식 기술의 동향과 향후 방향: 텍스트 마이닝 분석을 중심으로 (Trends and Future Directions in Facial Expression Recognition Technology: A Text Mining Analysis Approach)

  • 전인수;이병천;임수빈;문지훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.748-750
    • /
    • 2023
  • Facial expression recognition technology's rapid growth and development have garnered significant attention in recent years. This technology holds immense potential for various applications, making it crucial to stay up-to-date with the latest trends and advancements. Simultaneously, it is essential to identify and address the challenges that impede the technology's progress. Motivated by these factors, this study aims to understand the latest trends, future directions, and challenges in facial expression recognition technology by utilizing text mining to analyze papers published between 2020 and 2023. Our research focuses on discerning which aspects of these papers provide valuable insights into the field's recent developments and issues. By doing so, we aim to present the information in an accessible and engaging manner for readers, enabling them to understand the current state and future potential of facial expression recognition technology. Ultimately, our study seeks to contribute to the ongoing dialogue and facilitate further advancements in this rapidly evolving field.

다중 분류기의 판정단계 융합에 의한 얼굴인식 (Multi-classifier Decision-level Fusion for Face Recognition)

  • 염석원
    • 대한전자공학회논문지SP
    • /
    • 제49권4호
    • /
    • pp.77-84
    • /
    • 2012
  • 얼굴인식 기술은 지능형 보안, 웹에서 콘텐츠 검색, 지능로봇의 시각부분, 머신인터페이스 등, 활용이 광범위 하다. 그러나 일반적으로 대상자의 표정과 포즈 변화, 주변의 조명 환경과 같은 문제가 있으며 이와 더불어 원거리에서 획득한 영상의 경우 저해상도를 비롯하여 블러와 잡음에 의한 영상의 열화 등의 여러 가지 어려움이 발생한다. 본 논문에서는 포톤 카운팅(Photon-counting) 선형판별법(Linear Discriminant Analysis)을 이용한 다중 분류기(Classifier)에 의한 판정을 융합하여 얼굴 영상 인식을 수행한다. Fisher 선형판별법은 집단 간 분산을 최대로 하고 집단 내 분산을 최소로 하는 공간으로 선형 투영하는 방법으로, 학습영상의 수가 적을 경우 특이행렬 문제가 발생하지만 포톤카운팅 선형 판별법은 이러한 문제가 없으므로 차원축소를 위한 전 처리 과정이 필요 없다. 본 논문의 다중 분류기는 포톤 카운팅 선형판별법의 유클리드 거리(Euclidean Distance) 또는 정규화된 상관(Normalized Correlation)을 적용하는 판정규칙에 따라 구성된다. 다중분류기의 판정의 융합은 각 분류기 cost의 정규화(Normalization), 유효화(Validation), 그리고 융합규칙(Fusion Rule)으로 구성된다. 각 분류기에서 도출된 cost는 같은 범위로 정규화된 후 유효화 과정에서 선별되고 Minimum, 또는 Average, 또는 Majority-voting의 융합규칙에 의하여 융합된다. 실험에서는 원거리에서 획득한 효과를 구현하기 위하여 고해상도 데이터베이스 영상을 인위적으로 Unfocusing과 Motion 블러를 이용하여 열화하여 테스트하였다. 실험 결과는 다중분류기 융합결과의 인식률은 단일분류기보다 높다는 것을 보여준다.

얼굴인식을 위한 해마의 뇌모델링 학습 알고리즘 개발 (Development of Learning Algorithm using Brain Modeling of Hippocampus for Face Recognition)

  • 오선문;강대성
    • 대한전자공학회논문지SP
    • /
    • 제42권5호
    • /
    • pp.55-62
    • /
    • 2005
  • 본 논문에서는 인간의 인지학적인 두뇌 원리인 대뇌피질과 해마 신경망을 공학적으로 모델링하여 얼굴 영상의 특징 벡터들을 고속 학습하고, 각 영상의 최적의 특징을 구성할 수 있는 해마 신경망 모델링 알고리즘인 HNMA(Hippocampal Neuron Modeling Algorithm)을 이용한 얼굴인식 시스템을 제안한다. 시스템은 크게 특징추출 부분과 학습 및 인식 부분으로 구성 되어 있으며, 특징추출 부분에서는 PCA(Principal Component Analysis)와 LDA (Linear Discriminants Analysis)를 순차적으로 적용하여 분별력이 좋은 특징들로 구성한다. 학습부분에서는 해마 신경망 구조의 순서에 따라 입력되는 영상 데이터의 특징들을 치아 이랑 영역에서 호감도 조정에 따라서 반응 패턴으로 이진화 하고, CA3 영역에서 자기 연상 메모리 단계를 거쳐 노이즈를 제거한다. CA3의 정보를 받는 CAI영역에서는 신경망에 의해 학습되어 장기기억이 만들어 진다. 제안한 시스템의 성능을 평가하기 위하여 실험은 표정과 포즈변화 그리고 저 화질 이미지를 각각 구분하여 인식률을 확인하였다. 실험 결과, 본 논문에서 제안하는 특징 추출 방법과 학습 방법을 다른 방법들과 비교하였을 때, 학습시간비용과 인식률에서 우수함을 확인하였다.

우울증 진단 환자의 증상 완화를 위한 참참참, 끝말잇기 놀이 로봇 설계 및 구현 (Design and Implementation of the ChamCham and WordChain Play Robot for Reduction of Symptoms of Depressive Disorder Patient)

  • 엄현영;서동윤;김경민;이성웅;최지환;이강희
    • 문화기술의 융합
    • /
    • 제6권2호
    • /
    • pp.561-566
    • /
    • 2020
  • 본 논문은 우울증 진단 환자의 증상 완화를 위한 참참참 놀이 및 끝말잇기 놀이 로봇을 설계 및 구현한다. 우울증의 핵심 증상은 삶에 대한 흥미와 관심을 상실하는 것으로, 우울증 진단 환자가 로봇을 통해 자신의 표정에 드러나는 감정 분석을 확인하고 참참참 혹은 끝말잇기 놀이를 진행한다. 놀이 후 표정에 드러나는 감정을 다시 분석하여 보고 받음으로 구현 로봇의 기능을 확인한다. 간단한 놀이를 통해 우울증을 진단 받은 환자의 질환이 완벽하게 치료될 수는 없지만, 점진적인 활용을 통해 증상 완화에 기여할 수 있다. 참참참, 끝말잇기 놀이 로봇의 설계는 Thecorpora사의 상호작용이 가능한 오픈소스형 로봇 Q.bo One를 사용한다. Q.bo One의 시스템은 사용자의 얼굴을 캡쳐하여 사진을 촬영하고, Azure 서버에 값을 전달하여 축적된 데이터를 통해 놀이 전 후의 감정 분석을 확인한다. 놀이는 Q.bo One의 OS인 라즈비안에서 프로그래밍 언어 Python을 활용하여 구현하고 외부센서들과 상호작용하여 작동하도록 구현한다. 본 논문은 놀이 로봇으로 비교적 짧은 시간에 우울증 진단 환자의 증상 완화에 도움을 주는 것을 목적으로 한다.

심장 반응 동기화를 이용한 공감 인식 방법 (Empathy Recognition Method Using Synchronization of Heart Response)

  • 이동원;박상인;문성철;황민철
    • 감성과학
    • /
    • 제22권1호
    • /
    • pp.45-54
    • /
    • 2019
  • 공감은 사회관계의 중요한 요소로, 소통 및 과제 수행의 효율을 증가시킨다. 타인과의 상호작용에서 공감하기 위해 상대방의 얼굴 표정, 말투, 움직임 등을 무의식적으로 모방을 한다. 이 때 생리 반응인 심장 반응도 동기화 되는 현상을 보인다. 따라서 본 연구는 두 사람 사이의 심장 리듬 동기화를 통해 공감의 유무를 객관적이고 정량적으로 인식하는 규칙을 정의하고자 한다. 피험자 74명은 두 명씩 그룹을 지어 공감을 유발하는 표정 모방 과제를 수행하며 심전도(electrocardiogram, ECG)를 측정하였다. 공감 유무에 따른 두 사람의 심장 리듬의 동기화를 확인하기 위해 심장 리듬 패턴(heart rhythm pattern, HRP)과 일관성(heart rhythm coherence, HRC) 신호에서 정량적으로 분석 가능한 지표들을 추출하였고 독립 표본 t검증을 통해 통계적 유의성을 확인하였다. 공감하는 경우 심장 리듬 패턴과 일관성에서 두 신호의 상관계수(correlation, r)가 공감하지 않는 경우보다 유의미하게 높았고, SDNN(the standard deviation of NN intervals) 차이와 우세한 피크의 주파수 차이는 유의미하게 낮은 형태를 보이며 동기화되었다. 공감도 규칙은 통계적으로 유의한 지표로 단계적 판별 분석을 수행하여 정의하였다. 본 연구에서 제안한 공감도 규칙을 직무, 인사 관리에 활용한다면 어떤 구성원들 사이에서 공감이 잘 일어나는지 정량적 판단이 가능해 효율적인 팀구성이 가능할 것이다.

이미지메이킹 교육이 자아존중감과 교육만족도에 미치는 영향 (Effect of Image Making Education on Self-Esteem and Education Satisfaction)

  • 조주은;고선희
    • 한국콘텐츠학회논문지
    • /
    • 제14권11호
    • /
    • pp.1030-1040
    • /
    • 2014
  • 본 연구에서는 항공서비스학과 학생을 대상으로 이미지메이킹 교육이 자아존중감과 교육만족도에 미치는 영향을 파악해보고자 하였다. 이론적 고찰을 토대로 두 개의 가설을 설정하였으며, 선행연구를 기초로 설문을 구성하였다. 편의표본추출을 통해 240부의 설문지를 항공서비스학과 학생을 대상으로 회수하였으며, 결측치가 있는 자료를 제외하고 218부를 사용하였다. 탐색적 요인분석을 통해 이미지메이킹 교육은 외적이미지교육, 기본인성교육 및 매너교육으로 구분하였으며, 자아존중감은 가치감과 존중감으로 구분하였다. AMOS를 활용하여 구조방정식 모형을 이용하여 분석하였으며 결과는 아래와 같다. 먼저 이미지메이킹교육 중 외적이미지교육, 매너교육은 가치감에 유의한 정(+)의 영향을 미치고, 매너교육은 존중감에 유의한 정(+)의 영향을 미치지 않는 것으로 나타났다. 즉 얼굴표정, 메이크업, 컬러 이미지, 헤어연출, 워킹 등의 교육을 통해 가치감이 높아짐을 알 수 있고, 전화매너, 프레젠테이션스킬, 커뮤니케이션 스킬 교육등을 통해 존중감이 높아짐을 알 수 있다. 둘째, 가치감과 존중감은 교육만족도에 유의한 정(+)의 영향을 미치는 것으로 나타나 가설 2는 모두 채택되었다. 즉 자아존중감 중 가치감과 존중감을 높게 지각할수록 교육에 대한 만족도가 높아짐을 알 수 있다. 따라서 지속적이고 체계적인 교육훈련을 통하여 항공서비스학과 학생의 이미지메이킹의 관리가 필요하며, 자아존중감을 높일 수 있는 방안이 모색되어야 한다. 한계점과 향후 논의방향을 제시하였다.

유아의 자기표현능력 증진을 위한 오르프 음악활동의 적용 (A Study on Self-Expression Improvement of Children through Orff Activities)

  • 권세미
    • 인간행동과 음악연구
    • /
    • 제6권1호
    • /
    • pp.55-80
    • /
    • 2009
  • 본 연구는 서울시 소재 D어린이집에서 만 4~5세 유아 3명을 대상으로 오르프 음악 활동을 통해 자기표현을 향상을 위한 연구를 실시하였다. 주 3회 총 14회기에 걸쳐 진행된 본 프로그램은 그룹 치료의 형태로 진행되었으며, 각 세션은 40분의 시간으로 이루어졌다. 사용된 기법으로는 오르프 음악활동의 매체를 활용한 말하기, 노래 부르기, 동작, 악기 연주 등의 활동을 시행하였으며 그 내용으로는 대상자들의 자기표현을 향상시키기 위한 신체 이완, 불안감소, 자아 존중감 향상, 자기표현 기술훈련 등의 활동이 제공되었다. 유아의 자기표현성 향상을 살펴보기 위해 단일집단 사전-사후 설계(one group pretest-posttest design)에 기초하여 14회 활동의 사전과 사후에 자기표현 척도 검사를 실시하여 점수를 비교 분석하였다. 또한 오르프 음악활동의 외부환경에서의 변화를 살펴보기 위하여 유아들의 자유놀이를 비디오로 녹화하고 오르프 음악 활동 사전과 음악활동 중간, 음악활동 사후에 교사 3인이 관찰하여 분석하였다. 본 연구에서 얻어진 결과는 다음과 같다. 첫째, 오르프 음악 활동 내의 상황에서 자기표현 언어 척도 점수를 확인한 결과 평균 6.7점 증가함으로 자기표현이 유의미하게 변화되었음을 확인할 수 있었고 둘째, 활동 상황 내의 비언어적 자기표현 행동이 유의미하게 증가하는 것을 관찰할 수 있었으며 셋째, 자유놀이 상황 내에 관찰된 자기표현 언어 척도 점수를 확인한 결과 평균 8점 증가함으로 자기표현이 유의미하게 변화되었음을 확인할 수 있었으며 넷째, 자유놀이 상황 내의 비언어적 자기표현 행동 관찰결과 얼굴표정, 신체접촉, 기타 영역에서 평균점수가 유의미한 증가를 보였다.

  • PDF