• 제목/요약/키워드: 얼굴 표정 강도

검색결과 22건 처리시간 0.022초

알코올 중독자의 얼굴 표정 인식과 관련된 뇌 활성화 특성 (Brain Activation to Facial Expressions Among Alcoholics)

  • 박미숙;이배환;손진훈
    • 감성과학
    • /
    • 제20권4호
    • /
    • pp.1-14
    • /
    • 2017
  • 본 연구는 자기공명영상 기법을 이용하여 알코올 중독자의 정서 인식과 관련된 뇌 활성화 특성을 관찰하였다. 입원치료 중인 알코올 중독자 18명과 이들과 나이, 성별, 교육 수준 등이 유사한 비중독자 16명이 실험에 참여하였다. 참여자들은 뇌 영상 촬영 동안에 얼굴 사진을 보고 얼굴 표정 정서의 강도를 평정하였다. 연구 결과, 행동 반응에서는 알코올 중독자와 비중독자 간에 유의한 차이는 나타나지 않았다. 뇌 반응 결과, 알코올 집단에서는 비중독자 집단과 비교하여 얼굴 표정 정서 인식 동안에 정서 처리와 관련된 편도체/해마는 더 적게 활성화되었으며, 얼굴 정보 처리와 관련된 방추이랑, 시 공간 탐색과 관련된 이마엽 및 마루엽 영역은 더 크게 활성화되었다. 반면, 알코올 집단에서 혀이랑/방추이랑(BA 19), 시각적 탐색에 관여하는 가운데이마이랑(BA 8/9/46), 그리고 시공간적 정보 처리에 관여하는 위마루소엽(BA 7)이 더 크게 활성화 되었다. 본 연구를 통해 알코올 중독자의 정서 인식과 관련된 뇌 활성화 특성을 확인할 수 있었다.

인터넷 가상공간에서 지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Comic Facial Expression Method for Intelligent Avatar Communications in the Internet Cyberspace)

  • 이용후;김상운;청목유직
    • 전자공학회논문지CI
    • /
    • 제40권1호
    • /
    • pp.59-73
    • /
    • 2003
  • 인터넷 가상공간에서 서로 다른 언어 사이의 언어 장벽을 극복하기 위한 한 방법으로 CG 애니메이션 기술을 이용한 수화 통신 시스템이 연구되고 있다. 지금까지 연구에서는 비언어 통신 수단으로서 팔과 손의 제스춰만을 고려하였으나, 얼굴 표정이 의사전달에 중요한 요소가 된다. 특히 사실적인 감정표현보다는 얼굴 요소가 과장된 코믹한 표현이 보다 효과적이고, 또 눈썹, 눈, 입 등의 AU(Action Units)만이 아니라 뺨과 턱의 움직임도 중요한 역할을 하게 됨을 알게 되었다. 따라서 3D 표정 생성 에디터에서 AU를 추출하고, 보다 효율적을 표정 생성을 위해 FACS(Facial Action Unit)으로 분류한다. 또 기존에 표정 에디터에 비해서 제안된 표정 에디터는 PAU에 대한 강도를 강하게 줌으로써, 6가지 표정을 분리할 수 있음을 보인다. 또한 얼굴 표정 생성에서 “뺨을 올림”과 “턱을 내림”에 대한 움직임을 자동화하기 위해서 포물형 편미분식(Parabolic Partial Differential Equations)과 Runge-Kutta법을 이용하여 보다 자연스러운 표정을 생성하였다. 또한 이를 이용하여 구조가 서로 다른 아바타 모델에 감정을 재생하는 방법을 제안하였다. 본 방법을 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스 (Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation)

  • 백지영;김세라;이석필
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.71-77
    • /
    • 2022
  • 본 연구에서는 음성 합성 모델을 감정에 따라 음성을 합성하는 모델로 확장하고 감정에 따른 얼굴 표정을 생성하기 위한 데이터 베이스를 수집한다. 데이터베이스는 남성과 여성의 데이터가 구분되며 감정이 담긴 발화와 얼굴 표정으로 구성되어 있다. 성별이 다른 2명의 전문 연기자가 한국어로 문장을 발음한다. 각 문장은 anger, happiness, neutrality, sadness의 4가지 감정으로 구분된다. 각 연기자들은 한 가지의 감정 당 약 3300개의 문장을 연기한다. 이를 촬영하여 수집한 전체 26468개의 문장은 중복되지 않으며 해당하는 감정과 유사한 내용을 담고 있다. 양질의 데이터베이스를 구축하는 것이 향후 연구의 성능에 중요한 역할을 하므로 데이터베이스를 감정의 범주, 강도, 진정성의 3가지 항목에 대해 평가한다. 데이터의 종류에 따른 정확도를 알아보기 위해 구축된 데이터베이스를 음성-영상 데이터, 음성 데이터, 영상 데이터로 나누어 평가를 진행하고 비교한다.

로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어 (Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity)

  • 김민규;이희승;박정우;조수훈;정명진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.547-552
    • /
    • 2008
  • 앞으로 로봇은 더욱 사람과 가까워 질 것이고, 따라서 사람과 로봇간의 상호작용도 활발해질 것이다. 이 때 직관적인 소통수단이 필수적이기 때문에, 로봇이 표정을 통해 감정을 표현할 수 있도록 하는 연구가 활발히 진행되어왔다. 기존에는 얼굴 표정을 주로 이용하였는데, 사람처럼 감정의 강도를 표현하기 위해서는 얼굴 외의 다른 방법도 필요하다. 로봇이 감정의 강도를 표현하기 위해서는 팔의 제스처, 움직임, 소리, 색깔 등을 이용할 수 있다. 본 논문에서는 LED 를 이용할 수 있도록 색과 깜빡임에 대해 연구하였다. 색깔과 감정의 관계에 대해서는 기존에 연구가 많이 되어 있지만, 실제로 로봇에 구현하기에는 정량적 자료가 부족하여 어려움이 있다. 본 논문에서는 6 가지 기본 감정(화남, 슬픔, 혐오, 놀람, 기쁨, 공포)을 효과적으로 나타낼 수 있는 색과 깜빡임 주기를 결정하고, 아바타를 이용하여 감정의 강도를 설문조사 하였다. 결과적으로, 슬픔, 혐오, 화남의 경우 색깔과 깜빡임을 통해 감정의 강도를 높일 수 있었다. 공포, 기쁨, 놀람의 경우 색깔과 깜빡임이 감정 인식에 큰 영향을 미치지 못했는데, 이는 그 감정에 해당하는 색깔이나 깜빡임을 수정해서 개선할 수 있을 것이다.

  • PDF

스마트폰에서 웃음 치료를 위한 표정인식 애플리케이션 개발 (Development of Recognition Application of Facial Expression for Laughter Theraphy on Smartphone)

  • 강선경;이옥걸;송원창;김영운;정성태
    • 한국멀티미디어학회논문지
    • /
    • 제14권4호
    • /
    • pp.494-503
    • /
    • 2011
  • 본 논문에서는 스마트폰에서 웃음 치료를 위한 표정인식 애플리케이션을 제안한다. 제안된 방법에서는 스마트폰의 전면 카메라 영상으로부터 AdaBoost 얼굴 검출 알고리즘을 이용하여 얼굴을 검출한다. 얼굴을 검출한 다음에는 얼굴 영상으로부터 입술 영역을 검출한다. 그 다음 프레임부터는 얼굴을 검출하지 않고 이전 프레임에서 검출된 입술영역을 3단계 블록 매칭 기법을 이용하여 추적한다. 카메라와 얼굴 사이의 거리에 따라 입술 영역의 크기가 달라지므로, 입술 영역을 구한 다음에는 고정된 크기로 정규화한다. 그리고 주변 조명 상태에 따라 영상이 달라지므로, 본 논문에서는 히스토그램 매칭과 좌우대칭을 결합하는 조명 정규화 알고리즘을 이용하여 조명 보정 전처리를 함으로써 조명에 의한 영향을 줄일 수 있도록 하였다. 그 다음에는 검출된 입술 영상에 주성분 분석을 적용하여 특징 벡터를 추출하고 다층퍼셉트론 인공신경망을 이용하여 실시간으로 웃음 표정을 인식한다. 스마트폰을 이용하여 실험한 결과, 제안된 방법은 초당 16.7프레임을 처리할 수 있어서 실시간으로 동작 가능하였고 인식률 실험에서도 기존의 조명 정규화 방법보다 개선된 성능을 보였다.

농인 청소년의 감정 경험 및 표현 특성 (Experiencing and Expression of Deaf Adolescents)

  • 박지은;김은예;장은정;정이내;음영지;손진훈
    • 감성과학
    • /
    • 제19권3호
    • /
    • pp.51-58
    • /
    • 2016
  • 본 연구에서는 농인들이 감정을 경험하고 표현할 때 그 특성이 청인과 어떻게 다른지 알아보았다. 이를 위해 농인과 청인 청소년들을 대상으로 세 가지 감정을 유발 시키면서 얼굴 표정을 녹화하였다. 감정의 경험 내용은 자기보고식 척도를 사용하여 측정되었고, 감정의 표현은 녹화된 얼굴 표정을 평정하였다. 두 집단 간에 경험 감정 속성이 동일한지 그리고 본인이 보고한 감정과 타인이 평가한 감정이 일치하는지를 비교하였다. 경험 감정의 유형 및 강도 점수는 청인과 농인 집단 간에 통계적으로 유의한 차이가 없었다. 그러나 표현 감정 평정 결과는 기쁨에서 두 집단 간에 유의한 차이를 보였다. 청인들의 기쁜 표정은 본인이 느낀 강도보다 타인에게 더 강하게 평가되는 반면, 농인들은 본인이 느낀 기쁨의 강도보다 훨씬 낮게 평가되었다. 이는 농인들의 감정 상태를 청인들은 알아차리지 못할 수 있다는 의미이다. 이러한 결과는 농인 청소년들의 감정 표출 방식이 같은 또래의 청인들과 달라 서로간의 감정적 교류나 대인관계에 어려움을 겪을 수 있음을 시사한다.

에지 방향 정보를 이용한 LDP 코드 개선에 관한 연구 (A Study of Improving LDP Code Using Edge Directional Information)

  • 이태환;조영탁;안용학;채옥삼
    • 전자공학회논문지
    • /
    • 제52권7호
    • /
    • pp.86-92
    • /
    • 2015
  • 본 논문에서는 지역적인 에지의 방향 정보와 반응 크기, 주변 화소와의 밝기값 차이를 LDP 코드에 포함함으로써 얼굴 표정 인식률을 향상시킨다. 기존 LDP 코드를 사용하면 LBP에 비해서 영상의 밝기 변화에 덜 민감하고 잡음에 강한 장점을 가진다. 하지만, 밝기 변화가 없는 매끄러운 영역의 정보를 표현하기 어렵고, 배경에 얼굴과 유사한 에지 패턴이 존재하는 경우에는 인식률이 저하되는 문제점이 있다. 따라서 에지 방향 정보를 기반으로 에지 강도 및 밝기값을 추가할 수 있도록 LDP 코드를 개선하고, 인식률을 측정한다.

주의력결핍과잉행동장애 아동과 자폐스펙트럼장애 아동에서 얼굴 표정 정서 인식과 구별의 차이 (Difference of Facial Emotion Recognition and Discrimination between Children with Attention-Deficit Hyperactivity Disorder and Autism Spectrum Disorder)

  • 이지선;강나리;김희정;곽영숙
    • Journal of the Korean Academy of Child and Adolescent Psychiatry
    • /
    • 제27권3호
    • /
    • pp.207-215
    • /
    • 2016
  • Objectives: This study aimed to investigate the differences in the facial emotion recognition and discrimination ability between children with attention-deficit hyperactivity disorder (ADHD) and autism spectrum disorder (ASD). Methods: Fifty-three children aged 7 to 11 years participated in this study. Among them, 43 were diagnosed with ADHD and 10 with ASD. The parents of the participants completed the Korean version of the Child Behavior Checklist, ADHD Rating Scale and Conner's scale. The participants completed the Korean Wechsler Intelligence Scale for Children-fourth edition and Advanced Test of Attention (ATA), Penn Emotion Recognition Task and Penn Emotion Discrimination Task. The group differences in the facial emotion recognition and discrimination ability were analyzed by using analysis of covariance for the purpose of controlling the visual omission error index of ATA. Results: The children with ADHD showed better recognition of happy and sad faces and less false positive neutral responses than those with ASD. Also, the children with ADHD recognized emotions better than those with ASD on female faces and in extreme facial expressions, but not on male faces or in mild facial expressions. We found no differences in the facial emotion discrimination between the children with ADHD and ASD. Conclusion: Our results suggest that children with ADHD recognize facial emotions better than children with ASD, but they still have deficits. Interventions which consider their different emotion recognition and discrimination abilities are needed.

멀티 모달 인터페이스 기반 플레이어 얼굴 표정 분석 시스템 개발 (Expression Analysis System of Game Player based on Multi-modal Interface)

  • 정장영;김영빈;이상혁;강신진
    • 한국게임학회 논문지
    • /
    • 제16권2호
    • /
    • pp.7-16
    • /
    • 2016
  • 본 논문은 게임을 수행하는 개별 사용자의 특별한 행동 탐지를 효율적으로 수행하는 시스템을 제안한다. 제안하는 시스템은 일반적인 게임 플레이 환경에서 비 침투적 방법을 통해 포착 가능한 사용자 특징과 반복적인 패턴에 기반을 두어 특이 행동 탐지를 한다. 본 논문에서는 표정과 사용자 움직임과 같이 관찰되는 자료를 분석하기 위해 카메라를 사용했다. 게다가 반복 행동 탐지를 위해 게임 사용자로부터 멀티 모달 데이터를 사용하여 고차원의 행동 분석하기 위해 사용했다. 특이 행동 탐지에 효과적인 Support Vector Machine 을 사용했으며, 특이 행동 탐지 수행의 유용성을 평가하여 약 70% 확률로 탐지하는 이상 행동 탐지 재현율을 보였다. 또한 반복 행동 분석이 가능함을 보였다. 제안된 기법을 사용하였을 때 PC 환경에서 제공하는 모든 콘텐츠의 분석에 대한 피드백과 정량화하는데 도움이 될 수 있다.

감정로그 자동화 기록을 위한 표정인식 어플리케이션 개발 (Development of facial recognition application for automation logging of emotion log)

  • 신성윤;강선경
    • 한국정보통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.737-743
    • /
    • 2017
  • 지능형 라이프로그 시스템은 언제(When), 어디서(Where), 누구와 함께(Who), 어떤 상황에서(What, How), 일어나는 정보, 즉 사용자의 일상에서 발생되는 시간, 인물, 장면, 연령대, 감정, 관계, 상태, 위치, 이동 경로 등의 다양한 상황정보들을 인식하여 태그를 달아 사용자의 일상생활을 기록하고 쉽고 빠르게 접근하도록 제공하는 것이다. 상황인식은 자동태킹(Auto-Tagging) 기술과 생체인식 기술인 얼굴인식을 이용해, 태그(Tag) 단위의 정보를 자동으로 생성하고 분류되어 상황정보 DB을 구축한다. 상황정보 DB에는 지리정보, 위치정보, 날씨정보, 감정정보 등을 포함하고 있다. 본 논문에서는 감정정보를 자동으로 기록하기 위해서 능동형태 모델 방법을 사용해 무표정과 웃는표정을 인식하는 어플리케이션을 개발하였다.