• 제목/요약/키워드: 얼굴표정인식

검색결과 293건 처리시간 0.028초

에지 방향 정보를 이용한 LDP 코드 개선에 관한 연구 (A Study of Improving LDP Code Using Edge Directional Information)

  • 이태환;조영탁;안용학;채옥삼
    • 전자공학회논문지
    • /
    • 제52권7호
    • /
    • pp.86-92
    • /
    • 2015
  • 본 논문에서는 지역적인 에지의 방향 정보와 반응 크기, 주변 화소와의 밝기값 차이를 LDP 코드에 포함함으로써 얼굴 표정 인식률을 향상시킨다. 기존 LDP 코드를 사용하면 LBP에 비해서 영상의 밝기 변화에 덜 민감하고 잡음에 강한 장점을 가진다. 하지만, 밝기 변화가 없는 매끄러운 영역의 정보를 표현하기 어렵고, 배경에 얼굴과 유사한 에지 패턴이 존재하는 경우에는 인식률이 저하되는 문제점이 있다. 따라서 에지 방향 정보를 기반으로 에지 강도 및 밝기값을 추가할 수 있도록 LDP 코드를 개선하고, 인식률을 측정한다.

그래디언트와 상관관계의 국부통계를 이용한 얼굴 인식 (Face Recognition Using Local Statistics of Gradients and Correlations)

  • 구영애;소현주;김남철
    • 대한전자공학회논문지SP
    • /
    • 제48권3호
    • /
    • pp.19-29
    • /
    • 2011
  • 지금까지 많은 얼굴 인식 방법들이 제안되었으나, 대부분의 방법들은 특징추출 과정 없이 입력 영상을 1차원 형태의 벡터로 변형한 것을 1차원 특징 벡터로 사용하거나 또는 입력 영상 자체를 특징 매트릭스로 사용하였다. 이와같이 영상 자체를 특징으로 사용하면 조명변화가 심한 데이터베이스에서는 성능이 좋지 않는 것으로 알려져 있다. 본 논문에서는 조명변화에 효과적인 그래디언트와 상관관계의 국부통계를 이용하여 얼굴을 인식하는 방법을 제안하였다. BDIP(block difference of inverse probabilities)는 그래디언트의 국부 통계이다. 그리고 BVLC(block variation of local correlation coefficients)의 두 타입은 상관관계의 국부 통계이다. 입력영상이 얼굴인식 시스템에 들어 오면 먼저 BDIP, BVLC1, BVLC2의 특징 영상을 추출하고 융합한 후, (2D)2 PCA 변환을 거쳐 특징 매트릭스를 얻어서 훈련특징 매트릭스와의 거리를 구하여 최근린 분류기를 이용하여 얼굴 영상을 인식한다. 네 가지 얼굴 데이터베이스, FERET, Weizmann, Yale B, Yale에 대한 실험결과로부터, 제안한 방법이 실험한 여섯 가지 방법 중에서 조명과 얼굴 표정의 변화에 가장 견실하다는 것을 알 수 있었다.

주의력결핍 과잉행동장애의 이환 여부에 따른 얼굴표정 정서 인식의 차이 (Difficulty in Facial Emotion Recognition in Children with ADHD)

  • 안나영;이주영;조선미;정영기;신윤미
    • Journal of the Korean Academy of Child and Adolescent Psychiatry
    • /
    • 제24권2호
    • /
    • pp.83-89
    • /
    • 2013
  • Objectives : It is known that children with attention-deficit hyperactivity disorder (ADHD) experience significant difficulty in recognizing facial emotion, which involves processing of emotional facial expressions rather than speech, compared to children without ADHD. This objective of this study is to investigate the differences in facial emotion recognition between children with ADHD and normal children used as control. Methods : The children for our study were recruited from the Suwon Project, a cohort comprising a non-random convenience sample of 117 nine-year-old ethnic Koreans. The parents of the study participants completed study questionnaires such as the Korean version of Child Behavior Checklist, ADHD Rating Scale, Kiddie-Schedule for Affective Disorders and Schizophrenia-Present and Lifetime Version. Facial Expression Recognition Test of the Emotion Recognition Test was used for the evaluation of facial emotion recognition and ADHD Rating Scale was used for the assessment of ADHD. Results : ADHD children (N=10) were found to have impaired recognition when it comes to Emotional Differentiation and Contextual Understanding compared with normal controls (N=24). We found no statistically significant difference in the recognition of positive facial emotions (happy and surprise) and negative facial emotions (anger, sadness, disgust and fear) between the children with ADHD and normal children. Conclusion : The results of our study suggested that facial emotion recognition may be closely associated with ADHD, after controlling for covariates, although more research is needed.

주의력결핍과잉행동장애 아동과 자폐스펙트럼장애 아동에서 얼굴 표정 정서 인식과 구별의 차이 (Difference of Facial Emotion Recognition and Discrimination between Children with Attention-Deficit Hyperactivity Disorder and Autism Spectrum Disorder)

  • 이지선;강나리;김희정;곽영숙
    • Journal of the Korean Academy of Child and Adolescent Psychiatry
    • /
    • 제27권3호
    • /
    • pp.207-215
    • /
    • 2016
  • Objectives: This study aimed to investigate the differences in the facial emotion recognition and discrimination ability between children with attention-deficit hyperactivity disorder (ADHD) and autism spectrum disorder (ASD). Methods: Fifty-three children aged 7 to 11 years participated in this study. Among them, 43 were diagnosed with ADHD and 10 with ASD. The parents of the participants completed the Korean version of the Child Behavior Checklist, ADHD Rating Scale and Conner's scale. The participants completed the Korean Wechsler Intelligence Scale for Children-fourth edition and Advanced Test of Attention (ATA), Penn Emotion Recognition Task and Penn Emotion Discrimination Task. The group differences in the facial emotion recognition and discrimination ability were analyzed by using analysis of covariance for the purpose of controlling the visual omission error index of ATA. Results: The children with ADHD showed better recognition of happy and sad faces and less false positive neutral responses than those with ASD. Also, the children with ADHD recognized emotions better than those with ASD on female faces and in extreme facial expressions, but not on male faces or in mild facial expressions. We found no differences in the facial emotion discrimination between the children with ADHD and ASD. Conclusion: Our results suggest that children with ADHD recognize facial emotions better than children with ASD, but they still have deficits. Interventions which consider their different emotion recognition and discrimination abilities are needed.

딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계 (Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition)

  • 신동욱;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

얼굴 요소의 영역 추출 및 Snakes를 이용한 윤곽선 추출 (Facial Feature Detection and Facial Contour Extraction using Snakes)

  • 이경희;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권7호
    • /
    • pp.731-741
    • /
    • 2000
  • 본 논문은 얼굴 인식 또는 표정 인식 분야에 있어서 중요한 특징인 얼굴과 얼굴의 주요소인 눈과 입, 눈썹의 영역 추출 및 그의 윤곽선 추출에 관한 방법을 제시한다. 얼굴요소의 영역 추출은 엣지정보와 이진화 영상을 병합하여 이용한 프로젝션 분석을 통하여, 얼굴 및 각 얼굴요소를 포함하는 최소포함사각형(MER: Minimum Enclosing Rectangle)을 추출한다. 윤곽선 추출은 얼굴요소 모양의 개인차가 반영되고 빠른 수렴을 할 수 있는 스네이크 모델을 정의하여 수행한다. 스네이크는 초기 윤곽선의 설정이 윤곽선 추출 결과에 큰 영향을 미치므로, 초기 윤곽선의 설정 과정이 매우 중요하다. 본 논문에서는 얼굴 및 각 얼굴요소를 포함하는 각각의 최소포함사각형(MER)을 추출하고, 추출된 MER 내에서 얼굴 및 각 얼굴요소의 일반적인 모양을 초기 윤곽선으로 설정하는 방법을 사용한다. 실험결과 눈, 입, 얼굴의 MER 추출은 성능이 모두 우수하고, 눈썹이 흐린 사람들의 경우에만 눈썹의 MER 추출 결과가 좋지 않았다. 추출된 MER을 기반으로 하여 스네이크 모델을 적용한 결과, 눈, 입, 눈썹, 얼굴의 다양한 모양을 반영한 윤곽선 추출 결과를 보였다. 특히 눈의 경우는 1차 유도 엣지 연산자에 의한 엣지와 2차 유도 연산자를 이용한 영점 교차점(Zero Crossing)과 병합한 에너지 함수를 설정하여 보다 더 나은 윤곽선 추출 결과를 얻었다. 얼굴의 윤곽선의 경우도 엣지값과 밝기값을 병합한 에너지 함수에 의해 비교적 정확한 결과를 얻을수 있었다.

  • PDF

동작 인식을 통한 인터랙티브 애니메이션 (Interactive Animation by Action Recognition)

  • 황지연;임양미;박지완;장성갑
    • 한국콘텐츠학회논문지
    • /
    • 제6권12호
    • /
    • pp.269-277
    • /
    • 2006
  • 본 연구는 인간의 과장적 제스처 중, 팔에 대한 키 프레임을 추출하여 팔 동작(제스처)과 만화적 감정 표현 애니메이션과의 매칭을 위한 인터렉티브 시스템 구현을 목적으로 한다. 실시간 애니메이션 구현을 위하여 필요한 요소는 표정 변화에 따른 수많은 프레임 제작이다. 따라서, 애니메이션 제작에 따르는 시간 을 최소화하기 위해 3D 어플리케이션을 이용한 얼굴 감정 표현의 변형과정을 소개한다. 두 번째는 3D 어플리케이션에서 만들어진 많은 프레임들을 동작과 매칭하는 방법을 소개한다. 팔의 동작 변화에 따른 과장된 표정의 이미지 시퀀스를 매칭 시킴으로서 관객의 동작이 작품의 시동점이 되어 기존의 초상화가 과장된 움직임을 가칠 수 있게 함으로서 직접적으로 초상화와 의사소통을 하는듯한 느낌을 갖도록 했다.

  • PDF

딥 러닝 기반의 API 와 멀티미디어 요소를 활용한 시니어 라이프 데이터 수집 및 상태 분석 (Senior Life Logging and Analysis by Using Deep Learning and Captured Multimedia Data)

  • 김선대;박은수;정종범;구자성;류은석
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 하계학술대회
    • /
    • pp.244-247
    • /
    • 2018
  • 본 논문에서는 시니어를 위한 라이프 데이터 수집 및 행동분석 프레임 워크를 설명하고, 이의 부분적 구현을 자세히 설명한다. 본 연구는 시니어를 위한 라이프 데이터를 바탕으로 보호자가 없는 시니어를 보살핌과 동시에, 보호자가 미처 인지하지 못하는 시니어의 비정상적인 상태를 분석하여 판단하는 시스템을 연구한다. 먼저, 시니어가 시간을 많이 소요하는 TV 앞 상황을 가정하고, 방영되는 TV 콘텐츠와 TV 카메라를 이용한 시니어의 영상/음성 정보로 이상상태와 감정상태, TV 콘텐츠에 대한 반응과 반응속도를 체크한다. 구체적으로는 딥 러닝 기반의 API 와 멀티미디어 데이터 분석에서 사용되는 오픈 패키지를 바탕으로, 영상/음성의 키 프레임을 추출하여 감정 및 분위기를 분석하고 시니어의 얼굴 표정 인식, 행동 인식, 음성 인식을 수행한다.

  • PDF

영유아와 청소년의 얼굴표정기반 감정인식 성능분석 (Performance Comparison of Emotion Recognition using Facial Expressions of Infants and Adolescents)

  • 노하진;임유진
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.700-702
    • /
    • 2022
  • 코로나 바이러스-19 감염증 상황이 지속됨에 따라 영유아 비대면 상담이 증가하였다. 비대면이라는 제한된 환경에서, 보다 정확한 상담을 위해 영유아의 감정을 예측하는 보조도구로써 CNN 학습모델을 이용한 감정분석 결과를 활용할 수 있다. 하지만, 대부분의 감정분석 CNN 모델은 성인 데이터를 위주로 학습이 진행되므로 영유아의 감정인식률은 상대적으로 낮다. 본 논문에서는 영유아와 청소년 데이터의 감정분석 정확도 차이의 원인을 XAI 기법 중 하나인 LIME을 사용해 시각화하여 분석하고, 분석 결과를 근거로 영유아 데이터에 대한 감정인식 성능을 향상시킬 수 있는 방법을 제안한다.

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.