• 제목/요약/키워드: facial recognition technology

검색결과 170건 처리시간 0.025초

다면기법 SPFACS 영상객체를 이용한 AAM 알고리즘 적용 미소검출 설계 분석 (Using a Multi-Faced Technique SPFACS Video Object Design Analysis of The AAM Algorithm Applies Smile Detection)

  • 최병관
    • 디지털산업정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.99-112
    • /
    • 2015
  • Digital imaging technology has advanced beyond the limits of the multimedia industry IT convergence, and to develop a complex industry, particularly in the field of object recognition, face smart-phones associated with various Application technology are being actively researched. Recently, face recognition technology is evolving into an intelligent object recognition through image recognition technology, detection technology, the detection object recognition through image recognition processing techniques applied technology is applied to the IP camera through the 3D image object recognition technology Face Recognition been actively studied. In this paper, we first look at the essential human factor, technical factors and trends about the technology of the human object recognition based SPFACS(Smile Progress Facial Action Coding System)study measures the smile detection technology recognizes multi-faceted object recognition. Study Method: 1)Human cognitive skills necessary to analyze the 3D object imaging system was designed. 2)3D object recognition, face detection parameter identification and optimal measurement method using the AAM algorithm inside the proposals and 3)Face recognition objects (Face recognition Technology) to apply the result to the recognition of the person's teeth area detecting expression recognition demonstrated by the effect of extracting the feature points.

Audio and Video Bimodal Emotion Recognition in Social Networks Based on Improved AlexNet Network and Attention Mechanism

  • Liu, Min;Tang, Jun
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.754-771
    • /
    • 2021
  • In the task of continuous dimension emotion recognition, the parts that highlight the emotional expression are not the same in each mode, and the influences of different modes on the emotional state is also different. Therefore, this paper studies the fusion of the two most important modes in emotional recognition (voice and visual expression), and proposes a two-mode dual-modal emotion recognition method combined with the attention mechanism of the improved AlexNet network. After a simple preprocessing of the audio signal and the video signal, respectively, the first step is to use the prior knowledge to realize the extraction of audio characteristics. Then, facial expression features are extracted by the improved AlexNet network. Finally, the multimodal attention mechanism is used to fuse facial expression features and audio features, and the improved loss function is used to optimize the modal missing problem, so as to improve the robustness of the model and the performance of emotion recognition. The experimental results show that the concordance coefficient of the proposed model in the two dimensions of arousal and valence (concordance correlation coefficient) were 0.729 and 0.718, respectively, which are superior to several comparative algorithms.

유비쿼터스 환경을 이용한 얼굴인식 (Face Recognition Under Ubiquitous Environments)

  • 고현주;김형배;양동화;박장환;전명근
    • 한국지능시스템학회논문지
    • /
    • 제14권4호
    • /
    • pp.431-437
    • /
    • 2004
  • 본 논문은 차세대 지능형 기술 분야중 하나인 유비쿼터스 컴퓨팅 환경 기반에서의 얼굴인식을 제안한 것으로, 모바일 장치 중 하나인 핸드폰 카메라를 이용하여 얼굴 영상을 취득하고, 이를 이용하여 얼굴의 특징을 추출하고 인식하는 과정을 통해 모바일 보안을 생각하고자 한다. 얼굴인식을 위해 제안하는 방법은 PCA와 Fuzzy-LDA를 사용하였으며, 모바일 환경에서 데이터의 량을 줄이기 위해 다해상도 분석을 기반으로 하는 이산 웨이블렛을 사용하였다. 또한 획득된 특징데이터의 연결성을 확인하여 인식률을 얻기 위해 유클리디언 거리 측정 법을 사용하였다. 마지막으로 본 논문에서 제안한 방법의 유용성을 알아보기 위해 핸드폰 카메라를 이용해 실험한 결과 일반 카메라에서 획득한 영상에 비해 모바일 장치로부터 획득한 영상이 저해상도를 갖음에도 불구하고 높은 성능을 갖음을 확인할 수 있었다.

Automatic Face Identification System Using Adaptive Face Region Detection and Facial Feature Vector Classification

  • Kim, Jung-Hoon;Do, Kyeong-Hoon;Lee, Eung-Joo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1252-1255
    • /
    • 2002
  • In this paper, face recognition algorithm, by using skin color information of HSI color coordinate collected from face images, elliptical mask, fratures of face including eyes, nose and mouth, and geometrical feature vectors of face and facial angles, is proposed. The proposed algorithm improved face region extraction efficacy by using HSI information relatively similar to human's visual system along with color tone information about skin colors of face, elliptical mask and intensity information. Moreover, it improved face recognition efficacy with using feature information of eyes, nose and mouth, and Θ1(ACRED), Θ2(AMRED) and Θ 3(ANRED), which are geometrical face angles of face. In the proposed algorithm, it enables exact face reading by using color tone information, elliptical mask, brightness information and structural characteristic angle together, not like using only brightness information in existing algorithm. Moreover, it uses structural related value of characteristics and certain vectors together for the recognition method.

  • PDF

감정 인식을 위한 얼굴 영상 분석 알고리즘 (Facial Image Analysis Algorithm for Emotion Recognition)

  • 주영훈;정근호;김문환;박진배;이재연;조영조
    • 한국지능시스템학회논문지
    • /
    • 제14권7호
    • /
    • pp.801-806
    • /
    • 2004
  • 감성 인식 기술은 사회의 여러 분야에서 요구되고 있는 필요한 기술이지만, 인식 과정의 어려움으로 인해 풀리지 않는 문제로 낡아있다. 특히 얼굴 영상을 이용한 감정 인식 기술에서 얼굴 영상을 분석하는 기술 개발이 필요하다. 하지만 얼굴분석을 어려움으로 인해 많은 연구가 진행 중이다. 된 논문에서는 감정 인식을 위한 얼굴 영상 분석 알고리즘을 제안한다. 제안된 얼굴 영상 분석 알고리즘은 얼굴 영역 추출 알고리즘과 얼굴 구성 요소 추출 알고리즘으로 구성된다. 얼굴 영역 추출 알고리즘은 다양한 조명 조건에서도 강인하게 얼굴 영역을 추출할 수 있는 퍼지 색상 필터를 사용한 방법을 제안하였다. 또한 얼굴 구성 요소 추출 알고리즘에서는 가상 얼굴 모형을 이용함으로써 보다 정확하고 빠른 얼굴 구성 요소 추출이 가능하게 하였다. 최종적으로 모의실험을 통해 각 알고리즘들의 수행 과정을 살펴보았으며 그 성능을 평가하였다.

Case Study of Short Animation with Facial Capture Technology Using Mobile

  • Jie, Gu;Hwang, Juwon;Choi, Chulyoung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권3호
    • /
    • pp.56-63
    • /
    • 2020
  • The Avengers film produced by Marvel Comics shows visual effects that were impossible to produce in the past. Companies that produce film special effects were initially equipped with large personnel and equipment, but technology is gradually evolving to be feasible for smaller companies that do not have high-priced equipment and a large workforce. The development of hardware and software is becoming increasingly available to the general public as well as to experts. Equipment and software which were difficult for individuals to purchase before quickly popularized high-performance computers as the game industry developed. The development of the cloud has been the driving force behind software costs. As augmented reality (AR) performance of mobile devices improves, advanced technologies such as motion tracking and face recognition technology are no longer implemented by expensive equipment. Under these circumstances, after implementing mobile-based facial capture technology in animation projects, we have identified the pros and the cons and suggest better solutions to improve the problem.

Greedy Learning of Sparse Eigenfaces for Face Recognition and Tracking

  • Kim, Minyoung
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제14권3호
    • /
    • pp.162-170
    • /
    • 2014
  • Appearance-based subspace models such as eigenfaces have been widely recognized as one of the most successful approaches to face recognition and tracking. The success of eigenfaces mainly has its origins in the benefits offered by principal component analysis (PCA), the representational power of the underlying generative process for high-dimensional noisy facial image data. The sparse extension of PCA (SPCA) has recently received significant attention in the research community. SPCA functions by imposing sparseness constraints on the eigenvectors, a technique that has been shown to yield more robust solutions in many applications. However, when SPCA is applied to facial images, the time and space complexity of PCA learning becomes a critical issue (e.g., real-time tracking). In this paper, we propose a very fast and scalable greedy forward selection algorithm for SPCA. Unlike a recent semidefinite program-relaxation method that suffers from complex optimization, our approach can process several thousands of data dimensions in reasonable time with little accuracy loss. The effectiveness of our proposed method was demonstrated on real-world face recognition and tracking datasets.

Design of an IOT System based on Face Recognition Technology using ESP32-CAM

  • Mahmoud, Ines;Saidi, Imen;bouzazi, Chadi
    • International Journal of Computer Science & Network Security
    • /
    • 제22권8호
    • /
    • pp.1-6
    • /
    • 2022
  • In this paper, we will present the realization of a facial recognition system using the ESP32-CAM board controlled by an Arduino board. The goal is to monitor a remote location in real time via a camera that is integrated into the ESP32 IOT board. The acquired images will be recorded on a memory card and at the same time transmitted to a pc (a web server). The development of this remote monitoring system is to create an alternative between security, reception, and transmission of information to act accordingly. The simulation results of our proposed application of the facial recognition domain are very efficient and satisfying in real time.

딥러닝을 이용한 증강현실 얼굴감정스티커 기반의 다중채널네트워크 플랫폼 구현 (Implementation of Multi Channel Network Platform based Augmented Reality Facial Emotion Sticker using Deep Learning)

  • 김대진
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권7호
    • /
    • pp.1349-1355
    • /
    • 2018
  • 최근 인터넷을 통한 다양한 콘텐츠 서비스가 일반화 되고 있으며, 그 중에서 다중채널네트워크 플랫폼 서비스는 스마트 폰의 일반화와 함께 인기가 높아지고 있다. 다중채널네트워크 플랫폼은 스트리밍을 기본으로 하면서, 서비스 향상을 위하여 다양한 요소를 추가하고 있다. 그중 얼굴인식을 이용한 증강현실 스티커 서비스가 많이 이용되고 있다. 본 논문에서는 기존 서비스보다 흥미 요소를 더욱 증가 시킬 목적으로 얼굴 감정인식을 통하여 증강현실 스티커를 얼굴에 마스킹 하는 다중채널네트워크 플랫폼을 구현하였다. 얼굴감정인식을 위해 딥러닝 기술을 이용하여 7가지 얼굴의 감정을 분석하였고, 이를 기반으로 감정 스티커를 얼굴에 적용하여, 사용자들의 만족도를 더욱 높일 수 있었다. 제안하는 다중채널네트워크 플랫폼 구현을 위해서 클라이언트에 감정 스티커를 적용하였고, 서버에서 스트리밍 서비스 할 수 있는 여러 가지 서버들을 설계하였다.

이미지 메타 정보 기반 한국인 표정 감정 인식 (Korean Facial Expression Emotion Recognition based on Image Meta Information)

  • 문형주;임명진;김은희;신주현
    • 스마트미디어저널
    • /
    • 제13권3호
    • /
    • pp.9-17
    • /
    • 2024
  • 최근 팬데믹의 영향과 ICT 기술의 발전으로 인해 비대면·무인 시스템의 활용이 확대되고 있으며, 비대면 상황에서 의사소통은 감정을 이해하는 것이 매우 중요하다. 감정을 이해하기 위해서는 다양한 표정에 대한 감정 인식 방법이 필요함에 따라 이미지 데이터에서 표정 감정 인식 개선을 위한 인공지능 기반 연구가 진행되고 있다. 하지만 기존의 표정 감정 인식 연구는 정확도 향상을 위해 대량의 데이터를 활용하기 때문에 높은 컴퓨팅 파워와 많은 학습 시간이 필요하다. 본 논문에서는 이러한 한계점을 개선하기 위해 소량 데이터로도 표정 감정 인식이 가능한 방법으로 이미지 메타 정보인 연령과 성별을 활용한 표정 감정 인식 방법을 제안한다. 표정 감정 인식을 위해 원본 이미지 데이터에서 Yolo Face 모델을 활용하여 얼굴을 검출하였으며, 이미지 메타 정보를 기반으로 VGG 모델을 통해 연령과 성별을 분류한 다음 EfficientNet 모델을 활용하여 7가지 감정을 인식하였다. 메타 정보 기반 데이터 분류 모델과 전체 데이터로 학습한 모델을 비교한 결과 제안하는 데이터 분류 학습 모델의 정확도가 더 높았음을 확인하였다.