• 제목/요약/키워드: Video Face Recognition

검색결과 110건 처리시간 0.021초

얼굴인식을 활용한 영상 내 특정인물 기반 대표 이미지 추출 시스템 (Video Thumbnail Generation Using Character Face Recognition)

  • 이현지;이계민
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.318-321
    • /
    • 2021
  • 최근 인터넷 플렛폼이 대중화되면서 영상물을 접하는 횟수가 늘어났다. 영상 선택에 있어서 대표 이미지가 중요한 역할을 하는데, 현재 빅데이터를 이용하여 개인 맞춤 서비스가 활성화 되면서 이를 이용하여 개인 맞춤 서비스로 특정인물 기반 대표 이미지 추출할 수 있게 된다면 영상 선택에 있어 소비자의 편의를 도우며 이목을 끌 수 있을 것으로 예상된다. 이에 본 논문은 영상 산업기술과 방송 통신 융합 서비스의 일환으로 특정인물 기반 대표이미지를 추출하는 서비스에 대해 연구하였다. 이를 위하여 얼굴 인식을 처리하는 컴퓨터 비전 기술을 이용하여 얼굴 인식 분야를 연구 개발하였다.

  • PDF

앙상블 학습 알고리즘과 인공지능 표정 인식 기술을 활용한 사용자 감정 맞춤 힐링 서비스 (Using Ensemble Learning Algorithm and AI Facial Expression Recognition, Healing Service Tailored to User's Emotion)

  • 양성연;홍다혜;문재현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.818-820
    • /
    • 2022
  • The keyword 'healing' is essential to the competitive society and culture of Koreans. In addition, as the time at home increases due to COVID-19, the demand for indoor healing services has increased. Therefore, this thesis analyzes the user's facial expression so that people can receive various 'customized' healing services indoors, and based on this, provides lighting, ASMR, video recommendation service, and facial expression recording service.The user's expression was analyzed by applying the ensemble algorithm to the expression prediction results of various CNN models after extracting only the face through object detection from the image taken by the user.

인공지능 학습용 데이터의 개인정보 비식별화 자동화 도구 개발 연구 - 영상데이터기반 - (Research on the development of automated tools to de-identify personal information of data for AI learning - Based on video data -)

  • 이현주;이승엽;전병훈
    • Journal of Platform Technology
    • /
    • 제11권3호
    • /
    • pp.56-67
    • /
    • 2023
  • 최근 데이터 기반 산업계의 오랜 숙원이었던 개인정보 비식별화가 2020년 8월 데이터3법[1]이 개정되어 명시화 되었다. 4차 산업시대의 원유[2]라 불리는 데이터를 산업 분야에서 활성화할 수 있는 기틀이 되었다. 하지만, 일각에서는 비식별개인정보(personally non-identifiable information)가 정보주체의 기본권 침해를 우려하고 있는 실정이다[3]. 이에 개인정보 비식별화 자동화 도구인 Batch De-Identification Tool을 개발 연구를 수행하였다. 본 연구에서는 첫 번째로, 학습용 데이터 구축을 위해 사람 얼굴(눈, 코, 입) 및 다양한 해상도의 자동차 번호판 등을 라벨링하는 이미지 라벨링 도구를 개발하였다. 두 번째로, 객체 인식 모델을 학습하여 객체 인식 모듈을 실행함으로써 개인정보 비식별화를 수행할 수 있도록 하였다. 본 연구의 결과로 개발된 개인정보 비식별화 자동화 도구는 온라인 서비스를 통해 개인정보 침해 요소를 사전에 제거할 수 있는 가능성을 보여주었다. 이러한 결과는 데이터 기반 산업계에서 개인정보 보호와 활용의 균형을 유지하면서도 데이터의 가치를 극대화할 수 있는 가능성을 제시하고 있다

  • PDF

운전자 졸음 인식 시스템 구현 (Implementation of Driver Fatigue Monitoring System)

  • 최진모;송혁;박상현;이철동
    • 한국통신학회논문지
    • /
    • 제37권8C호
    • /
    • pp.711-720
    • /
    • 2012
  • 본 논문에서는 운전자 졸음 인식 시스템의 구현 방법과 그에 따른 결과를 소개한다. 영상 입력 장치로는 시중에 판매되는 웹캠 카메라를 사용하였다. 얼굴 검출 방법으로는 Haar 변환 기법을 이용하였으며, 다양한 조명 환경에 강건하게 적응하도록 조명정규화를 수행하였다. 조명정규화를 거친 얼굴 영상은 특징값 추출에 용이하다. 조명정규화를 통한 눈 후보영역은 인체측정학 정보를 이용하여 후보 영역을 줄인 이후에 PCA와 Circle Mask의 혼합 모델을 적용했다. 위 방법을 통해 차량 내부의 복잡한 조명 환경 속에서 강건히 눈 영역을 추출한다. 검출된 눈 영역은 고해상도의 조명 정규화 영상과 간단한 연산을 통하여 졸음 여부를 판별한다. 졸음 상태가 1단계로 판단 될 경우에는 통합 모니터링 인터페이스에서 운전자에게 경고음을 울리며 2단계일 경우에는 CAN(Controller Area Network)를 통하여 안전벨트를 진동하게 함으로써 운전자에게 경고를 준다. 본 논문에서 제안하는 졸음 인식 시스템은 낮은 계산 복잡도를 만족하는 동시에 높은 인식률을 보여준다. 실험 결과 차량 내에서 97%의 인식률이 나타났다.

동영상 데이터에서 조명 보정을 사용한 관심 영역의 획득 (Acquisition of Region of Interest through Illumination Correction in Dynamic Image Data)

  • 장석우
    • 한국산학기술학회논문지
    • /
    • 제22권3호
    • /
    • pp.439-445
    • /
    • 2021
  • 영상 센서 및 소형 디스플레이의 발달로 가능해진 저가의 고속 카메라는 영상처리 및 패턴인식 분야에서 유용하게 활용될 수 있다. 본 논문에서는 약간의 시차를 두고 연속적으로 입력되는 고속의 영상으로부터 불규칙적인 조명을 보정한 다음, 조명이 보정된 영상으로부터 사람의 관심 영역인 노출된 피부 색상 영역을 획득하는 알고리즘을 소개한다. 본 연구에서는 먼저 받아들인 고속의 영상으로부터 비 균일하게 발생된 조명적인 효과를 프레임 블렌딩 기법을 사용하여 보정한다. 그런 다음, 사전에 반복적인 학습으로 생성된 타원형의 피부 색상 분포 모델을 적용하여 입력된 고속의 컬러 영상으로부터 관심 영역을 강인하게 획득한다. 실험 결과에서는 본 논문에서 제시된 접근 방법이 입력되는 컬러 영상으로부터 조명을 보정한 다음 관심 영역을 정확하게 획득한다는 것을 보여준다. 본 연구에서 제안된 알고리즘은 얼굴 인식 및 추적, 조명 보정 및 제거, 동영상 색인 및 검색 등과 같은 영상 인식과 연관된 다양한 종류의 실제적인 응용 프로그램에서 매우 유용하게 이용될 것으로 추측된다.

멀티미디어 콘텐츠 제어를 위한 사용자 경험 기반 동작 인식 기술 (Human Gesture Recognition Technology Based on User Experience for Multimedia Contents Control)

  • 김윤식;박상윤;옥수열;이석환;이응주
    • 한국멀티미디어학회논문지
    • /
    • 제15권10호
    • /
    • pp.1196-1204
    • /
    • 2012
  • 본 논문에서는 다양한 멀티미디어 매체의 제어 및 인터랙션을 위하여 별도의 입력장치 없이 사용자의 경험기반의 동작 인식을 통하여 멀티미디어 콘텐츠를 제어 하는 알고리즘을 제안하였다. 본 논문에서 제안한 사용자 경험 기반 멀티미디어 콘텐츠 제어를 위한 휴먼 동작 인식 방법은 먼저, 카메라로부터 입력받은 영상을 조명의 변화에 크게 영향을 받지 않는 YCbCr컬러 영역으로 변환하여 피부색 추출과 모폴로지에 의한 잡음제거, Boundary Energy 및 Depth 영상을 이용하여 손 영역을 검출하였다. 검출된 손 영상에서 PCA 알고리즘을 이용하여 손 모양을 인식하고 차영상 및 모멘트 이론을 이용하여 손의 중심점 검출 및 궤적을 획득한 후, 손의 궤적을 시간을 기준으로 8분할하여 8방향 체인코드를 이용하여 심볼화하였다. 심볼화된 정보로 부터 HMM 알고리즘을 이용하여 손동작을 인식, 사용자의 동작 인식을 통하여 멀티미디어 콘텐츠를 제어하도록 하였다. 제안한 알고리즘을 실험에 적용한 결과 손 영역 검출은 94.25%, 손 모양 인식은 92.6%, 손 동작 인식은 85.86%, 얼굴 검출은 89.58%의 성능을 나타내었으며 이를 기반으로 컴퓨터 환경에서 생성 구축된 영상, 음성, 동영상, MP3, e-book 등과 같은 다양한 콘텐츠들을 동작인식만으로 제어할 수 있도록 하였다.

좌표계산을 통해 동영상의 안면 특징점 분석을 중심으로 한 웹 기반 발표 태도 교정 프로그램 개발 (Development of a Web-based Presentation Attitude Correction Program Centered on Analyzing Facial Features of Videos through Coordinate Calculation)

  • 권기현;안수호;박찬정
    • 한국콘텐츠학회논문지
    • /
    • 제22권2호
    • /
    • pp.10-21
    • /
    • 2022
  • 학생들의 취업을 위한 면접 발표와 회사에서의 프로젝트 결과 발표 등과 같은 형식적인 발표 태도가 개선되려면 동료나 교수자의 관찰에 의한 방법 이외에 자동화된 방법은 드물다. 기존 연구에 따르면, 발표자의 안정적인 발화와 시선 처리가 발표에서의 전달력에 영향을 미친다고 한다. 또한, 본인 발표에 대한 적절한 피드백이 발표자의 발표 역량을 늘이는 효과가 있다는 연구도 있다. 본 연구에서는 이와 같은 교정의 긍정적 측면을 고려하여 대학생들의 잘못된 발표 습관과 태도를 동영상의 안면 분석을 통해 지능적으로 교정해 주는 프로그램을 개발하고 성능을 분석하였다. 개발하는 프로그램은 웹 기반으로 군말 사용 여부를 확인하고 안면 인식과 발표 내용 텍스트화를 통해 개발되었다. 이를 위해 군말 분류 인공지능 모델을 개발하였고, 동영상 객체 추출 후, 좌표에 기반으로 얼굴 특징점을 인식하였다. 이후 4,000개 안면 데이터를 이용해 Teachable Machine에서 안면 인식한 경우와 본 연구의 알고리즘 성능을 비교·분석하였다. 프로그램을 이용해 발표 태도를 자기스스로 교정하여 발표자들에게 도움을 준다.

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

자율 주차 시스템을 위한 실시간 차량 추출 알고리즘 (A Real-time Vehicle Localization Algorithm for Autonomous Parking System)

  • 한종우;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제10권2호
    • /
    • pp.31-38
    • /
    • 2011
  • This paper introduces a video based traffic monitoring system for detecting vehicles and obstacles on the road. To segment moving objects from image sequence, we adopt the background subtraction algorithm based on the local binary patterns (LBP). Recently, LBP based texture analysis techniques are becoming popular tools for various machine vision applications such as face recognition, object classification and so on. In this paper, we adopt an extension of LBP, called the Diagonal LBP (DLBP), to handle the background subtraction problem arise in vision-based autonomous parking systems. It reduces the code length of LBP by half and improves the computation complexity drastically. An edge based shadow removal and blob merging procedure are also applied to the foreground blobs, and a pose estimation technique is utilized for calculating the position and heading angle of the moving object precisely. Experimental results revealed that our system works well for real-time vehicle localization and tracking applications.

Adaptive Background Modeling Considering Stationary Object and Object Detection Technique based on Multiple Gaussian Distribution

  • Jeong, Jongmyeon;Choi, Jiyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권11호
    • /
    • pp.51-57
    • /
    • 2018
  • In this paper, we studied about the extraction of the parameter and implementation of speechreading system to recognize the Korean 8 vowel. Face features are detected by amplifying, reducing the image value and making a comparison between the image value which is represented for various value in various color space. The eyes position, the nose position, the inner boundary of lip, the outer boundary of upper lip and the outer line of the tooth is found to the feature and using the analysis the area of inner lip, the hight and width of inner lip, the outer line length of the tooth rate about a inner mouth area and the distance between the nose and outer boundary of upper lip are used for the parameter. 2400 data are gathered and analyzed. Based on this analysis, the neural net is constructed and the recognition experiments are performed. In the experiment, 5 normal persons were sampled. The observational error between samples was corrected using normalization method. The experiment show very encouraging result about the usefulness of the parameter.