• 제목/요약/키워드: 얼굴모델

검색결과 597건 처리시간 0.024초

안면 인식이 적용된 스마트 도어락 (Smart door locks with facial recognition)

  • 이다영;전제욱;하윤서;서혁준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.788-789
    • /
    • 2023
  • 기존 도어락의 핀 인증 방식은 사용자에 따라 불편함을 느끼기도 한다. 이에 대한 솔루션으로 안면인식 도어락을 제안하며 Jetson nano에 face recognition 딥러닝 모델을 적용한 도어락을 제작한다. 거주자의 이미지를 촬영한 뒤 얼굴의 특징점을 분석하여 저장한다. 사용자가 도어락의 카메라에 인식되었을 때 저장된 안면 정보를 바탕으로 사용자가 거주자의 특징점과 일치하는지 확인한다. 거주자임이 인지되었을 때 도어락은 unlock되어 열리게 된다. 안면 인식 도어락 사용 시 보안상 취약해질 수 있는 기존 도어락의 핀 인증 방식에 대해 보안을 강화할 수 있으며 카메라를 통해 촬영된 사용자의 사진 및 영상을 활용하여 여러 서비스를 적용할 수 있다.

시각화를 통한 재현의 경쟁과 공존: 신경과학의 얼굴 인식 메커니즘에 관한 논쟁을 중심으로 (Competition and Coexistence of Visual Representations: Controversies about the Mechanism of Face Recognition in Neuroscience)

  • 장하원
    • 과학기술학연구
    • /
    • 제10권2호
    • /
    • pp.107-141
    • /
    • 2010
  • 과학적 활동에서 시각화(visualization)는 새로운 현상을 재현(representation)하기 위한 하나의 방식이다. 특정한 시각화 방식이 믿을만한 재현으로 구성되는 과정은 관련 기구와 실행에 대한 행위자들의 협상과 체화를 수반하는 사회-기술적 과정이며, 이로부터 생산된 시각적 재현은 해당 분과의 사실주의와 인식적 가치에 의해 정당성을 획득한다. 이 논문에서는 얼굴 인식 메커니즘에 대해 서로 다른 주장을 제시하는 두 과학자 그룹이 논문에 제시하고 있는 시각적 이미지들을 분석함으로써, 이들이 특정한 시각화 방식을 구성하여 자신들의 연구 가설을 재현하는 과정을 살펴본다. 두 그룹은 동일한 fMRI 기술을 사용했지만, 서로 다른 fMRI 실험 패러다임과 시각적 자극을 사용함으로써 상이한 이론을 뒷받침 하는 시각적 증거를 만들어냈다. 이 때, fMRI 자극으로 활용된 시각적 이미지는 해당 과학자가 특정한 방식으로 현상에 개입하고 자신의 연구 가설을 실험 가능한 것으로 만드는 도구이자, 다른 과학자들과 소통하고 설득함으로써 연구자가 제시하는 해석의 설득력을 높이는 수단이었다. 이렇게 서로 다른 실험 패러다임 속에서 생산된 시각적 증거들은 뇌영상과 이론적 모델 사이를 연결하는 중간 재현물로, 이러한 시각적 재현의 연쇄가 이루는 정합성에 기초해서 얼굴 인식 메커니즘에 대한 서로 다른 주장에 과학적 가치가 부여되었다. 본 논문의 사례와 같이, 같은 현상에 대한 상이한 재현이 공존하는 현상은 이러한 재현이 과학자 사회 내부의 맥락에 철저히 의존해서 만들어지는 것임을 드러내며, 이는 과학적 지식의 가치와 한계를 다시 생각해볼 수 있는 기회를 제공할 것이다.

  • PDF

효과적인 인터랙티브 비디오 저작을 위한 얼굴영역 기반의 어노테이션 방법 (Annotation Method based on Face Area for Efficient Interactive Video Authoring)

  • 윤의녕;가명현;조근식
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.83-98
    • /
    • 2015
  • TV를 보면서 방송에 관련된 정보를 검색하려는 많은 시청자들은 정보 검색을 위해 주로 포털 사이트를 이용하고 있으며, 무분별한 정보 속에서 원하는 정보를 찾기 위해 많은 시간을 소비하고 있다. 이와 같은 문제를 해결하기 위한 연구로써, 인터랙티브 비디오에 대한 연구가 활발하게 진행되고 있다. 인터랙티브 비디오는 일반적인 비디오에 추가 정보를 갖는 클릭 가능한 객체, 영역, 또는 핫스팟을 동시에 제공하여 사용자와 상호작용이 가능한 비디오를 말한다. 클릭 가능한 객체를 제공하는 인터랙티브 비디오를 저작하기 위해서는 첫째, 증강 객체를 생성하고, 둘째, 어노테이터가 비디오 위에 클릭 가능한 객체의 영역과 객체가 등장할 시간을 지정하고, 셋째, 객체를 클릭할 때 사용자에게 제공할 추가 정보를 지정하는 과정을 인터랙티브 비디오 저작 도구를 이용하여 수행한다. 그러나 기존의 저작 도구를 이용하여 인터랙티브 비디오를 저작할 때, 객체의 영역과 등장할 시간을 지정하는데 많은 시간을 소비하고 있다. 본 논문에서는 이와 같은 문제를 해결하기 위해 유사한 샷들의 모임인 샷 시퀀스의 모든 샷에서 얼굴 영역을 검출한 샷 시퀀스 메타데이터 모델과 객체의 어노테이션 결과를 저장할 인터랙티브 오브젝트 메타데이터 모델, 그리고 어노테이션 후 발생될 수 있는 부정확한 객체의 위치 문제를 보완할 사용자 피드백 모델을 적용한 얼굴영역을 기반으로 하는 새로운 형태의 어노테이션 방법을 제안한다. 마지막으로 제안한 어노테이션 방법의 성능을 검증하기 위해서 인터랙티브 비디오 저작 시스템을 구현하여 기존의 저작도구들과 저작 시간을 비교하였고, 사용자 평가를 진행 하였다. 비교 분석 결과 평균 저작 시간이 다른 저작 도구에 비해 2배 감소하였고, 사용자 평가 결과 약 10% 더 유용한다고 평가 되었다.

SoC 하드웨어 설계를 위한 SIFT 특징점 위치 결정 알고리즘의 고정 소수점 모델링 및 성능 분석 (Fixed-Point Modeling and Performance Analysis of a SIFT Keypoints Localization Algorithm for SoC Hardware Design)

  • 박찬일;이수현;정용진
    • 대한전자공학회논문지SD
    • /
    • 제45권6호
    • /
    • pp.49-59
    • /
    • 2008
  • 본 논문에서는 SIFT(Scale Invariant Feature Transform) 알고리즘을 임베디드 환경에서 실시간으로 처리하기 위해 가장 연산량이 많은 특징점 위치 결정 단계를 고정 소수점 모델로 설계 및 분석하고 그에 근거한 하드웨어 구조를 제안한다. SIFT 알고리즘은 객체의 꼭지점이나 모서리와 같이 색상 성분의 차가 심한 구역에서 얻어진 특징점 주위 픽셀의 벡터성분을 추출하는 알고리즘으로, 현재 얼굴인식, 3차원 객체 인식, 파노라마, 3차원 영상 복원 작업의 핵심 알고리즘으로 연구 되고 있다. 본 알고리즘에 대한 최적의 하드웨어 구현을 위해 특징점 위치(Keypoint Localization)와 방향(Orient Assignment)에 대한 정확도, 오차율을 사용하여 고정 소수점 모델에서 각 중요 변수들의 비트 크기를 결정 한다. 얻어진 고정 소수점 모델은 원래의 부동 소수점 모델과 비교했을 때 정확도 93.57%, 오차율 2.72%의 결과를 보이며, 고정 소수점 모델은 부동 소수점 모델과 비교하여 제거된 특징점의 대부분이 두 영상에서 추출된 특징점 끼리의 매칭과정에서 불필요한 객체의 모서리 영역에 몰려있음을 확인했다. 고정 소수점 모델링 결과 ARM 400MHz 환경에서 약 3시간, Pentium Core2Duo 2.13GHz 환경에서 약 15초의 연산시간을 갖는 부동 소수점 모델이 동일한 환경에서 약 1시간과 10초의 연산시간을 가지며, 최적화된 고정 소수점 모델을 하드웨어로 구현 시 $10{\sim}15\;frame/sec$의 성능을 보일 것으로 예상한다.

화소 및 이동 정보를 이용한 골프 스윙 궤도 추적 알고리즘 (Tracking Algorithm For Golf Swing Using the Information of Pixels and Movements)

  • 이홍로;황치정
    • 정보처리학회논문지B
    • /
    • 제12B권5호
    • /
    • pp.561-566
    • /
    • 2005
  • 본 논문에서는 기존의 모델 기반 추적 기법에서의 중심점 고정 문제를 해결하기 위한 비디오 프레임의 화소 정보와 골프채의 이동정보를 이용한 추적 알고리즘을 제안한다. 모델기반의 추적 기법은 골프채의 위치와 스윙 속도에 대한 정보를 4차, 6차 다항식 함수로 모델링하여 고정된 축을 중심으로 궤도를 계산해낸다. 실제 자세 교정이 필요한 골프 초심자의 경우 중심이 많이 움직이는 경우가 많으므로 중심점을 고정하여 스윙 케도를 모델링하는 모델 기반의 추적 기법을 직접 적용하기에는 어려운 문제점이 따른다. 따라서 본 논문에서는 이러한 문제점을 해결하기 위해 프레임 간의 화소 정보를 이용하여 모션을 검출한 후, 검출된 모션으로부터 골프채가 평행인 두개의 직선으로 이루어져있다는 특성과 업스윙과 다운스윙 시 이동하는 골프채의 위치를 분석하여 클럽 헤드와 손의 위치를 추출해 낸다. 또한 얼굴의 중심점과 양 발을 잇는 직선의 중심을 추적함으로써 사용자의 중심점을 추적해낼 수 있다. 중심점의 이동정보에 종속되지 않는 강인함을 증명하기 위해 중심점의 이동이 큰 초심자의 데이터를 가지고 실험을 하였으며, 그 결과 실제 클럽 헤드와 손, 그리고 중심점의 궤도를 정확히 추적해 낼 수 있었다.

A Study on Non-Contact Care Robot System through Deep Learning

  • Hyun-Sik Ham;Sae Jun Ko
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.33-40
    • /
    • 2023
  • 한국이 초고령사회로 진입하면서 노인 복지에 대한 필요성이 증가하고 있으나 현재 복지 인력 부족이 사회문제로 대두되고 있다. 이에 대한 해결책으로 노인의 사회적 고립감 완화와 위급 상황 시 비상 연락 등의 기능을 하는 노인 돌봄 로봇이 활발히 연구되고 있다. 하지만 이러한 기능들은 사용자의 접촉이 있어야만 작동하여 기존 노인 돌봄 로봇의 한계점으로 자리 잡고 있다. 본 논문에서는 기존의 문제를 해결하기 위해 상용화된 노인 돌봄 로봇과 카메라를 통해 직접적인 접촉 없이도 사용자와 상호작용할 수 있는 돌봄 로봇 시스템을 제안한다. 돌봄 로봇에 연결된 엣지 디바이스에 표정 인식 모델과 행동 인식 모델을 탑재하였고, 공공데이터를 통해 모델의 학습 및 성능검증을 진행했다. 실험 결과를 통해 표정 인식과 행동 인식의 성능이 각각 정확도 96.5%, 90.9%인 것을 확인할 수 있으며, 수행 시간의 경우에는 각각 50ms, 350ms인 것을 확인할 수 있다. 해당 결과는 제안한 시스템의 표정 및 행동 인식 정확도가 높고 추론 시간이 효율적임을 확인하며, 이는 비접촉 상황에서도 원활한 상호작용을 가능하게 한다.

안면 정보를 이용한 나이브 베이즈 기반 고중성지방혈증 예측 모델 (Prediction Model for Hypertriglyceridemia Based on Naive Bayes Using Facial Characteristics)

  • 이주원;이범주
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권11호
    • /
    • pp.433-440
    • /
    • 2019
  • 최근에 이르러, 기계학습 및 데이터마이닝은 수많은 질병 예측 및 진단에 활용되고 있다. 만성질환은 전체 사망률의 약 80%를 차지하는 질병으로, 점점 증가하는 추세이다. 만성질환 관련 예측 모델을 연구한 기존 연구들은 예측 모델을 구성하는 데이터로 혈당, 혈압, 인슐린 수치 등의 건강검진 수준의 데이터를 이용한다. 본 논문은 만성질환의 위험 요인인 이상지질혈증과 안면 정보의 연관성을 검증하고, 기계학습 기반 안면 정보를 이용한 이상지질혈증 예측 모델을 세계 최초로 개발한다. 본 연구는 5390명의 임상 데이터 중 안면 정보와 중성지방혈증 정보를 바탕으로 수행하였다. 중성지방혈증은 이상지질혈증을 판단하는 척도이다. 연구의 결과로 얼굴의 하악(mandibular) 간의 거리를 나타내는 FD_43_143_aD(p<0.0001, Area Under the receiver operating characteristics Curve(AUC)=0.652) 와 고중성지방혈증이 매우 높은 연관성을 가진 것을 밝혀냈고, 이를 기반으로 구축한 모델은 0.662의 AUC값을 획득하였다. 이러한 연구결과는 향후 질병 역학 및 대중 보건 영역의 스크리닝 단계에서 안면정보만으로 다양할 질병을 예측할 수 있는 기반을 제공할 수 있을 것이다.

이미지 메타 정보 기반 한국인 표정 감정 인식 (Korean Facial Expression Emotion Recognition based on Image Meta Information)

  • 문형주;임명진;김은희;신주현
    • 스마트미디어저널
    • /
    • 제13권3호
    • /
    • pp.9-17
    • /
    • 2024
  • 최근 팬데믹의 영향과 ICT 기술의 발전으로 인해 비대면·무인 시스템의 활용이 확대되고 있으며, 비대면 상황에서 의사소통은 감정을 이해하는 것이 매우 중요하다. 감정을 이해하기 위해서는 다양한 표정에 대한 감정 인식 방법이 필요함에 따라 이미지 데이터에서 표정 감정 인식 개선을 위한 인공지능 기반 연구가 진행되고 있다. 하지만 기존의 표정 감정 인식 연구는 정확도 향상을 위해 대량의 데이터를 활용하기 때문에 높은 컴퓨팅 파워와 많은 학습 시간이 필요하다. 본 논문에서는 이러한 한계점을 개선하기 위해 소량 데이터로도 표정 감정 인식이 가능한 방법으로 이미지 메타 정보인 연령과 성별을 활용한 표정 감정 인식 방법을 제안한다. 표정 감정 인식을 위해 원본 이미지 데이터에서 Yolo Face 모델을 활용하여 얼굴을 검출하였으며, 이미지 메타 정보를 기반으로 VGG 모델을 통해 연령과 성별을 분류한 다음 EfficientNet 모델을 활용하여 7가지 감정을 인식하였다. 메타 정보 기반 데이터 분류 모델과 전체 데이터로 학습한 모델을 비교한 결과 제안하는 데이터 분류 학습 모델의 정확도가 더 높았음을 확인하였다.

정보보안을 위한 생체 인식 모델에 관한 연구 (A Study on Biometric Model for Information Security)

  • 김준영;정세훈;심춘보
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.317-326
    • /
    • 2024
  • 생체 인식은 사람의 생체적, 행동적 특징 정보를 특정 장치로 추출하여 본인 여부를 판별하는 기술이다. 생체 인식 분야에서 생체 특성 위조, 복제, 해킹 등 사이버 위협이 증가하고 있다. 이에 대응하여 보안 시스템이 강화되고 복잡해지며, 개인이 사용하기 어려워지고 있다. 이를 위해 다중 생체 인식 모델이 연구되고 있다. 기존 연구들은 특징 융합 방법을 제시하고 있으나, 특징 융합 방법 간의 비교는 부족하다. 이에 본 논문에서는 지문, 얼굴, 홍채 영상을 이용한 다중 생체 인식 모델의 융합 방법을 비교 평가했다. 특징 추출을 위해VGG-16, ResNet-50, EfficientNet-B1, EfficientNet-B4, EfficientNet-B7, Inception-v3를 사용했으며, 특성융합을 위해 'Sensor-Level', 'Feature-Level', 'Score-Level', 'Rank-Level' 융합 방법을 비교 평가했다. 비교평가결과 'Feature-Level' 융합 방법에서 EfficientNet-B7 모델이 98.51%의 정확도를 보이며 높은 안정성을 보였다. 그러나 EfficietnNet-B7모델의 크기가 크기 때문에 생체 특성 융합을 위한 모델 경량화 연구가 필요하다.

한국형 멀티모달 몽타주 앱을 위한 생성형 AI 연구 (Research on Generative AI for Korean Multi-Modal Montage App)

  • 임정현;차경애;고재필;홍원기
    • 서비스연구
    • /
    • 제14권1호
    • /
    • pp.13-26
    • /
    • 2024
  • 멀티모달 (multi-modal) 생성이란 텍스트, 이미지, 오디오 등 다양한 정보를 기반으로 결과를 도출하는 작업을 말한다. AI 기술의 비약적인 발전으로 인해 여러 가지 유형의 데이터를 종합적으로 처리해 결과를 도출하는 멀티모달 기반 시스템 또한 다양해지는 추세이다. 본 논문은 음성과 텍스트 인식을 활용하여 인물을 묘사하면, 몽타주 이미지를 생성하는 AI 시스템의 개발 내용을 소개한다. 기존의 몽타주 생성 기술은 서양인들의 외형을 기준으로 이루어진 반면, 본 논문에서 개발한 몽타주 생성 시스템은 한국인의 안면 특징을 바탕으로 모델을 학습한다. 따라서, 한국어에 특화된 음성과 텍스트의 멀티모달을 기반으로 보다 정확하고 효과적인 한국형 몽타주 이미지를 만들어낼 수 있다. 개발된 몽타주 생성 앱은 몽타주 초안으로 충분히 활용 가능하기 때문에 기존의 몽타주 제작 인력의 수작업을 획기적으로 줄여줄 수 있다. 이를 위해 한국지능정보사회진흥원의 AI-Hub에서 제공하는 페르소나 기반 가상 인물 몽타주 데이터를 활용하였다. AI-Hub는 AI 기술 및 서비스 개발에 필요한 인공지능 학습용 데이터를 구축하여 원스톱 제공을 목적으로 한 AI 통합 플랫폼이다. 이미지 생성 시스템은 고해상도 이미지를 생성하는데 사용하는 딥러닝 모델인 VQGAN과 한국어 기반 영상생성 모델인 KoDALLE 모델을 사용하여 구현하였다. 학습된 AI 모델은 음성과 텍스트를 이용해 묘사한 내용과 매우 유사한 얼굴의 몽타주 이미지가 생성됨을 확인할 수 있다. 개발된 몽타주 생성 앱의 실용성 검증을 위해 10명의 테스터가 사용한 결과 70% 이상이 만족한다는 응답을 보였다. 몽타주 생성 앱은 범죄자 검거 등 얼굴의 특징을 묘사하여 이미지화하는 여러 분야에서 다양하게 사용될 수 있을 것이다.