• Title/Summary/Keyword: 얼굴 이미지

Search Result 474, Processing Time 0.027 seconds

Classification of terminal using YOLO network (YOLO 네트워크를 이용한 단자 구분)

  • Daun Jeong;Jeong Seong-Hun;Jaeyun Gim;jihoon Jung;Kyeongbo Kong
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.183-186
    • /
    • 2022
  • 최근 인공지능 기반 객체 탐지 기술이 발전함에 따라 영상 감시, 얼굴 인식, 로봇 제어, IoT, 자율주행, 제조업, 보안 등 다양한 분야에 활용되고 있다. 이에 본 논문은 발전된 객체 탐지 알고리즘을 이용하여 비전문가에겐 생소한 컴퓨터나 전기 장치 등의 '단자(terminal)' 모양을 구별하는 방법을 제안한다. 이를 위해 객체 탐지 프로그램인 You Only Look Once (YOLO) 알고리즘을 이용하여 입력한 단자들의 모양을 검출하는 알고리즘을 구성하였다. 일상에서 쉽게 볼 수 있는 단자들의 이미지(VGA, DVI, HDMI, DP, USB-A, USB-C)를 라벨링하여 데이터셋을 구축하였고, YOLOv4와 YOLOv5 두 버전의 알고리즘을 사용하여 성능을 검증하였다. 실험 결과 mean Average Precision(mAP) 기준 최대 92.9%의 정확도를 얻을 수 있었다. 전기 장치에 따라 단자의 모양이 다양하고, 그 종류 또한 많기 때문에 본 연구가 방송 기술 등의 여러 분야에 응용될 것으로 기대된다.

  • PDF

Type of Mask Recognition in 20s (20대의 마스크 인식유형)

  • Cha, Su-Joung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.337-338
    • /
    • 2022
  • 본 연구에서는 마스크 착용이 필수가 된 시대를 살고 있는 20대를 대상으로 하여 마스크에 대해서 어떤 인식을 가지고 있는지를 조사하여 그 인식을 유형화하고 유형별 특성을 알아보고자 하였다. 이를 통해 마스크를 착용하는 사람들이 어떤 생각을 가지고 마스크를 사용하는가와 어떤 제품을 원하는지를 분석하고자 하였다. 본 연구는 Q방법론을 사용하였으며, 분석에는 쿼넬 pc프로그램을 활용하였다. 마스크에 대한 인식유형은 3개로 분류되었다. 유형 1은 마스크를 늘 착용하며 마스크가 비언어적 커뮤니케이션과 착용자의 이미지에 영향을 미친다고 생각하는 '상시 착용 영향 중시형'이었다. 유형 2는 마스크를 세균을 막기 위해 착용하며 마스크가 부정적 영향이 크다고 생각하는 '기능 중시 부정 인식형'이었다. 유형 3은 얼굴을 가리기 위해 마스크를 착용하고 마스크 착용 시 사람이 젊어 보인다고 생각하는 '은폐 착용 긍정 이미지형'이었다. 본 연구는 20대만을 대상으로 하여 다른 연령대의 마스크에 대한 인식을 알아보지 못하였다. 향후 연구에서는 다양한 연령대의 마스크에 대한 인식을 알아볼 필요가 있으며, 인식유형에 따른 마스크 디자인 개발에 관한 연구가 이루어져야 할 것으로 생각된다.

  • PDF

Kubernetes Microservices for Video-based Member Verification Application (Kubernetes를 활용한 영상 기반 멤버 검증 어플리케이션의 분산 배치 기법)

  • Kim, Young-kee;Kum, Seung-woo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.45-46
    • /
    • 2020
  • 중앙 집중형 구조로 인터넷을 통해 온디맨드 컴퓨팅 리소스를 제공하는 클라우드 컴퓨팅 기술이 범용화 됨에 따라, 다양하고 높은 성능의 컴퓨팅 자원을 사용하는 어플리케이션이 늘고 있다. 하지만 특정 어플리케이션은 인터넷을 이용한 중앙 집중형 구조인 클라우드 컴퓨팅 자원을 사용하는 경우 서비스 품질에 영향을 받을 수 있다. 본 연구는 영상 기반 멤버 검증 어플리케이션의 운용에 있어 영상 데이터의 방대한 크기에 따른 지연시간, 네트워크 병목현상 및 영상에 포함된 얼굴 이미지로 인한 개인신상정보 관련 문제 등을 완화하기 위한 마이크로서비스화 및 분산 배치 기법을 보인다. 또한 이 멤버 검증 어플리케이션의 분산 배치 기법을 적용하여 Docker 컨테이너 단위 마이크로서비스의 배포, 스케일링, 운영을 자동화하기 위한 오픈소스 플랫폼인 Kubernetes를 활용하여 구현함으로써 검증하였다.

  • PDF

GAN-based avatar generation and animation for video conferencing service (화상회의 서비스를 위한 GAN 기반 아바타 생성 및 애니메이션 구현 기술)

  • Moon, Ji-Eun;Kim, Ji-Yun;Park, Ji-Hye;Ahn, Hyo-Won;Lee, Kyoung-Mi
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.761-763
    • /
    • 2022
  • 코로나19 이후 화상회의 빈도가 높아지면서 줌 피로라는 신조어가 등장할 만큼 상대방을 가까이 마주하며 회의를 진행하는 것이 사람들의 피로도를 상승시키고 있다. 본 논문에서는 얼굴 합성과 이미지 애니메이션을 이용한 아바타를 통해 사용자가 화상회의에 참가할 수 있는 시스템을 제안한다. 사용자와 닮은 개성 있는 캐릭터는 실시간으로 사용자의 표정 및 움직임을 반영하여 화상회의에 적용될 수 있고 채팅과 커뮤니티에서 캐릭터의 이모티콘으로 감정을 표현할 수 있다.

Research Trends of Adversarial Attack Techniques in Text (텍스트 분야 적대적 공격 기법 연구 동향)

  • Kim, Bo-Geum;Kang, Hyo-Eun;Kim, Yongsu;Kim, Ho-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.420-422
    • /
    • 2022
  • 인공지능 기술이 문서 분류, 얼굴 인식, 자율 주행 등 실생활 전반에 걸쳐 다양한 분야에 적용됨에 따라, 인공지능 모델에 대한 취약점을 미리 파악하고 대비하는 기술의 중요성이 높아지고 있다. 이미지 영역에서는 입력 데이터에 작은 섭동을 추가해 신경망을 속이는 방법인 적대적 공격 연구가 활발하게 이루어졌지만, 텍스트 영역에서는 텍스트 데이터의 이산적인 특징으로 인해 연구에 어려움이 존재한다. 본 논문은 텍스트 분야 인공지능 기술에 대한 적대적 공격 기법을 분석하고 연구의 필요성을 살펴보고자 한다.

Mask detection in complex scenes using an ensemble of YOLO models (YOLO 모델 앙상블을 이용한 복잡한 장면에서의 Mask Detection 기법)

  • Hu, Xufeng;Lim, Hyunseok;Gwak, Jeonghwan
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.97-98
    • /
    • 2022
  • 코로나바이러스-19 팬데믹 이후 매일 수만 명의 환자가 발생하고 있다. 보건당국은 사람들의 생활 안전을 보호하기 위해 공항, 정류장 등 공공장소에서는 반드시 마스크를 착용하라고 지시하고 있다. 마스크를 착용하는 목적은 감염으로부터 신체를 보호하고 바이러스 전파와 확산을 막기 위한 것이다. 공공장소에서는 많은 인원에 대한 일괄적인 마스크 착용 검사를 하기 어렵고, 육안으로 확인하는 마스크 착용 검사 방법은 인파가 몰리는 장소에서 검사 효율이 떨어지며 누락되는 경우도 많이 발생한다. 본 연구에서는 입력 이미지에 존재하는 얼굴 영역을 YOLOv4와 YOLOv5 모델을 통해 예측하여 마스크의 착용 여부를 판단하되, 앙상블 기법을 적용하여 보다 효과적인 BB(Bounding Box) 추출 및 마스크 착용 탐지 기법을 적용한다. 따라서 공공장소의 마스크 착용실태를 효과적으로 모니터링 할 수 있는 방법을 제안한다.

  • PDF

Remote Management System For Newborns In Postpartum Care (산후조리원 내 신생아를 위한 원격 관리 시스템)

  • Jung, Yi-jin;Go, Ji-yeon;Wi, Da-yeon;Lee, Hye-bin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.1019-1021
    • /
    • 2022
  • 본 연구는 산후조리원 내 신생아를 위한 원격 관리 시스템을 제안한다. 기존 시스템들은 공기질 문제만을 해결하거나, 모니터링 문제만을 해결하는 등 단순한 동작과 감시에 초점이 맞추어졌으나, 제안하는 시스템은 실내와 신생아 주변에 설치된 각각의 센서를 통하여 공기질을 포함한 실내 환경과 신생아를 모니터링하여 간호사와 산모가 쉽게 신생아의 건강을 웹과 엡으로 모니터링하고 원격으로 관리한다. 또한, OpenCV 라이브러리를 이용하여 신생아의 얼굴을 인식하고 표정별 이미지를 저장할 수 있도록 설계 및 구현하고 있다.

Smart door locks with facial recognition (안면 인식이 적용된 스마트 도어락)

  • Da-Young Lee;Jea-Wook Jeon;Yun-Seo Ha;Hyuck-Jun Suh
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.788-789
    • /
    • 2023
  • 기존 도어락의 핀 인증 방식은 사용자에 따라 불편함을 느끼기도 한다. 이에 대한 솔루션으로 안면인식 도어락을 제안하며 Jetson nano에 face recognition 딥러닝 모델을 적용한 도어락을 제작한다. 거주자의 이미지를 촬영한 뒤 얼굴의 특징점을 분석하여 저장한다. 사용자가 도어락의 카메라에 인식되었을 때 저장된 안면 정보를 바탕으로 사용자가 거주자의 특징점과 일치하는지 확인한다. 거주자임이 인지되었을 때 도어락은 unlock되어 열리게 된다. 안면 인식 도어락 사용 시 보안상 취약해질 수 있는 기존 도어락의 핀 인증 방식에 대해 보안을 강화할 수 있으며 카메라를 통해 촬영된 사용자의 사진 및 영상을 활용하여 여러 서비스를 적용할 수 있다.

Syllable Composition of Korean Manual Alphabet Based on Grid Matching (그리드 매칭에 기반한 지문자 음절 구성)

  • Oh, Young-Joon;Park, Kwang-Hyun;Bien, Zeungnam
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.76-79
    • /
    • 2007
  • 수화는 하나의 제스처가 하나의 단어를 나타내는 수화 단어와 한글을 알파벳으로 표현하는 지문자로 구성되어 있다. 본 논문에서는 USB 카메라로부터 촬영한 영상을 얻고 히스토그램을 이용하여 피부색 영역을 추출한다. 얼굴 영역 추적을 활용하여 이미지를 그리드화하고 지문자의 위치를 파악하여 초성, 중성, 종성을 구분하고 한글 음절을 구성하였다.

Artificial Intelligence for Assistance of Facial Expression Practice Using Emotion Classification (감정 분류를 이용한 표정 연습 보조 인공지능)

  • Dong-Kyu, Kim;So Hwa, Lee;Jae Hwan, Bong
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.17 no.6
    • /
    • pp.1137-1144
    • /
    • 2022
  • In this study, an artificial intelligence(AI) was developed to help with facial expression practice in order to express emotions. The developed AI used multimodal inputs consisting of sentences and facial images for deep neural networks (DNNs). The DNNs calculated similarities between the emotions predicted by the sentences and the emotions predicted by facial images. The user practiced facial expressions based on the situation given by sentences, and the AI provided the user with numerical feedback based on the similarity between the emotion predicted by sentence and the emotion predicted by facial expression. ResNet34 structure was trained on FER2013 public data to predict emotions from facial images. To predict emotions in sentences, KoBERT model was trained in transfer learning manner using the conversational speech dataset for emotion classification opened to the public by AIHub. The DNN that predicts emotions from the facial images demonstrated 65% accuracy, which is comparable to human emotional classification ability. The DNN that predicts emotions from the sentences achieved 90% accuracy. The performance of the developed AI was evaluated through experiments with changing facial expressions in which an ordinary person was participated.