• 제목/요약/키워드: face-to-face interaction

검색결과 401건 처리시간 0.025초

LED 모니터 출력 영상과 실물 영상의 얼굴인식 성능 비교 (A Study on Face Recognition Performance Comparison of Real Images with Images from LED Monitor)

  • 조미영;정영숙;전병태
    • 전자공학회논문지
    • /
    • 제50권5호
    • /
    • pp.144-149
    • /
    • 2013
  • 로봇 기술의 빠른 발전과 더불어 다양한 서비스를 탑재한 로봇 제품의 출시로 시장이 활성화되고 있다. 서비스 로봇은 사람과 로봇간 상호작용에 의한 서비스 제공이 주목적으로 이를 위해 HRI 대표 기술인 얼굴 인식 기술을 많이 활용하고 있다. 하지만 얼굴 인식 엔진이 탑재된 로봇의 성능이 소비자가 만족할만한 수준에 미치지 못하여 로봇 제품에 대한 신뢰도마저 저하되고 있다. 대부분 로봇의 얼굴 인식 성능시험은 제품 관점에서 평가가 아닌 인식 엔진 관점에서 평가로 로봇의 직접적인 성능을 반영하지 못한다. 이에 본 논문에서는 로봇 제품 관점에서 얼굴 인식 성능평가를 위해 실물 영상을 대신하여 LED 모니터의 이용 가능성을 검증하고자 한다. 이를 위해 실물 영상과 LED 모니터 영상의 인식룰 편차를 비교하고 타당성을 제시한다.

PERSONAL SPACE-BASED MODELING OF RELATIONSHIPS BETWEEN PEOPLE FOR NEW HUMAN-COMPUTER INTERACTION

  • Amaoka, Toshitaka;Laga, Hamid;Saito, Suguru;Nakajima, Masayuki
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.746-750
    • /
    • 2009
  • In this paper we focus on the Personal Space (PS) as a nonverbal communication concept to build a new Human Computer Interaction. The analysis of people positions with respect to their PS gives an idea on the nature of their relationship. We propose to analyze and model the PS using Computer Vision (CV), and visualize it using Computer Graphics. For this purpose, we define the PS based on four parameters: distance between people, their face orientations, age, and gender. We automatically estimate the first two parameters from image sequences using CV technology, while the two other parameters are set manually. Finally, we calculate the two-dimensional relationship of multiple persons and visualize it as 3D contours in real-time. Our method can sense and visualize invisible and unconscious PS distributions and convey the spatial relationship of users by an intuitive visual representation. The results of this paper can be used to Human Computer Interaction in public spaces.

  • PDF

대학 실시간 온라인 교육에서의 상호작용 요소 탐색과 수준 분석 (An Exploration of Interaction Factors and Analysis on Interaction-Level of Synchronous Online Education in University)

  • 한형종
    • 한국콘텐츠학회논문지
    • /
    • 제21권4호
    • /
    • pp.14-25
    • /
    • 2021
  • 본 연구는 대학 교육에 있어서 실시간 온라인 교육의 상호작용 수준을 확인하고 상호작용적 요소가 무엇인지를 탐색하는 목적을 지닌다. 이를 위해 혼합연구 방법을 활용하였다. 연구 결과, 상호작용 수준에 대해 대학의 학습자들은 면대면 교육이 실시간 온라인 교육보다 상호작용이 효과적으로 이루어질 수 있다고 인식하였다. 실시간 온라인 교육은 비실시간 온라인 교육보다 교수자와 학습자, 학습자 간 상호작용이 보다 잘 이루어질 수 있다고 인식하고 있었다. 실시간 온라인 교육에서 상호작용에 영향을 미치는 요소로는 소그룹 활동과 스캐폴딩, 의사소통 통로의 다양화, 학습자 질문을 학습 내용에 통합 반영하는 것으로 나타났다. 실시간 온라인 교육에서 상호작용을 저해하는 요소에는 교수자와 학습자 간 느껴지는 거리감, 학습자 간 낮은 친밀감, 내용이나 지식 전달 중심의 교육, 비언어적 의사소통 정보의 제한, 안정적이지 못한 시스템이나 마이크의 잘못된 사용 등으로 나타났다. 상호작용 촉진을 위한 필요 요소로는 상호작용적 수업 활동 등이 제시되었다. 이상의 결과를 기반으로 상호작용이 보다 효과적으로 이루어지기 위해 어떠한 노력이 필요한지를 교수학습 방법과 활동, 도구 및 시스템, 환경 측면에서 제안하고자 하였다.

3차원 유한요소해석을 통한 shield TBM 터널 근접시공에 의한 인접 단독말뚝의 거동에 대한 연구 (A study on the behaviour of pre-existing single piles to adjacent shield TBM tunnelling from three-dimensional finite element analyses)

  • 전영진;전승찬;전상준;이철주
    • 한국터널지하공간학회 논문집
    • /
    • 제22권1호
    • /
    • pp.23-46
    • /
    • 2020
  • 본 연구에서는 터널 근접 시공으로 인한 기 존재 단독말뚝의 공학적 거동을 파악하기 위하여 터널로부터 말뚝선단의 이격거리와 막장압의 변화를 고려한 3차원 유한요소해석을 수행하였다. 수치해석에서는 터널 막장압을 고려하여 말뚝의 거동을 분석하였으며, 터널굴착으로 유발되는 지반침하, 말뚝두부침하, 말뚝축력 및 말뚝-지반 사이의 경계면에서 발생하는 전단응력을 고찰하였다. 말뚝이 터널 크라운(crown) 바로 상부에 위치하고 말뚝선단까지의 수직 이격거리가 0.25D (여기서, D는 터널직경)인 경우 초기 응력의 50%에 해당하는 막장압을 적용할 경우 25%의 막장압을 적용한 것과 비교한 결과 말뚝두부의 침하가 약 38% 감소하였다. 또한, 막장압의 크기가 작을수록 지반침하, 말뚝의 축력 및 말뚝-지반 사이에서 발생하는 전단응력이 증가하며, 말뚝이 터널굴착 영향권 밖에 존재할 경우 말뚝에는 압축력 형태의 축력이 발생하였다. 따라서 막장압의 크기 및 터널-말뚝선단의 상대위치는 지반 침하와 말뚝 침하에 큰 영향을 미치는 것으로 분석되었다. 본 연구에서 수행된 연구결과의 경우 기존에 보고된 연구결과를 바탕으로 비교분석을 실시하였으며, 터널굴착으로 인한 말뚝의 거동을 심도 있게 분석하였다.

안정적인 실시간 얼굴 특징점 추적과 감정인식 응용 (Robust Real-time Tracking of Facial Features with Application to Emotion Recognition)

  • 안병태;김응희;손진훈;권인소
    • 로봇학회논문지
    • /
    • 제8권4호
    • /
    • pp.266-272
    • /
    • 2013
  • Facial feature extraction and tracking are essential steps in human-robot-interaction (HRI) field such as face recognition, gaze estimation, and emotion recognition. Active shape model (ASM) is one of the successful generative models that extract the facial features. However, applying only ASM is not adequate for modeling a face in actual applications, because positions of facial features are unstably extracted due to limitation of the number of iterations in the ASM fitting algorithm. The unaccurate positions of facial features decrease the performance of the emotion recognition. In this paper, we propose real-time facial feature extraction and tracking framework using ASM and LK optical flow for emotion recognition. LK optical flow is desirable to estimate time-varying geometric parameters in sequential face images. In addition, we introduce a straightforward method to avoid tracking failure caused by partial occlusions that can be a serious problem for tracking based algorithm. Emotion recognition experiments with k-NN and SVM classifier shows over 95% classification accuracy for three emotions: "joy", "anger", and "disgust".

모바일 상황정보와 온라인 친구네트워크정보 기반 텐서 분해를 통한 오프라인 친구 추천 기법 (Offline Friend Recommendation using Mobile Context and Online Friend Network Information based on Tensor Factorization)

  • 김경민;김태훈;현순주
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제22권8호
    • /
    • pp.375-380
    • /
    • 2016
  • 스마트폰과 Online Social Network Service(OSNS)의 대중화를 통해 언제 어디서든 주변인뿐만 아니라 전 세계 사람들과 상호작용 할 수 있게 되었고, 그 결과 사람들의 OSNS 사용률은 계속 증가하고 있다. 그런데, 일부 OSNS를 통한 대인관계 형성에 집중하는 사람들의 경우, 수많은 Face-to-Face Interaction(F2F Interaction)을 통해 형성되는 인간관계의 과정을 "친구추천" 버튼 하나로 건너뜀으로써 대인관계 기술 발달 및 유지에 어려움을 겪을 수 있다. 본 논문에서는 오프라인에서 F2F Interaction 기회를 발견 및 제공할 수 있는 상황정보 기반의 친구추천 기법을 제시한다. 이를 위해 스마트폰 센서로부터 사용자의 상황정보와 Facebook에서 형성된 사용자 친구관계 정보를 수집하여 텐서 분해 및 결합을 기반으로 오프라인 환경에서 친구를 추천한다. 성능 평가를 위해 12명의 실험 참가자로부터 상황정보를 수집하고, 만족도를 평가하였다.

An FPGA-based Parallel Hardware Architecture for Real-time Eye Detection

  • Kim, Dong-Kyun;Jung, Jun-Hee;Nguyen, Thuy Tuong;Kim, Dai-Jin;Kim, Mun-Sang;Kwon, Key-Ho;Jeon, Jae-Wook
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제12권2호
    • /
    • pp.150-161
    • /
    • 2012
  • Eye detection is widely used in applications, such as face recognition, driver behavior analysis, and human-computer interaction. However, it is difficult to achieve real-time performance with software-based eye detection in an embedded environment. In this paper, we propose a parallel hardware architecture for real-time eye detection. We use the AdaBoost algorithm with modified census transform(MCT) to detect eyes on a face image. We parallelize part of the algorithm to speed up processing. Several downscaled pyramid images of the eye candidate region are generated in parallel using the input face image. We can detect the left and the right eye simultaneously using these downscaled images. The sequential data processing bottleneck caused by repetitive operation is removed by employing a pipelined parallel architecture. The proposed architecture is designed using Verilog HDL and implemented on a Virtex-5 FPGA for prototyping and evaluation. The proposed system can detect eyes within 0.15 ms in a VGA image.

긍정감정을 유도하기 위한 모방학습을 이용한 상호작용 시스템 프로토타입 개발 (Development of An Interactive System Prototype Using Imitation Learning to Induce Positive Emotion)

  • 오찬해;강창구
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권4호
    • /
    • pp.239-246
    • /
    • 2021
  • 컴퓨터 그래픽스 및 HCI 분야에서 캐릭터를 만들고 자연스럽게 상호작용하는 시스템에 관한 많은 연구가 있었다. 이와 같은 연구들은 사용자의 행동에 대한 반응에 중점을 두었으며, 사용자에게 긍정적 감정을 끌어내기 위한 캐릭터의 행동 연구는 여전히 어려운 문제로 남아있다. 본 논문에서는 인공지능 기술을 이용하여 가상 캐릭터의 움직임에 따른 사용자의 긍정적 감정을 끌어내기 위한 상호작용 시스템 프로토타입을 개발한다. 제안된 시스템은 표정 인식과 가상 캐릭터의 동작 생성으로 구분된다. 표정 인식을 위해 깊이 카메라를 사용하며 인식된 사용자의 표정 데이터는 동작 생성으로 전달된다. 우리는 개인화된 상호작용 시스템 개발을 위하여 학습모델로서 모방학습을 사용한다. 동작 생성에서는 최초 사용자의 표정 데이터에 따라 무작위 행동을 수행하고 지속적인 모방학습을 통하여 사용자가 긍정적 감정을 끌어낼 수 있는 행동을 학습한다.

조명 변화에 강인한 실시간 얼굴 추적 알고리즘 (Real-Time Face Tracking Algorithm Robust to illumination Variations)

  • 이용범;유범재;이성환;김광배
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.3037-3040
    • /
    • 2000
  • Real-Time object tracking has emerged as an important component in several application areas including machine vision. surveillance. Human-Computer Interaction. image-based control. and so on. And there has been developed various algorithms for a long time. But in many cases. they have showed limited results under uncontrolled situation such as illumination changes or cluttered background. In this paper. we present a novel. computationally efficient algorithm for tracking human face robustly under illumination changes and cluttered backgrounds. Previous algorithms usually defines color model as a 2D membership function in a color space without consideration for illumination changes. Our new algorithm developed here. however. constructs a 3D color model by analysing plenty of images acquired under various illumination conditions. The algorithm described is applied to a mobile head-eye robot and experimented under various uncontrolled environments. It can track an human face more than 100 frames per second excluding image acquisition time.

  • PDF

A Study on the Tele-medicine Robot System with Face to Face Interaction

  • Shin, Dae Seob
    • 전기전자학회논문지
    • /
    • 제24권1호
    • /
    • pp.293-301
    • /
    • 2020
  • Consultation with the patient and doctor is very important in the examination. However, if the consultation cannot be done directly, such as corona virus, it is difficult for the doctor to determine the patient's condition more accurately. Recently, an image counseling system has been developed based on the Internet, but in the case of heart disease, remote medical counseling cannot be performed because it is not possible to stethoscope the heart sounds remotely. In order to solve this problem, it is necessary to develop an interactive mobile robot capable of remote medical consultation, and a doctor and a patient should be able to set a planting sound during consultation and transmit it in real time. In this paper, we developed a robot that can remotely control a medical counseling robot to move to a hospital room where patients are hospitalized, and to consult a patient in the room remotely from a doctor's office. A remote medical imaging stethoscope system for real-time heart sound transmission is presented. The proposed system is a kind of P2P communication that transmits video information, audio information, and control signal independently through webRTC platform, so that there is no data loss. Consults and sees doctors in real time and finds it more effective than traditional methods for patient security. The system implemented in this paper will be able to perform remote medical care in the place where the spread of diseases between humans like the recent corona 19 as well as the remote medical care of heart disease patients in the future.