• 제목/요약/키워드: Robot Interaction

검색결과 481건 처리시간 0.025초

로봇을 활용한 초등학생용 사회성 기술 훈련 '사또(사이좋은 또래)' 콘텐츠 개발 (Development of Robot-Mediated Social Skills Training 'Friendly Friends' Contents for Elementary School Students)

  • 임보령;백예은;박지연
    • 한국콘텐츠학회논문지
    • /
    • 제22권8호
    • /
    • pp.44-53
    • /
    • 2022
  • 본 연구에서는 로봇을 활용한 초등학생용 사회성 기술 훈련 콘텐츠를 기획하고 개발하였다. 훈련 콘텐츠 내에 로봇이 담당할 수 있는 기능을 분석하여 7가지 기능(활동 안내, 강화 제공, 행동지도, 팀 설정, 팀 순서 안내, 타이머 설정, 점수 확인)을 선정한 후, 초등학교 학령기 학생들의 학업성취 및 사회적 상호작용에 요구되는 사회성 기술을 바탕으로 총 8회기의 사회성 기술 훈련 콘텐츠를 개발하였다. 콘텐츠 현장적용을 위한 수업은 사회성 기술 훈련을 위한 증거기반 전략을 활용하여 긍정적 예시 및 부정적 예시 제공, 모델링, 역할극, 수행 피드백, 일반화 단계로 구성하였다. 초등학생을 위한 로봇활용 사회성 기술 훈련 콘텐츠, 즉 '사또(사이좋은 또래)' 콘텐츠를 개발한 후, 수용 양상을 살펴보기 위해 콘텐츠 현장적용 및 참여학생과 현장교사를 대상으로 만족도 조사를 실시한 결과, 참여학생과 현장교사의 만족도가 높은 것으로 나타났다. 마지막으로 '사또' 콘텐츠 개발의 의미와 기대효과에 대해 논의하고, 향후 로봇활용 사회성 기술 훈련 콘텐츠를 개발할 때 고려해야 할 사항을 제언하였다.

영상 피드백을 이용한 단일 영상에서의 적응적 피부색 검출 (Adaptive Skin Color Segmentation in a Single Image using Image Feedback)

  • 도준형;김근호;김종열
    • 대한전자공학회논문지SP
    • /
    • 제46권3호
    • /
    • pp.112-118
    • /
    • 2009
  • 피부색 검출 기법은 안면 정보를 이용한 체질 진단 및 건강 진단, 인간과 로봇과의 상호작용, 영상 검색 시스템 등 다양한 응용분야에서 사람의 얼굴과 손의 검출을 위해 많이 사용되어 왔다. 비디오 영상의 경우 조명이나 환경 변화에 강인한 피부색 영역의 추적을 위해 매 프레임마다 대상 영역의 피부색 모델을 업데이트 하는 것이 일반적이나, 단일 영상에서 피부색 영역을 검출하거나 비디오 영상의 첫 프레임에서 피부색 영역을 검출할 때에는, 많은 연구들이 하나의 고정된 피부색 모델을 이용하기 때문에 입력 영상의 특징에 따라 낮은 검출율이나 높은 긍정 오류율이 발생하는 경우가 많다. 이러한 문제점을 해결하기 위해 본 논문에서는 피부색 검출 결과를 피드백 받아 피드백 받은 정보를 바탕으로 피부색 검출 조건을 수정하는 과정을 반복함으로써 다양한 환경 조건들을 가지는 단일 영상에 대해 효과적으로 피부색을 검출할 수 있는 방법을 제안한다.

An Innovative Approach to Track Moving Object based on RFID and Laser Ranging Information

  • Liang, Gaoli;Liu, Ran;Fu, Yulu;Zhang, Hua;Wang, Heng;Rehman, Shafiq ur;Guo, Mingming
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권1호
    • /
    • pp.131-147
    • /
    • 2020
  • RFID (Radio Frequency Identification) identifies a specific object by radio signals. As the tag provides a unique ID for the purpose of identification, RFID technology effectively solves the ambiguity and occlusion problem that challenges the laser or camera-based approach. This paper proposes an approach to track a moving object based on the integration of RFID and laser ranging information using a particle filter. To be precise, we split laser scan points into different clusters which contain the potential moving objects and calculate the radial velocity of each cluster. The velocity information is compared with the radial velocity estimated from RFID phase difference. In order to achieve the positioning of the moving object, we select a number of K best matching clusters to update the weights of the particle filter. To further improve the positioning accuracy, we incorporate RFID signal strength information into the particle filter using a pre-trained sensor model. The proposed approach is tested on a SCITOS service robot under different types of tags and various human velocities. The results show that fusion of signal strength and laser ranging information has significantly increased the positioning accuracy when compared to radial velocity matching-based or signal strength-based approaches. The proposed approach provides a solution for human machine interaction and object tracking, which has potential applications in many fields for example supermarkets, libraries, shopping malls, and exhibitions.

이동 투사를 통한 실제 공간에서의 증강현실 시스템 (Augmented Reality System in Real Space using Mobile Projection)

  • 김모란;김준식
    • 방송공학회논문지
    • /
    • 제23권5호
    • /
    • pp.622-627
    • /
    • 2018
  • 본 논문에서는 소형 카메라와 프로젝터를 이용한 투사형 통합 증강현실 시스템에 대해 소개한다. 물체 인식을 위해 특징점 추출 알고리즘을 사용하며 물체의 깊이 정보는 구조광 방식을 이용해 추출한다. 인식된 물체에 대한 정보를 3차원 공간에 투사할 때, 가상카메라 개념을 이용한 투사 방법을 개발해 특정 점 집합간의 매핑(mapping)을 계산할 필요 없이 투사하고자 하는 대상의 메쉬(mesh)만을 가지고 원하는 위치에 영상을 투사할 수 있도록 일반화 시켰다. 따라서 단순한 평면뿐만 아니라 복잡한 곡면에 대해서도 복잡한 기하계산 없이 원하는 위치에 투사할 수 있게 되었다. 소개되는 내용에서는 소형 카메라와 프로젝터를 탑재한 로봇을 바탕으로 크게 프로젝터-카메라 시스템 캘리브레이션, 인식된 물체의 위치 계산 그리고 가상카메라 개념을 이용한 영상 투사 방법에 대해 설명한다.

Cascade 안면 검출기와 컨볼루셔널 신경망을 이용한 얼굴 분류 (Face Classification Using Cascade Facial Detection and Convolutional Neural Network)

  • 유제훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제26권1호
    • /
    • pp.70-75
    • /
    • 2016
  • 머신비전을 사용하여 사람의 얼굴을 인식하는 다양한 연구가 진행되고 있다. 머신비전은 기계에 시각을 부여하여 이미지를 분류 혹은 분석하는 기술을 의미한다. 본 논문에서는 이러한 머신비전 기술을 적용한 얼굴을 분류하는 알고리즘을 제안한다. 이 얼굴 분류 알고리즘을 구현하기 위해 컨볼루셔널 신경망(Convolution neural network)과 Cascade 안면 검출기를 사용하였고, 피험자들의 얼굴을 분류하였다. 구현한 얼굴 분류 알고리즘의 학습을 위해 한 피험자 당 이미지 2,000장, 3,000장, 40,00장을 10회와 20회 컨볼루셔널 신경망에 각각 반복하여 학습과 분류를 진행하였고, 학습된 컨볼루셔널 신경망과 얼굴 분류 알고리즘의 실효성을 테스트하기 위해 약 6,000장의 이미지를 분류하였다. 또한 USB 카메라 영상을 실험 데이터로 입력받아 실시간으로 얼굴을 검출하고 분류하는 시스템을 구현하였다.

바디 제스처 인식을 위한 기초적 신체 모델 인코딩과 선택적 / 비동시적 입력을 갖는 병렬 상태 기계 (Primitive Body Model Encoding and Selective / Asynchronous Input-Parallel State Machine for Body Gesture Recognition)

  • 김주창;박정우;김우현;이원형;정명진
    • 로봇학회논문지
    • /
    • 제8권1호
    • /
    • pp.1-7
    • /
    • 2013
  • Body gesture Recognition has been one of the interested research field for Human-Robot Interaction(HRI). Most of the conventional body gesture recognition algorithms used Hidden Markov Model(HMM) for modeling gestures which have spatio-temporal variabilities. However, HMM-based algorithms have difficulties excluding meaningless gestures. Besides, it is necessary for conventional body gesture recognition algorithms to perform gesture segmentation first, then sends the extracted gesture to the HMM for gesture recognition. This separated system causes time delay between two continuing gestures to be recognized, and it makes the system inappropriate for continuous gesture recognition. To overcome these two limitations, this paper suggests primitive body model encoding, which performs spatio/temporal quantization of motions from human body model and encodes them into predefined primitive codes for each link of a body model, and Selective/Asynchronous Input-Parallel State machine(SAI-PSM) for multiple-simultaneous gesture recognition. The experimental results showed that the proposed gesture recognition system using primitive body model encoding and SAI-PSM can exclude meaningless gestures well from the continuous body model data, while performing multiple-simultaneous gesture recognition without losing recognition rates compared to the previous HMM-based work.

모바일 증강현실을 위한 특징점 인식, 추적 기술 및 사례 연구 (Research Trends and Case Study on Keypoint Recognition and Tracking for Augmented Reality in Mobile Devices)

  • 최희승;안상철;김익재
    • 한국HCI학회논문지
    • /
    • 제10권2호
    • /
    • pp.45-55
    • /
    • 2015
  • 최근 증강현실 분야에서 특징점 인식 및 추적 기술은 비마커 기반의 증강 현실 서비스 구현에 중요한 역할을 담당하고 있다. 특징점 인식 및 추적 기술은 오래 전부터 컴퓨터 비전 등 여러 분야의 많은 연구자들에 의해 심도 있게 연구되어 왔으며, 특히 최근 급성장하고 있는 모바일 관련 시스템에 적용하기 위해 모바일 임베디드 환경에 접목 가능한 특징점 기반의 다양한 인식 및 추적 기술들이 소개되고 있다. 따라서 본 논문에서는 널리 활용되고 있는 특징점 기반의 매칭 및 추적의 다양한 핵심 요소 기술 (특징점 추출, 특징점 기술, 특징점 매칭 및 추적)에 대한 최신 동향을 분석하고, 본 한국과학기술연구원 연구팀이 수행한 모바일 증강현실 서비스 관련 사례 연구인 관광 지도 인식 및 추적 연구를 소개하고자 한다.

저전력 영상 특징 추출 하드웨어 설계를 위한 공통 부분식 제거 기법 기반 이미지 필터 하드웨어 최적화 (Image Filter Optimization Method based on common sub-expression elimination for Low Power Image Feature Extraction Hardware Design)

  • 김우석;이주성;안호명;김병철
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권2호
    • /
    • pp.192-197
    • /
    • 2017
  • 본 논문은 저전력 영상 특징 추출 하드웨어 설계를 위한 공통 부분식 제거 기법 기반 이미지 필터 하드웨어 최적화 기법을 제안한다. 저전력 및 고성능 물체인식 하드웨어는 공장 자동화를 위한 산업용 로봇에 필수 모듈로 채택되고 있다. 따라서 물체인식 하드웨어의 영상 특징 추출 알고리즘에 다양하게 적용되는 Gaussian gradient 필터 하드웨어의 저면적 설계가 필수적이다. Gaussian gradient 필터의 하드웨어 복잡도를 줄이기 위해 필터에 사용되는 계수의 Symmetric한 특징과 Transposed form FIR 필터 하드웨어 구조를 이용했다. 제안된 이미지 필터의 하드웨어 구조는 알고리즘에 적용된 계수의 변형 없이 구현되었기 때문에 윤곽선 검출 알고리즘에 적용했을 때 검출 데이터의 열화 없이 구현될 수 있다. 제안된 이미지 필터 하드웨어 구조는 기존 구조와 비교했을 때 곱셈기의 수를 50% 절감할 수 있음을 확인했다.

마우스 포인터 제어를 위해 지능형 인식을 이용한 핸드 인터페이스 (Hand Interface using Intelligent Recognition for Control of Mouse Pointer)

  • 박일철;김경훈;권구락
    • 한국정보통신학회논문지
    • /
    • 제15권5호
    • /
    • pp.1060-1065
    • /
    • 2011
  • 본 논문에서 제안 방법은 카메라로 들어오는 입력 영상에서 색상정보를 이용해 손을 인식한다. 이는 인식된 손을 이용해 마우스 포인터를 제어한다. 또한 마우스 포인터를 통해 특정 명령을 수행할 수 있도록 설계한다. 기존의 상호 작용 멀티미디어 시스템은 펜이나 마우스등과 같은 특정 외부 입력 장치들에 의존하였기 때문에 사용자가 불편함을 많이 느꼈다. 하지만 본 논문에서 제안하는 방법은 외부 입력 장치가 필요 없이 손을 이용하여 이러한 단점을 보완한다. 실험 방법으로는 카메라로부터 획득된 영상에서 색 정보를 이용하여 손 영역과 배경을 분리하고, 분리된 손 영역의 중심 좌표를 이용하여 모니터 상의 마우스 포인터 좌표를 결정한다. 이 좌표를 이용해 미리 입력된 영역에 마우스 포인터를 위치시키면 로봇에게 이동 명령을 실행하게 된다. 실험 결과로 제안한 알고리듬은 손 인식 률은 더 정확해졌지만, 여전히 조명에 따른 컬러 값의 변화에 민감하다.

3D 데이터 기반 영역의 stream data간 공간 mapping 기능 활용 객체 검출 라이브러리에 대한 연구 (Research on Object Detection Library Utilizing Spatial Mapping Function Between Stream Data In 3D Data-Based Area)

  • 석경휴;이소행
    • 한국전자통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.551-562
    • /
    • 2024
  • 본 연구는 이동 객체 추출 및 추적 방법 및 장치에 관한 것으로, 특히 인접 영상 간의 차영상을 이용하여 객체를 추출하고, 추출된 객체의 위치정보를 지속적으로 전달함으로써 적어도 하나의 이동 객체의 정확한 위치정보를 토대로 이동 객체를 추적하는 이동 객체 추출 및 추적 방법 및 장치에 관한 것이다. 사람과 컴퓨터의 상호작용의 표현에서 시작된 사람추적은 로봇학습, 객체의 카운팅, 감시 시스템 등의 많은 응용분야에서 사용되고 있으며, 특히 보안 시스템분야에서 카메라를 이용하여 사람을 인식하고 추적하여 위법행위를 자동적으로 찾아낼 수 있는 감시 시스템 개발의 중요성이 나날이 커져 가고 있다.