• 제목/요약/키워드: Robot Vision

검색결과 877건 처리시간 0.028초

캠시프트와 KLT특징 추적 알고리즘을 융합한 모바일 로봇의 영상기반 사람추적 및 추종 (A vision based people tracking and following for mobile robots using CAMSHIFT and KLT feature tracker)

  • 이상진;원문철
    • 한국멀티미디어학회논문지
    • /
    • 제17권7호
    • /
    • pp.787-796
    • /
    • 2014
  • Many mobile robot navigation methods utilize laser scanners, ultrasonic sensors, vision camera, and so on for detecting obstacles and path following. However, human utilizes only vision(e.g. eye) information for navigation. In this paper, we study a mobile robot control method based on only the camera vision. The Gaussian Mixture Model and a shadow removal technology are used to divide the foreground and the background from the camera image. The mobile robot uses a combined CAMSHIFT and KLT feature tracker algorithms based on the information of the foreground to follow a person. The algorithm is verified by experiments where a person is tracked and followed by a robot in a hallway.

Dual Manipulator와 Stereo Vision을 이용한 서비스 로봇 (Design of a service robot with dual manipulators and stereo vision)

  • 이대희;이희국;우경석;함상화;박주현;이석규
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2003년도 학술회의 논문집 정보 및 제어부문 B
    • /
    • pp.743-746
    • /
    • 2003
  • The service robot, with stereo vision system and dual manipulator of four degree of freedom, has been designed. A fuzzy controller has been implemented for effectively actuating the manipulator of the robot. The fuzzy controller determines operation mode(single or dual manipulators) and orientation from the information of object position and distance. Through actual experimentation, we have confirmed that the robot system with human-like movement of grabber has been executed a rapid and effective motion.

  • PDF

이동로봇의 불확실성을 고려한 시각 랜드마크의 자동 추출 (Automatic Extraction of Stable Visual Landmarks for a Mobile Robot under Uncertainty)

  • 문인혁;조강현;윤형로
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.264-264
    • /
    • 2000
  • In this paper, we propose a method to automatically extract stable visual landmarks from observed data for a mobile robot with stereo vision system. The robot selects as stable landmarks vertical line segments which are distinct and on planar surfaces, because they are expected to be observed reliably from various view-points. When the robot moves, it uses several, less uncertain landmarks for estimating its motion. Experimental results in real scenes show the validity of the proposed method.

  • PDF

다중 표식을 이용한 자율이동로봇의 자기위치측정 (Self-Localization of Autonomous Mobile Robot using Multiple Landmarks)

  • 강현덕;조강현
    • 제어로봇시스템학회논문지
    • /
    • 제10권1호
    • /
    • pp.81-86
    • /
    • 2004
  • This paper describes self-localization of a mobile robot from the multiple candidates of landmarks in outdoor environment. Our robot uses omnidirectional vision system for efficient self-localization. This vision system acquires the visible information of all direction views. The robot uses feature of landmarks whose size is bigger than that of others in image such as building, sculptures, placard etc. Robot uses vertical edges and those merged regions as the feature. In our previous work, we found the problem that landmark matching is difficult when selected candidates of landmarks belonging to region of repeating the vertical edges in image. To overcome these problems, robot uses the merged region of vertical edges. If interval of vertical edges is short then robot bundles them regarding as the same region. Thus, these features are selected as candidates of landmarks. Therefore, the extracted merged region of vertical edge reduces the ambiguity of landmark matching. Robot compares with the candidates of landmark between previous and current image. Then, robot is able to find the same landmark between image sequences using the proposed feature and method. We achieved the efficient self-localization result using robust landmark matching method through the experiments implemented in our campus.

효과적인 인간-로봇 상호작용을 위한 딥러닝 기반 로봇 비전 자연어 설명문 생성 및 발화 기술 (Robot Vision to Audio Description Based on Deep Learning for Effective Human-Robot Interaction)

  • 박동건;강경민;배진우;한지형
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.22-30
    • /
    • 2019
  • For effective human-robot interaction, robots need to understand the current situation context well, but also the robots need to transfer its understanding to the human participant in efficient way. The most convenient way to deliver robot's understanding to the human participant is that the robot expresses its understanding using voice and natural language. Recently, the artificial intelligence for video understanding and natural language process has been developed very rapidly especially based on deep learning. Thus, this paper proposes robot vision to audio description method using deep learning. The applied deep learning model is a pipeline of two deep learning models for generating natural language sentence from robot vision and generating voice from the generated natural language sentence. Also, we conduct the real robot experiment to show the effectiveness of our method in human-robot interaction.

실시간 로봇 위치 제어를 위한 확장 칼만 필터링의 비젼 저어 기법 개발 (Development of Vision Control Scheme of Extended Kalman filtering for Robot's Position Control)

  • 장완식;김경석;박성일;김기영
    • 비파괴검사학회지
    • /
    • 제23권1호
    • /
    • pp.21-29
    • /
    • 2003
  • 실시간 로봇 위치 제어를 위해 비젼시스템을 사용할 때 이 모델에 포함된 매개변수를 추정하는데 있어 계산시간을 줄이는 것은 매우 중요하다. 불행히도 흔히 사용되고 있는 일괄 처리 기법은 반복적으로 계산이 수행되기 때문에 많은 계산 시간을 필요로 하여 실시간 로봇 위치 제어를 어렵게 한다. 반면에 본 연구에서 사용하고자 하는 화장 칼만 필터링은 사용하기 편리하고, 또한 순환적 방법으로 계산되기 때문에 비젼시스템의 매개변수를 계산하는데 있어 시간을 줄이는 커다란 장점을 가지고 있다. 따라서 본 연구에서는 실시간 로봇 위치 제어를 위해 사용하는 비젼 제어 기법에 확장 칼만 필터링을 적용되었다 여기서 사용된 비젼시스템 모델은 카메라 내부 매개변수(방향, 초점거리 등) 및 외부 매개변수(카메라와 로봇 사이의 상대적 위치)를 설명하기 위해 6개 매개변수를 포함하고 있다. 이러한 매개변수를 추정하기 위해 확장 칼만 필터링 기법이 적용되었다. 또한 이렇게 추정된 6개 매개변수를 사용하여 로봇을 구동시키기 위해 필요한 로봇 회전각 추정에도 화장 칼만 필터링 기법이 적용되었다. 최종적으로 확장 칼만 필터링을 사용하여 개발된 비젼 제어 기법의 타당성을 로봇 위치 제어 실험을 수행하여 확인하였다.

비전과 퍼지 규칙을 이용한 이동로봇의 경로계획과 장애물회피 (Path Planning and Obstacle Avoidance for Mobile Robot with Vision System Using Fuzzy Rules)

  • 배봉규;채양범;이원창;강근택
    • 한국지능시스템학회논문지
    • /
    • 제11권6호
    • /
    • pp.470-476
    • /
    • 2001
  • 본 논문에서는 미지의 환경에서 동작하는 비전 시스템을 갖는 이동로봇의 경로 계획과 장애물 회피를 위한 새로운 알고리즘을 제안하고자 한다. 목표점에 도달하기 위한 경로계획과 장애물회피를 위해 거리 변화율 기법을 적용하였으며, 소벨연산자를 이용하여 장애물의 윤곽을 추출하였다. 이동로봇의 자율성을 향상시키기 위해 경로 설정과 장애물 회피에 퍼지 규직을 사용하였다. 본 논문에서 제안된 알고리즘을 컴퓨터시뮬레이션을 통해 기존의 벡터장 기법을 이용한것보다 우수하다는것을 알수 있었다. 또한 실효성을 실제로 알아보기 위해 소형 이동로봇을 제작하였으며, 제안된 알고리즘을 탑재하여 실험한 결과 복잡한 주변환경하에서도 좋은 성능을 발휘함을 확인할수 있었다.

  • PDF

안정적 보행을 위한 이족 로봇의 환경 인식 시스템 연구 (A Study on the Environment Recognition System of Biped Robot for Stable Walking)

  • 송희준;이선구;강태구;김동원;박귀태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 제37회 하계학술대회 논문집 D
    • /
    • pp.1977-1978
    • /
    • 2006
  • This paper discusses the method of vision based sensor fusion system for biped robot walking. Most researches on biped walking robot have mostly focused on walking algorithm itself. However, developing vision systems for biped walking robot is an important and urgent issue since biped walking robots are ultimately developed not only for researches but to be utilized in real life. In the research, systems for environment recognition and tele-operation have been developed for task assignment and execution of biped robot as well as for human robot interaction (HRI) system. For carrying out certain tasks, an object tracking system using modified optical flow algorithm and obstacle recognition system using enhanced template matching and hierarchical support vector machine algorithm by wireless vision camera are implemented with sensor fusion system using other sensors installed in a biped walking robot. Also systems for robot manipulating and communication with user have been developed for robot.

  • PDF