• 제목/요약/키워드: mobile vision system

검색결과 290건 처리시간 0.031초

가격 함수 및 비젼 정보를 이용한 이동매니퓰레이터의 작업 수행 (Task Performance of a Mobile Manipulator using Cost Function and Vision Information)

  • 강진구;이관형
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.345-354
    • /
    • 2005
  • 이동매니퓰레이터는 -이동로봇과 작업로봇이 직렬로 결합된 형태 - 작업 공간 밖에 존재하는 작업에 대하여 높은 성능으로 작업을 수행할 수 있으므로 고정 베이스 구조의 매니이퓰레이터에 비하여 다양한 작업 환경에서 유용하다. 임의의 위치에 있는 물체를 인식하기 위하여 이동매니퓰레이터에 부착된 2자유도의 능동카메라에 의해 입력되는 영상과 능동카메라의 기구학적 관계에 기초를 두는 직각좌표계를 이용하여 물체의 위치와 이동로봇의 위치를 구하는 방법을 제시한다. 동차행렬을 이용하여 이미지정보와 물체의 위치를 해석하므로 이동매니퓰레이터의 최적경로를 생성한다. 최종적으로, 물체의 인식을 통하여 작업로봇을 제어할 수 있는 조인트변수의 값을 계산한다. 제안된 방법은 제작된 이동매니퓰레이터로 시뮬레이션과 실험을 통하여 확인되어지고 논의된다.

  • PDF

모바일 증강현실을 위한 특징점 인식, 추적 기술 및 사례 연구 (Research Trends and Case Study on Keypoint Recognition and Tracking for Augmented Reality in Mobile Devices)

  • 최희승;안상철;김익재
    • 한국HCI학회논문지
    • /
    • 제10권2호
    • /
    • pp.45-55
    • /
    • 2015
  • 최근 증강현실 분야에서 특징점 인식 및 추적 기술은 비마커 기반의 증강 현실 서비스 구현에 중요한 역할을 담당하고 있다. 특징점 인식 및 추적 기술은 오래 전부터 컴퓨터 비전 등 여러 분야의 많은 연구자들에 의해 심도 있게 연구되어 왔으며, 특히 최근 급성장하고 있는 모바일 관련 시스템에 적용하기 위해 모바일 임베디드 환경에 접목 가능한 특징점 기반의 다양한 인식 및 추적 기술들이 소개되고 있다. 따라서 본 논문에서는 널리 활용되고 있는 특징점 기반의 매칭 및 추적의 다양한 핵심 요소 기술 (특징점 추출, 특징점 기술, 특징점 매칭 및 추적)에 대한 최신 동향을 분석하고, 본 한국과학기술연구원 연구팀이 수행한 모바일 증강현실 서비스 관련 사례 연구인 관광 지도 인식 및 추적 연구를 소개하고자 한다.

제품의 유지보수를 위한 시각 기반 증강현실 기술 개발 (Development Technology of Vision Based Augmented Reality for the Maintenance of Products)

  • 이경호;이정민;김동근;한영수;이재준
    • 한국CDE학회논문집
    • /
    • 제13권4호
    • /
    • pp.265-272
    • /
    • 2008
  • The flow of technology is going to human-oriented direction, from the time when the computer was first invented, to now where new computing environment using mobile and global network are everywhere. On that technology flow, ubiquitous is being suggested as new paradigm of computing environment. Augmented Reality is one of ubiquitous technologies that provide the interactions between human and computer. By adding computer-generated information to real information and their interaction, user can get the improved and more knowledgeable information about real world. The purpose of this paper is to show the possibility of applying vision based augmented reality to maintenance of product system.

서비스 로봇을 위한 지시 물체 분할 방법 (Segmentation of Pointed Objects for Service Robots)

  • 김형오;김수환;김동환;박성기
    • 로봇학회논문지
    • /
    • 제4권2호
    • /
    • pp.139-146
    • /
    • 2009
  • This paper describes how a person extracts a unknown object with pointing gesture while interacting with a robot. Using a stereo vision sensor, our proposed method consists of two stages: the detection of the operators' face, the estimation of the pointing direction, and the extraction of the pointed object. The operator's face is recognized by using the Haar-like features. And then we estimate the 3D pointing direction from the shoulder-to-hand line. Finally, we segment an unknown object from 3D point clouds in estimated region of interest. On the basis of this proposed method, we implemented an object registration system with our mobile robot and obtained reliable experimental results.

  • PDF

${\mu}BGA$ 납볼 검사 알고리즘 개발 (Development of ${\mu}BGA$ Solder Ball Inspection Algorithm)

  • 박종욱;양진세;최태영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 하계종합학술대회 논문집(4)
    • /
    • pp.139-142
    • /
    • 2000
  • $\mu$BGA(Ball Grid Array) is growing in response to a great demand for smaller and lighter packages for the use in laptop, mobile phones and other evolving products. However it is not easy to find its defect by human visual due to in very small dimension. From this point of view, we are interested its development of a vision based automated inspection algorithm. For this, first a 2D view of $\mu$BGA is described under a special blue illumination. Second, a notation-invariant 2D inspection algorithm is developed. Finally a 3D inspection algorithm is proposed for the case of stereo vision system. As a simulation result, it is shown that 3D defect not easy to find by 2D algorithm can be detected by the proposed inspection algorithm.

  • PDF

Multi-Object Tracking using the Color-Based Particle Filter in ISpace with Distributed Sensor Network

  • Jin, Tae-Seok;Hashimoto, Hideki
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권1호
    • /
    • pp.46-51
    • /
    • 2005
  • Intelligent Space(ISpace) is the space where many intelligent devices, such as computers and sensors, are distributed. According to the cooperation of many intelligent devices, the environment, it is very important that the system knows the location information to offer the useful services. In order to achieve these goals, we present a method for representing, tracking and human following by fusing distributed multiple vision systems in ISpace, with application to pedestrian tracking in a crowd. And the article presents the integration of color distributions into particle filtering. Particle filters provide a robust tracking framework under ambiguity conditions. We propose to track the moving objects by generating hypotheses not in the image plan but on the top-view reconstruction of the scene. Comparative results on real video sequences show the advantage of our method for multi-object tracking. Simulations are carried out to evaluate the proposed performance. Also, the method is applied to the intelligent environment and its performance is verified by the experiments.

분산다중센서로 구현된 지능화공간의 색상정보를 이용한 실시간 물체추적 (Real-Time Objects Tracking using Color Configuration in Intelligent Space with Distributed Multi-Vision)

  • 진태석;이장명;하시모토히데키
    • 제어로봇시스템학회논문지
    • /
    • 제12권9호
    • /
    • pp.843-849
    • /
    • 2006
  • Intelligent Space defines an environment where many intelligent devices, such as computers and sensors, are distributed. As a result of the cooperation between smart devices, intelligence emerges from the environment. In such scheme, a crucial task is to obtain the global location of every device in order to of for the useful services. Some tracking systems often prepare the models of the objects in advance. It is difficult to adopt this model-based solution as the tracking system when many kinds of objects exist. In this paper the location is achieved with no prior model, using color properties as information source. Feature vectors of multiple objects using color histogram and tracking method are described. The proposed method is applied to the intelligent environment and its performance is verified by the experiments.

M2M 기술을 이용한 스마트 선박 컨테이너 (Smart Ship Container With M2M Technology)

  • 로네쉬 샤르마;이성로
    • 한국통신학회논문지
    • /
    • 제38C권3호
    • /
    • pp.278-287
    • /
    • 2013
  • 현대 정보 기술은 새롭고 개선된 방법으로 여러 산업들에 지속적인 제공을 하고 있다. 본 논문에서 고려한 스마트 컨테이너 공급망 관리는 사물지능(M2M)통신의 급속한 발전과 함께 고성능 센서, 컴퓨터 비전, GPS, GSM을 기반으로 형성된다. 기존 공급망관리는 실시간 컨테이너 추적에 제한이 있다는 문제점을 가지고 있다. 본 논문은 인터럽트 및 보통 정기적인 알림에 대한 컨테이너 식별 시스템과 자동 알림 시스템의 개발과 실시간 컨테이너 공급망관리의 연구 및 구현에 초점을 맞추었다. 첫째, 본 논문은 컨테이너 코드 식별 및 실시간 작업에 대해 컴퓨터 비전 라이브러리와 OCR 엔진을 비주얼 스튜디오 2010으로 구현된 식별 알고리즘을 제안하고 있다. 둘째는 실시간 컨테이너 추적 및 그 시스템의 한계에 대해 제공되는 현재 자동 알림 시스템에 대해 설명한다. 마지막으로 본 논문은 고성능 센서와 컴퓨터 비전과 함께 유비쿼터스 모바일 및 위성 네트워크와 실시간 컨테이너 추적 솔루션의 미래에 도전과 가능성을 요약하였다. 뛰어난 운영 및 보안 공급망관리의 우수한 전송을 제공하기 위해 이러한 모든 구성요소를 결합하였다.

키넥트와 모바일 장치 알림 기반 온라인 모니터링 시스템 (Online Monitoring System based notifications on Mobile devices with Kinect V2)

  • 니욘사바에릭;장종욱
    • 한국정보통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.1183-1188
    • /
    • 2016
  • 키넥트 센서 버전 2는 컴퓨터 비전과 엑스 박스와 같은 엔유아이 인터페이스로 마이크로소프트에서 출시한 카메라의 일종이다. 이는 높은 프레임 속도로 컬러 영상과 깊이 영상, 오디오 입력 및 스켈레톤 데이터를 취득 할 수 있다. 이러한 다양한 타입의 데이터 정보를 제공해 주기 때문에 이것은 다른 범위의 연구자들을 위한 리소스가 된다. 본 논문에서는 깊이 이미지를 사용하여 우리는 키넥트 범위내에서 특정 영역을 감시하는 시스템을 제시한다. 타켓 영역은 깊이의 최소, 최대 값의 크기에 따라서 그 공간을 모니터링 할 수 있다. 컴퓨터 비전 라이브러리 (Emgu CV)를 사용해서 만약 어떤 오브젝트가 타겟 영역에서 검출된다면 그것을 추적하고 키넥트 카메라는 RGB 이미지를 데이터베이스 서버에 전송한다. 따라서 안드로이드 플랫폼 기반 모바일 애플리케이션을 통해 키넥트 타켓 지역에서 수상한 움직임이 감지되었음을 사용자에게 통지하고 그 장면의 RGB 영상을 표시하기 위해 개발되었다. 사용자는 모니터링 영역 또는 제한 구역과 관련된 다른 경우에서 가치 있는 물건의 대해 최선의 방법으로 반응하고 실시간 통지를 얻는다.

이동로보트의 궤도관제기법 (NAVUNGATION CONTROL OF A MOBILE ROBOT)

  • 홍문성;이상용;한민용
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1989년도 한국자동제어학술회의논문집; Seoul, Korea; 27-28 Oct. 1989
    • /
    • pp.226-229
    • /
    • 1989
  • This paper presents a navigation control method for a vision guided robot. The robot is equipped with one camera, an IBM/AT compatible PC, and a sonar system. The robot can either follow track specified on a monitor screen or navigate to a destination avoiding any obstacles on its way. The robot finds its current position as well as its moving direction by taking an image of a circular pattern placed on the ceiling.

  • PDF