• 제목/요약/키워드: mobile vision system

검색결과 290건 처리시간 0.028초

실시간 운영체제를 탑재한 원격 제어 로봇 시스템 (Remote Controlled Robot System using Real-Time Operating System)

  • 이태희;조상
    • 제어로봇시스템학회논문지
    • /
    • 제10권8호
    • /
    • pp.689-695
    • /
    • 2004
  • This paper presents a robot system that combines computer network and an autonomous mobile robot where RTOS is installed. We propose a wireless communication protocol, and also implement it on the RTOS of the robot system. Main controller of the robot processes the control program as a task type in the real-time operating system. Peripheral devices are driven by the device driver functions with the dependency of the hardware. Because the client and server program was implemented to support the multi-platforms by Java SDK and Java JMF, it is easy to analyze programs, maintain system, and correct the errors in the system. End-user can control a robot with a vision showing remote sight over the Internet in real time, and the robot is moved keeping away from the obstacles by itself and command of the server received from end-user at the local client.

실시간 다중이동물체 추적에 의한 이동로봇의 위치개선 (Position Improvement of a Mobile Robot by Real Time Tracking of Multiple Moving Objects)

  • 진태석;이민중;탁한호;이인용;이준탁
    • 한국지능시스템학회논문지
    • /
    • 제18권2호
    • /
    • pp.187-192
    • /
    • 2008
  • 본 논문은 실내외 공간에서 인간을 포한함 이동물체의 영상정보를 이용하여 이동로봇의 자기위치를 인식하기 위한 방법을 제시하고 있다. 제시한 방법은 로봇자체의 DR센서 정보와 카메라에서 얻은 영상정보로부터 로봇의 위치추정방법을 결합한 것이다. 그리고 이동물체의 이전 위치정보와 관측 카메라의 모델을 사용하여 이동물체에 대한 영상프레임 좌표와 추정된 로봇위치간의 관계를 표현할 수 있는 식을 제시하고 있다. 또한 이동하는 인간과 로봇의 위치와 방향을 추정하기 위한 제어방법을 제시하고 이동로봇의 위치를 추정하기 위해서 칼만필터 방법을 적용하였다. 그리고 시뮬레이션 및 실험을 통하여 제시한 방법을 검증하였다.

무인 시스템의 자율 주행을 위한 영상기반 항법기술 동향 (Survey on Visual Navigation Technology for Unmanned Systems)

  • 김현진;서호성;김표진;이충근
    • 한국항행학회논문지
    • /
    • 제19권2호
    • /
    • pp.133-139
    • /
    • 2015
  • 이 논문에서는 영상정보를 기반으로 한 무인 시스템의 자율 항법기술에 대한 동향을 요약한다. 영상기반 항법기술로는 비주얼 서보잉, 비주얼 오도메트리, 영상 기반 SLAM(simultaneous localization and mapping)이 있다. 비주얼 서보잉은 목표 이미지와 현재 이미지 사이의 피쳐 차이로부터 원하는 속도 입력을 계산하여 무인 로봇을 목표 자세로 유도하는 데 사용된다. 비주얼 오도메트리는 무인 시스템이 영상정보를 바탕으로 자신의 이동 궤적을 추정하는 기술로, 기존의 dead-reckoning 방식보다 정확성을 향상시킬 수 있다. 영상 기반 SLAM은 무인 시스템이 영상 정보를 활용하여 미지의 환경에 대한 지도를 구축함과 동시에 자신의 위치를 결정해 나가는 기술로, 정확히 알지 못하는 환경에서 무인차량이나 무인기를 운용하는데 필수적이다. 이러한 기술들이 적용된 해외의 연구 사례들을 살펴봄으로써 영상기반 항법기술의 동향을 파악할 수 있었다.

터널의 비접촉 이동식 상태점검 장비: 리뷰 (Non-contact mobile inspection system for tunnels: a review)

  • 이철희;김동규
    • 한국터널지하공간학회 논문집
    • /
    • 제25권3호
    • /
    • pp.245-259
    • /
    • 2023
  • 본 논문의 목적은 국내외 터널 스캐닝 시스템들을 분석하여 비접촉 이동식 상태점검 장비 개발에 대한 시사점을 도출하기 위한 것이다. 국내외 터널 스캐닝 시스템은 레이저 스캔과 이미지 스캔의 두 가지 기술로 개발되고 있다. 레이저 스캐닝 장비는 포인트 클라우드로부터 터널 라이닝의 기하하적 특성을 재현하는데 장점이 있다. 이미지 스캐닝 장비는 컴퓨터 비전을 활용하여 터널 라이닝 표면의 미세한 균열, 누수 등 손상 검출이 용이하다. 터널 라이닝의 손상 검출을 위해서는 이미지 스캐닝 장비가 더 적합할 것으로 분석되었다. 향후 개발 예정인 카메라 기반의 터널 스캐닝 시스템은 조명, 저장장치, 전원 공급 장치 및 차량 주행 속도 동기화 제어 장치로 구성되어야 할 것이다.

단일 홀센서 힘반영 조이스틱을 이용한 모바일 로봇 원격제어 (Tele-operation of a Mobile Robot Using Force Reflection Joystick with Single Hall Sensor)

  • 이장명;전찬성;조승근
    • 로봇학회논문지
    • /
    • 제1권1호
    • /
    • pp.17-24
    • /
    • 2006
  • Though the final goal of mobile robot navigation is to be autonomous, operators' intelligent and skillful decisions are necessary when there are many scattered obstacles. There are several limitations even in the camera-based tele-operation of a mobile robot, which is very popular for the mobile robot navigation. For examples, shadowed and curved areas cannot be viewed using a narrow view-angle camera, especially in bad weather such as on snowy or rainy days. Therefore, it is necessary to have other sensory information for reliable tele-operations. In this paper, sixteen ultrasonic sensors are attached around a mobile robot in a ring pattern to measure the distances to obstacles. A collision vector is introduced in this paper as a new tool for obstacle avoidance, which is defined as a normal vector from an obstacle to the mobile robot. Based on this collision vector, a virtual reflection force is generated to avoid the obstacles and then the reflection force is transferred to an operator who is holding a joystick to control the mobile robot. Relying on the reflection force, the operator can control the mobile robot more smoothly and safely. For this bi-directional tele-operation, a master joystick system using a hall sensor was designed to resolve the existence of nonlinear sections, which are usual for a general joystick with two motors and potentiometers. Finally, the efficiency of a force reflection joystick is verified through the comparison of two vision-based tele-operation experiments, with and without force reflection.

  • PDF

이동로봇의 원격조작을 위한 스테레오 비젼에 관한 연구 (A study on the stereo vision system for controlling the mobile robot tele-operation)

  • 정기수;노영식;강희준;서영수;윤승준
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.321-322
    • /
    • 2007
  • 본 논문은 네트워크을 통한 원격제어 시스템을 구축하는 연구로써 무선 랜과 AP를 이용하여 독립 무선 네트워크를 구축하고, 이동로봇의 주변 환경에 대한 레이저 센서정보와 영상정의를 전송한다. 그리고 스테레오 카메라와 Head Mounted Display를 사용하여 원격지에서 입체감 있는 영상을 보며 조작을 할 수 있게 하였으며, Head Motion Tracking를 이용해 이동로봇의 카메라를 별도의 조작 없이 컨트롤 가능하도록 방법을 제안하였다.

  • PDF

Design and Implementation of a Low-Code/No-Code System

  • Hyun, Chang Young
    • International journal of advanced smart convergence
    • /
    • 제8권4호
    • /
    • pp.188-193
    • /
    • 2019
  • This paper is about environment-based low-code and no-code execution platform and execution method that combines hybrid and native apps. In detail, this paper describes the Low-Code/No-Code execution structure that combines the advantages of hybrid and native apps. It supports the iPhone and Android phones simultaneously, supports various templates, and avoids developer-oriented development methods based on the production process of coding-free apps and the produced apps play the role of Java virtual machine (VM). The Low-Code /No-Code (LCNC) development platform is a visual integrated development environment that allows non-technical developers to drag and drop application components to develop mobile or web applications. It provides the functions to manage dependencies that are packaged into small modules such as widgets and dynamically loads when needed, to apply model-view-controller (MVC) pattern, and to handle document object model (DOM). In the Low-Code/No-Code system, the widget calls the AppOS API provided by the UCMS platform to deliver the necessary requests to AppOS. The AppOS API provides authentication/authorization, online to offline (O2O), commerce, messaging, social publishing, and vision. It includes providing the functionality of vision.

Automatic Extraction of Lean Tissue for Pork Grading

  • Cho, Sung-Ho;Huan, Le Ngoc;Choi, Sun;Kim, Tae-Jung;Shin, Wu-Hyun;Hwang, Heon
    • Journal of Biosystems Engineering
    • /
    • 제39권3호
    • /
    • pp.174-183
    • /
    • 2014
  • Purpose: A robust, efficient auto-grading computer vision system for meat carcasses is in high demand by researchers all over the world. In this paper, we discuss our study, in which we developed a system to speed up line processing and provide reliable results for pork grading, comparing the results of our algorithms with visual human subjectivity measurements. Methods: We differentiated fat and lean using an entropic correlation algorithm. We also developed a self-designed robust segmentation algorithm that successfully segmented several porkcut samples; this algorithm can help to eliminate the current issues associated with autothresholding. Results: In this study, we carefully considered the key step of autoextracting lean tissue. We introduced a self-proposed scheme and implemented it in over 200 pork-cut samples. The accuracy and computation time were acceptable, showing excellent potential for use in online commercial systems. Conclusions: This paper summarizes the main results reported in recent application studies, which include modifying and smoothing the lean area of pork-cut sections of commercial fresh pork by human experts for an auto-grading process. The developed algorithms were implemented in a prototype mobile processing unit, which can be implemented at the pork processing site.

단일 비전에서 칼만 필티와 차선 검출 필터를 이용한 모빌 로봇 주행 위치.자세 계측 제어에 관한 연구 (A Study on Measurement and Control of position and pose of Mobile Robot using Ka13nan Filter and using lane detecting filter in monocular Vision)

  • 이용구;송현승;노도환
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.81-81
    • /
    • 2000
  • We use camera to apply human vision system in measurement. To do that, we need to know about camera parameters. The camera parameters are consisted of internal parameters and external parameters. we can fix scale factor&focal length in internal parameters, we can acquire external parameters. And we want to use these parameters in automatically driven vehicle by using camera. When we observe an camera parameters in respect with that the external parameters are important parameters. We can acquire external parameter as fixing focal length&scale factor. To get lane coordinate in image, we propose a lane detection filter. After searching lanes, we can seek vanishing point. And then y-axis seek y-sxis rotation component(${\beta}$). By using these parameter, we can find x-axis translation component(Xo). Before we make stepping motor rotate to be y-axis rotation component(${\beta}$), '0', we estimate image coordinates of lane at (t+1). Using this point, we apply this system to Kalman filter. And then we calculate to new parameters whick make minimum error.

  • PDF

가상 포토센서 배열을 탑재한 항만 자동화 자을 주행 차량 (The Vision-based Autonomous Guided Vehicle Using a Virtual Photo-Sensor Array (VPSA) for a Port Automation)

  • 김수용;박영수;김상우
    • 제어로봇시스템학회논문지
    • /
    • 제16권2호
    • /
    • pp.164-171
    • /
    • 2010
  • We have studied the port-automation system which is requested by the steep increment of cost and complexity for processing the freight. This paper will introduce a new algorithm for navigating and controlling the autonomous Guided Vehicle (AGV). The camera has the optical distortion in nature and is sensitive to the external ray, the weather, and the shadow, but it is very cheap and flexible to make and construct the automation system for the port. So we tried to apply to the AGV for detecting and tracking the lane using the CCD camera. In order to make the error stable and exact, this paper proposes new concept and algorithm for obtaining the error is generated by the Virtual Photo-Sensor Array (VPSA). VPSAs are implemented by programming and very easy to use for the various autonomous systems. Because the load of the computation is light, the AGV utilizes the maximal performance of the CCD camera and enables the CPU to take multi-tasks. We experimented on the proposed algorithm using the mobile robot and confirmed the stable and exact performance for tracking the lane.