• 제목/요약/키워드: Real-Time Computer Vision

검색결과 352건 처리시간 0.027초

High-Speed Maritime Object Detection Scheme for the Protection of the Aid to Navigation

  • Lee, Hyochan;Song, Hyunhak;Cho, Sungyoon;Kwon, Kiwon;Park, Sunghyun;Im, Taeho
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.692-712
    • /
    • 2022
  • Buoys used for Aid to Navigation systems are widely used to guide the sea paths and are powered by batteries, requiring continuous battery replacement. However, since human labor is required to replace the batteries, humans can be exposed to dangerous situation, including even collision with shipping vessels. In addition, Maritime sensors are installed on the route signs, so that these are often damaged by collisions with small and medium-sized ships, resulting in significant financial loss. In order to prevent these accidents, maritime object detection technology is essential to alert ships approaching buoys. Existing studies apply a number of filters to eliminate noise and to detect objects within the sea image. For this process, most studies directly access the pixels and process the images. However, this approach typically takes a long time to process because of its complexity and the requirements of significant amounts of computational power. In an emergent situation, it is important to alarm the vessel's rapid approach to buoys in real time to avoid collisions between vessels and route signs, therefore minimizing computation and speeding up processes are critical operations. Therefore, we propose Fast Connected Component Labeling (FCCL) which can reduce computation to minimize the processing time of filter applications, while maintaining the detection performance of existing methods. The results show that the detection performance of the FCCL is close to 30 FPS - approximately 2-5 times faster, when compared to the existing methods - while the average throughput is the same as existing methods.

스마트폰을 이용한 실시간 표면영상유속계 개발 (Development of a real-time surface image velocimeter using an android smartphone)

  • 류권규;황정근
    • 한국수자원학회논문집
    • /
    • 제49권6호
    • /
    • pp.469-480
    • /
    • 2016
  • 본 연구는 안드로이드 기반의 스마트폰을 이용한 실시간 표면영상유속계를 개발하는 것이다. 스마트폰이 내장한 카메라, GPS, 방향 센서, CPU를 활용하여, 실시간으로 현장에서 하천의 표면유속을 측정하는 것이다. 먼저, 스마트폰의 GPS를 이용하여 측정 현장의 위치를 파악하고, 경사계(방향 센서)를 활용하여 카메라와 촬영면의 기하적인 관계를 설정한다. 이 때 입력해야 할 유일한 변수는 수면과 카메라의 연직 높이뿐이다. 내장된 카메라로 정해진 시간만큼 동영상을 촬영한다. 촬영된 동영상을 개방 소스의 영상처리 라이브러리인 OpenCV를 이용하여 프레임별로 분할하고, 이를 시공간 영상 분석하여 하천 표면의 2차원 유속장을 추정한다. 시판되는 안드로이드 스마트폰에 적용하여 현장 시험한 결과 약 11초에 1회의 순간유속 측정 (1초간의 평균유속 측정)을 할 수 있어, 현장에서 즉각적으로 하천 수표면의 표면유속을 측정할 수 있었다. 또한 이 순간유속을 수십회 반복한 뒤 평균하여 시간평균유속을 구할 수 있었다. 개발된 시스템을 실험 수로에서 시험한 결과, 측정이 매우 효과적이며 편리하였다. 측정된 결과를 프로펠러 유속계에 의한 측정값과 비교한 결과, 최대 오차 13.9%, 평균적으로 10 % 이내의 오차로 실험 수로의 표면 유속을 측정할 수 있었다.

단신 : 페달링 시 정량적인 동적 피팅을 위한 실시간 평가 시스템 (Technical-note : Real-time Evaluation System for Quantitative Dynamic Fitting during Pedaling)

  • 이주학;강동원;배재혁;신윤호;최진승;탁계래
    • 한국운동역학회지
    • /
    • 제24권2호
    • /
    • pp.181-187
    • /
    • 2014
  • In this study, a real-time evaluation system for quantitative dynamic fitting during pedaling was developed. The system is consisted of LED markers, a digital camera connected to a computer and a marker detecting program. LED markers are attached to hip, knee, ankle joint and fifth metatarsal in the sagittal plane. Playstation3 eye which is selected as a main digital camera in this paper has many merits for using motion capture, such as high FPS (Frame per second) about 180FPS, $320{\times}240$ resolution, and low-cost with easy to use. The maker detecting program was made by using Labview2010 with Vision builder. The program was made up of three parts, image acquisition & processing, marker detection & joint angle calculation, and output section. The digital camera's image was acquired in 95FPS, and the program was set-up to measure the lower-joint angle in real-time, providing the user as a graph, and allowing to save it as a test file. The system was verified by pedalling at three saddle heights (knee angle: 25, 35, $45^{\circ}$) and three cadences (30, 60, 90 rpm) at each saddle heights by using Holmes method, a method of measuring lower limbs angle, to determine the saddle height. The result has shown low average error and strong correlation of the system, respectively, $1.18{\pm}0.44^{\circ}$, $0.99{\pm}0.01^{\circ}$. There was little error due to the changes in the saddle height but absolute error occurred by cadence. Considering the average error is approximately $1^{\circ}$, it is a suitable system for quantitative dynamic fitting evaluation. It is necessary to decrease error by using two digital camera with frontal and sagittal plane in future study.

중소기업 스마트공장 구축을 위한 OpenCV 기반 재고관리 시스템의 설계 및 구현 (Design and Implementation of OpenCV-based Inventory Management System to build Small and Medium Enterprise Smart Factory)

  • 장수환;정종필
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.161-170
    • /
    • 2019
  • 다품종 대량 생산 중소기업 공장에서는 제품의 종류가 다양하고 그 수량이 많기 때문에 재고의 관리를 위한 인력과 경비가 낭비되고 있다. 또한 재고의 현황을 실시간으로 확인 할 방법이 마련 되있지 않아서 재고의 과적재, 과부족 현상으로 인한 경제적 피해를 받고 있다. 실시간 데이터 수집 환경을 구축하기 위한 많은 방안이 있지만 대부분 구축비용과 시간이 중소 중견기업이 감당하기 어려운 수준이다. 그렇기 때문에 중소 중견기업의 스마트 공장은 구현되기 어려운 현실을 마주하고 있으며, 적절한 대책을 찾기 힘든 실정이다. 따라서 본 논문에서는 현재 생산품 관리 기술로 많이 채택되는 바코드, QR코드와 함께 라벨에 표기되어 있는 글자추출을 통해 기존 재고관리 방법의 확장에 대한 내용을 구현하고 그 효과를 평가하였다. 기술적으로는 컴퓨터 이미지 처리를 통해서 기존의 생산품의 입출고 관리를 위한 방법인 재고라벨 및 바코드에 대한 자동인식 및 분류를 하기 위한 OpenCV를 이용한 전처리, 구글 비젼 API의 OCR(Optical Character Recognition)기능을 통해서 글자를 추출하고, Zbar를 통해서 바코드를 인식할 수 있게 설계하였고, 값비싼 장비를 사용하지 않고 라즈베리파이를 통해 실시간 영상을 통한 인식으로 재고를 관리할 수 있는 방법을 제안한다.

A New CSR-DCF Tracking Algorithm based on Faster RCNN Detection Model and CSRT Tracker for Drone Data

  • Farhodov, Xurshid;Kwon, Oh-Heum;Moon, Kwang-Seok;Kwon, Oh-Jun;Lee, Suk-Hwan;Kwon, Ki-Ryong
    • 한국멀티미디어학회논문지
    • /
    • 제22권12호
    • /
    • pp.1415-1429
    • /
    • 2019
  • Nowadays object tracking process becoming one of the most challenging task in Computer Vision filed. A CSR-DCF (channel spatial reliability-discriminative correlation filter) tracking algorithm have been proposed on recent tracking benchmark that could achieve stat-of-the-art performance where channel spatial reliability concepts to DCF tracking and provide a novel learning algorithm for its efficient and seamless integration in the filter update and the tracking process with only two simple standard features, HoGs and Color names. However, there are some cases where this method cannot track properly, like overlapping, occlusions, motion blur, changing appearance, environmental variations and so on. To overcome that kind of complications a new modified version of CSR-DCF algorithm has been proposed by integrating deep learning based object detection and CSRT tracker which implemented in OpenCV library. As an object detection model, according to the comparable result of object detection methods and by reason of high efficiency and celerity of Faster RCNN (Region-based Convolutional Neural Network) has been used, and combined with CSRT tracker, which demonstrated outstanding real-time detection and tracking performance. The results indicate that the trained object detection model integration with tracking algorithm gives better outcomes rather than using tracking algorithm or filter itself.

광류와 표정 HMM에 의한 동영상으로부터의 실시간 얼굴표정 인식 (Realtime Facial Expression Recognition from Video Sequences Using Optical Flow and Expression HMM)

  • 전준철;신기한
    • 인터넷정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.55-70
    • /
    • 2009
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 그러한 측면에서 얼굴표정인식에 의한 인간의 심리적 상태를 추론하는 기술은 중요한 이슈이다. 본 연구에서는 감성인식 HMM 모델과 광류에 기반한 얼굴 움직임 추적 방법을 이용하여 동영상으로부터 얼굴표정을 인식하는 새로운 방법을 제시하였다. 특히, 기존의 감성상태 변환을 설명하는 HMM 모델은 특정 표정상태 간의 전환 시 항상 중립 상태를 거치도록 설계되어 있다. 그러나 본 연구에서는 기존의 표정상태 전환 모델에 중간상태를 거치는 과정 없이 특정 표정 상태간의 변환이 가능한 확장된 HMM 모델을 제시한다. 동영상으로부터 얼굴의 특성정보를 추출하기 위하여 탬플릿 매칭과 광류방법을 적용하였다. 광류에 의해 추적된 얼굴의 표정특성 정보는 얼굴표정인식을 위한 HMM의 매개변수 정보로 사용된다. 실험을 통하여 제안된 얼굴표정인식 방법이 실시간 얼굴 표정인식에 효과적임을 입증하였다.

  • PDF

FPGA와 OpenCV를 이용한 실시간 눈동자 모션인식과 효율적인 문자 선택 시스템 (Real-time pupil motion recognition and efficient character selection system using FPGA and OpenCV)

  • 이희빈;허승원;이승준;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 추계학술대회
    • /
    • pp.393-394
    • /
    • 2018
  • 본 논문은 이전에 발표한 "FPGA와 OpenCV를 이용한 눈동자 모션인식을 통한 의사소통 시스템"을 보완하고, 몸이 불편한 환자를 위한 문자 선택 시스템을 소개한다. OpenCV를 이용해 눈 영역을 검출하고, 눈동자의 위치를 파악하여 FPGA로 보내 문자를 선택한다. 본 논문에서는 환자의 눈동자 움직임을 최소화하는 방법으로 사용자의 의도에 맞는 문자를 출력한다. 쉽게 접근할 수 있고, 다양한 알고리즘을 사용할 수 있는 OpenCV와 비교적 개발 비용이 저렴하고, 수정가능한 FPGA를 사용하여 구현한 눈동자 모션 인식 및 문자 선택 시스템을 제안한다.

  • PDF

배경영상 기반 다자유도 포인팅 디바이스의 설계 (Design of a Background Image Based Multi-Degree-of-Freedom Pointing Device)

  • 장석윤;고재원
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.133-141
    • /
    • 2008
  • 대화형 멀티미디어 기기들이 급속하게 보급되면서 리모컨이나 컴퓨터 마우스와 같은 기존의 사용자 인터페이스 방식으로는 제약이 많아 사용이 불편한 경우가 많은데, 이러한 문제를 해결하기 위한 방안으로 비전기반의 포인팅 디바이스를 소개한다. 포인팅 디바이스에 카메라를 장착하여 카메라에 입력되는 배경 동영상을 분석하면 카메라의 움직임을 추정할 수 있는데 이를 근거로 커서를 움직이는 방법을 이용한다. 동작이 실시간으로 이루어 질 수 있도록 $288{\times}208$ 화소의 저해상도의 카메라를 이용하고 여기에 입력된 스크린의 모서리 영상을 찾아 국부적으로 옵티컬 플로우(Optical flow) 방법으로 트래킹하고 스크린의 크기를 계산하면 스크린과 디바이스간 거리와 디바이스의 움직임 경로를 알아낼 수 있다. 이러한 방법으로 만들어진 포인팅 디바이스는 기존의 비전기반 다자유도 입력장치들에 비하여 어두운 환경에서 유리하고 구현이 간단하며 기존의 마우스와 같이 한 손에 쥐고 사용방법을 학습하지 않고도 직관적으로 사용가능한 장점을 갖는다.

모바일 증강현실을 위한 특징점 인식, 추적 기술 및 사례 연구 (Research Trends and Case Study on Keypoint Recognition and Tracking for Augmented Reality in Mobile Devices)

  • 최희승;안상철;김익재
    • 한국HCI학회논문지
    • /
    • 제10권2호
    • /
    • pp.45-55
    • /
    • 2015
  • 최근 증강현실 분야에서 특징점 인식 및 추적 기술은 비마커 기반의 증강 현실 서비스 구현에 중요한 역할을 담당하고 있다. 특징점 인식 및 추적 기술은 오래 전부터 컴퓨터 비전 등 여러 분야의 많은 연구자들에 의해 심도 있게 연구되어 왔으며, 특히 최근 급성장하고 있는 모바일 관련 시스템에 적용하기 위해 모바일 임베디드 환경에 접목 가능한 특징점 기반의 다양한 인식 및 추적 기술들이 소개되고 있다. 따라서 본 논문에서는 널리 활용되고 있는 특징점 기반의 매칭 및 추적의 다양한 핵심 요소 기술 (특징점 추출, 특징점 기술, 특징점 매칭 및 추적)에 대한 최신 동향을 분석하고, 본 한국과학기술연구원 연구팀이 수행한 모바일 증강현실 서비스 관련 사례 연구인 관광 지도 인식 및 추적 연구를 소개하고자 한다.

A Study on Sensor-Based Upper Full-Body Motion Tracking on HoloLens

  • Park, Sung-Jun
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권4호
    • /
    • pp.39-46
    • /
    • 2021
  • 본 논문에서는 혼합현실에서 산업 현장에서 필요한 동작 인식 방법에 대한 방법을 제안한다. 산업 현장에서는 몸통 움직임부터 팔 동작에 이르기까지 상체 전역의 동작(잡고, 들어올리고, 나르는 작업)이 필요하다. 본 논문에서는 무거운 모션 캡처 장비를 사용하지 않으면서 키넥트와 같은 비전 기반이 아닌 센서와 웨어러블 디바이스로 구성된 방법을 사용하고 있다. 몸통 동작과 어깨 동작은 2개의 IMU 센서를 사용하고 있으며, 팔 동작은 마이오 암 밴드를 사용하였다. 총 4개로부터 들어오는 실시간 데이터를 퓨전하여 상체 전 영역에 대한 모션 인식이 가능하도록 하였다. 실험 방법으로서는 실제 옷에 센서를 부착하였고 동기화 작업을 통해 물체 조작을 하였다. 그 결과 동기화 방법을 사용한 방식은 큰 동작과 작은 동작에 있어서 오류가 없었다. 마지막으로 성능 평가를 통해 홀로렌즈 상에서 한손 조작일 경우 평균적으로 50 프레임, 양 손 조작일 경우 60 프레임을 보이는 결과를 나타 내였다.