• 제목/요약/키워드: Real-Time Computer Vision

검색결과 352건 처리시간 0.029초

객체 인식 모델 기반 실시간 교통신호 정보 인식 (Real-time traffic light information recognition based on object detection models)

  • 주은오;김민수
    • 지적과 국토정보
    • /
    • 제52권1호
    • /
    • pp.81-93
    • /
    • 2022
  • 최근 자율주행 기술에서 차량 주변 객체 인식과 교통표지판 및 차량 신호 인식을 위한 연구가 활발히 수행되고 있으며, 특히 차량 신호 인식은 자율주행 기술에 있어서 핵심 요소로 평가되고 있다. 이에 차량 신호 인식을 위한 다양한 연구가 진행되어 왔으며, 최근에는 딥러닝 기반 객체 인식 모델을 활용한 차량 신호 인식 연구가 크게 증가하고 있다. 또한 AIHub에서 음성, 비전, 자율주행 등을 위한 양질의 국내 인공지능 학습데이터 셋이 공개됨에 따라 이들 데이터를 활용한 국내 환경에 적합한 차량 신호 인식 모델의 개발도 가능하게 되었다. 이에 본 연구에서는 AIHub의 학습데이터와 객체 인식모델 YOLO를 적용한 국내 차량 신호 인식 모델을 개발하였다. 특히 차량 신호의 인식 성능을 개선하기 위하여 YOLOv4와 YOLOv5의 다양한 모델을 적용하였으며 학습데이터의 클래스도 다양하게 분류하여 실험을 수행하였다. 결론적으로 YOLOv5가 YOLOv4보다 차량 신호 인식에 조금 더 적합함을 확인할 수 있었으며, 두 모델의 아키텍처 비교를 통하여 YOLOv5 성능이 우수한 이유를 확인할 수 있었다.

디지털 신호 분석 기법을 이용한 다양한 번호판 추출 방법 (An Extraction Method of Number Plates for Various Vehicles Using Digital Signal Analysis Processing Techniques)

  • 양선옥;전영민;정지상;류상환
    • 전자공학회논문지SC
    • /
    • 제45권3호
    • /
    • pp.12-19
    • /
    • 2008
  • 번호판 인식 작업은 번호판 영역분할, 개별문자 추출, 문자인식의 세 단계를 거쳐 이루어진다. 이 가운데 번호판 영역분할은 번호판 인식의 가장 핵심이 되는 부분이면서 또한 처리 시간이 가장 많이 소요되는 부분이다. 본 논문은 다양한 도로 주변 환경을 고려해야하는 불법주정차 무인단속 현장으로부터 획득된 차량영상을 대상으로 번호판 영역을 효과적으로 추출하는 방법에 관해 기술한다. 접근방법은 번호판 영역의 가로 명암 값 변화의 특성을 이용하여 번호판 영역에서 문자 폭, 배경영역과 문자 영역의 명암차를 조사하여 문자 영역임을 확인하고, 문자와 문자 사이의 거리를 조사하여 번호판 영역을 확인한다. 또한 번호판 영역 추출 과정에서 배경영역과 문자 영역의 명암차를 이용하여 번호판의 종류를 구분한다. 본 연구는 새로운 유럽형 번호판을 포함한 국내 번호판에 대하여 번호판 테두리 훼손에 따른 번호판 영역 추출 실패의 문제점을 해결하고 시간 소요의 문제를 실시간으로 처리함으로서 실용적 응용이 가능하도록 하였다.

3차원 비디오 서비스를 위한 고속 유도 영상 필터링 기반 스테레오 매칭 알고리즘 (Stereo Matching Algorithm Based on Fast Guided Image Filtering for 3-Dimensional Video Service)

  • 홍광수;김병규
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권6호
    • /
    • pp.523-529
    • /
    • 2016
  • 스테레오 매칭 알고리즘은 컴퓨터 비전과 사진촬영에 필수적인 알고리즘으로 정확도와 복잡도는 스테레오 매칭 알고리즘의 주요 문제점이었다. 그 중에서도 복잡도가 높은 문제점을 극복하기 위해 비용 볼륨 필터링을 기반한 스테레오 매칭 알고리즘에 대한 많은 연구가 이루어졌다. 지역 스테레오 매칭 기술인 유도 영상 필터링 기술은 O(N)의 복잡도를 가지고 있지만, 여전히 실시간 3D 비디오 서비스를 제공하기에는 계산량이 많은 편이다. 따라서 본 논문에서 고속 유도 영상 필터링에 기반한 스테레오 매칭 알고리즘을 제안한다. 고속 유도 필터링은 서브샘플 비율 $\small{s}$에 따라 복잡도 $O(N/\small{s}^2)$을 가지는 알고리즘이다. 제안하는 알고리즘은 효과적인 스테레오 알고리즘을 성능을 보여줌과 동시에 3D 서비스를 위한 빠른 실행 시간을 보여준다.

Analysis of the Increase of Matching Points for Accuracy Improvement in 3D Reconstruction Using Stereo CCTV Image Data

  • Moon, Kwang-il;Pyeon, MuWook;Eo, YangDam;Kim, JongHwa;Moon, Sujung
    • 한국측량학회지
    • /
    • 제35권2호
    • /
    • pp.75-80
    • /
    • 2017
  • Recently, there has been growing interest in spatial data that combines information and communication technology with smart cities. The high-precision LiDAR (Light Dectection and Ranging) equipment is mainly used to collect three-dimensional spatial data, and the acquired data is also used to model geographic features and to manage plant construction and cultural heritages which require precision. The LiDAR equipment can collect precise data, but also has limitations because they are expensive and take long time to collect data. On the other hand, in the field of computer vision, research is being conducted on the methods of acquiring image data and performing 3D reconstruction based on image data without expensive equipment. Thus, precise 3D spatial data can be constructed efficiently by collecting and processing image data using CCTVs which are installed as infrastructure facilities in smart cities. However, this method can have an accuracy problem compared to the existing equipment. In this study, experiments were conducted and the results were analyzed to increase the number of extracted matching points by applying the feature-based method and the area-based method in order to improve the precision of 3D spatial data built with image data acquired from stereo CCTVs. For techniques to extract matching points, SIFT algorithm and PATCH algorithm were used. If precise 3D reconstruction is possible using the image data from stereo CCTVs, it will be possible to collect 3D spatial data with low-cost equipment and to collect and build data in real time because image data can be easily acquired through the Web from smart-phones and drones.

빠른 특징점 기술자 추출 및 정합을 이용한 효율적인 이미지 스티칭 기법 (Efficient Image Stitching Using Fast Feature Descriptor Extraction and Matching)

  • 이상범
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권1호
    • /
    • pp.65-70
    • /
    • 2013
  • 최근 디지털 카메라 기술의 발전으로 이미지를 쉽게 생성할 수 있어 이를 활용한 컴퓨터 비전분야의 연구가 활발하게 진행되고 있다. 특히 디지털 이미지에서 특징점을 추출하고 이를 활용하는 연구가 활발하게 진행되고 있다. 이미지 스티칭은 여러 이미지에서 특징점을 추출하고 이를 정합하여 하나의 고해상도 이미지를 생성하는 것으로 군사용, 의료용뿐만 아니라 실생활의 다양한 분야에서 활용되고 있다. 본 논문에서는 특징점 기술자의 차원을 효과적으로 감소시켜 정확하면서도 빠르게 정합점을 찾을 수 있는 SURF 기반의 빠른 특징점 기술자 추출 및 정합을 이용한 효율적인 이미지 스티칭 기법을 제안한다. 추출된 특징점에서 불필요한 특징점을 분류하여 특징점 기술자를 생성한다. 이때 특징점 기술자의 연산량을 줄이면서도 효율적인 정합을 위해 기술자의 차원을 줄이고 방향 윈도우를 확장하였다. 실험 결과 특징점 정합 및 전체 이미지 스티칭 속도가 기존의 알고리즘보다 빠르면서도 자연스러운 스티칭된 이미지를 생성할 수 있었다.

건설 현장 CCTV 영상을 이용한 작업자와 중장비 추출 및 다중 객체 추적 (Extraction of Workers and Heavy Equipment and Muliti-Object Tracking using Surveillance System in Construction Sites)

  • 조영운;강경수;손보식;류한국
    • 한국건축시공학회지
    • /
    • 제21권5호
    • /
    • pp.397-408
    • /
    • 2021
  • 건설업은 업무상 재해 발생빈도와 사망자 수가 다른 산업군에 비해 높아 가장 위험한 산업군으로 불린다. 정부는 건설 현장에서 발생하는 산업 재해를 줄이고 예방하기 위해 CCTV 설치 의무화를 발표했다. 건설 현장의 안전 관리자는 CCTV 관제를 통해 현장의 잠재된 위험성을 찾아 제거하고 재해를 예방한다. 하지만 장시간 관제 업무는 피로도가 매우 높아 중요한 상황을 놓치는 경우가 많다. 따라서 본 연구는 딥러닝 기반 컴퓨터 비전 모형 중 개체 분할인 YOLACT와 다중 객체 추적 기법인 SORT을 적용하여 다중 클래스 다중 객체 추적 시스템을 개발하였다. 건설 현장에서 촬영한 영상으로 제안한 방법론의 성능을 MS COCO와 MOT 평가지표로 평가하였다. SORT는 YOLACT의 의존성이 높아서 작은 객체가 적은 데이터셋을 학습한 모형의 성능으로 먼 거리의 물체를 추적하는 성능이 떨어지지만, 크기가 큰 객체에서 뛰어난 성능을 나타냈다. 본 연구로 인해 딥러닝 기반 컴퓨터 비전 기법들의 안전 관제 업무에 보조 역할로 업무상 재해를 예방할 수 있을 것으로 판단된다.

리테일 마케팅 고도화를 위한 CCTV 영상 데이터 기반의 AI 융합 응용 서비스 활용 모델 연구 (A Study on the Application Model of AI Convergence Services Using CCTV Video for the Advancement of Retail Marketing)

  • 김종율;김혁중
    • 디지털융복합연구
    • /
    • 제19권5호
    • /
    • pp.197-205
    • /
    • 2021
  • 최근 리테일 산업계에서는 COVID-19 등의 다양한 외부 환경 위협으로부터의 대응과 AI 기술을 활용한 경쟁력을 갖추기 위한 정보기술 융합 및 활용 요구가 증가하고 있으나 리테일 산업에서의 데이터를 활용하기 위한 연구와 응용 서비스의 활용사례가 매우 부족하다. 본 연구는 CCTV 영상 데이터 기반의 AI 활용 응용 서비스 활용 사례연구로 리테일 공간에서의 CCTV 영상 데이터 수집, 객체 탐지 및 추적 AI 모델 활용, 실시간 추적된 객체와 트래킹 데이터를 저장하기 위한 시계열 데이터베이스 활용, 시계열 데이터를 활용한 모니터링, 리테일 공간의 혼잡도와 관심도를 분석하기 위한 히트맵, 리테일 공간에서의 실시간 상황 모니터링, COVID-19와 같은 사회적 위협으로부터의 접촉자 분석과 추적을 위한 사회적 거리 두기 현황, 비인가자의 보안 구역의 접근 모니터링 애플리케이션을 설계하고 이를 실제 구현하여 리테일 공간에서의 CCTV 영상 데이터를 활용한 애플리케이션 설계를 통해 CCTV 영상 데이터 기반의 AI 융합 응용 서비스 활용 모델을 제시하였으며, 실제 구현을 통해 설계된 활용 모델을 검증하였다.

스테레오 비전 시스템에서 차 영상을 이용한 이동 물체의 거리와 속도측정 ((Distance and Speed Measurements of Moving Object Using Difference Image in Stereo Vision System))

  • 허상민;조미령;이상훈;강준길;전형준
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권9호
    • /
    • pp.1145-1156
    • /
    • 2002
  • 스테레오 비전 시스템을 이용하여 이동 물체의 거리와 속도를 측정하기 위한 방법을 제안하였다. 이동 물체의 거리와 속도 측정에 있어서 가장 중요한 요소 중 하나는 물체 추적의 정확성이다. 따라서 빠르게 움직이는 물체 추적을 위해 배경 영상 기법을 이용하였고, 물체의 그림자와 잡음을 제거하기 위해 지역 Opening 연산을 이용하였다. 적응형 임계치를 적용하여 자기 변화에 상관없이 이동 물체의 추출 효율을 높이도록 하였다. 좌, 우 중심점 위치를 보정하여 더 정확한 물체의 속도와 거리를 측정할 수 있도록 하였다. 배경 영상 기법과 지역 Opening 연산을 사용하여 계산 과정을 줄임으로써 이동 물체의 거리와 속도의 실시간 처리가 가능하도록 하였다. 실험 결과, 배경 영상 기법은 다른 알고리즘과는 달리 빠르게 움직이는 물체를 추적할 수 있음을 보여준다. 적응형 임계치를 적용하여 후보 영역을 줄임으로써 목표물 추출 효율이 개선되었다. 양안 시차를 이용하여 목표물의 중심점을 보정함으로써 거리와 속도 측정 오차가 감소하였다. 스테레오 카메라에서부터 이동 물체까지의 거리 측정 오차율은 2.68%, 이동 물체의 속도 측정 오차율은 3.32%로 본 시스템의 향상된 효율성을 나타냈다.

  • PDF

스테레오 비전을 기반으로 한 3차원 입력 장치 (Stereo Vision Based 3D Input Device)

  • 윤상민;김익재;안상철;고한석;김형곤
    • 대한전자공학회논문지SP
    • /
    • 제39권4호
    • /
    • pp.429-441
    • /
    • 2002
  • 본 논문은 실시간으로 3차원 공간상에서의 움직임 정보를 추출할 수 있는 입력 장치를 제안한다. 제안하는 3차원 입력 장치는 스테레오 카메라의 기하학적 구조와 색상, 움직임, 형태상의 특성을 이용하여 복잡한 환경에서 사전 카메라 캘리브레이션 없이 3차원 움직임 정보를 추출할 수 있다. 움직임 추출을 위해서 perspepctive projection 행렬과 perspective distortion 행렬을 이용한 스테레오 카메라의 기하학적 특성을 이용하며, 효과적인 좌우 영상의 특징점 추적 및 추출을 위해 색상 변환(Color transform)과 UPC(Unmatched Pixel Count) 및 이산 칼만 필터(Discrete Kalman Filter)의 효과적인 결합으로 이루어진 MAWUPC(Motion Adaptive Weighted Pixel Count)과 PCA(Principal Component Analysis)로 구성된 알고리즘을 제안한다. 추출된 3차원 공간상에서의 움직임은 가상환경에서의 가상 물체를 제어하거나 사용자 시점의 이동을 나타내는 인터페이스로 사용한다. 스테레오 비전을 이용한 입력 장치는 선으로 연결되지 않기 때문에 사용자가 가상환경에서 작업하기가 편리하며 몰입감을 높일 수 있는 등 보다 효율적인 상호작용을 가능하게 해준다.

흑소의 얼굴을 이용한 개체인식 (Identification of Japanese Black Cattle by the Faces for Precision Livestock Farming)

  • 김현태;지전선랑;서률귀구;이인복
    • Journal of Biosystems Engineering
    • /
    • 제29권4호
    • /
    • pp.341-346
    • /
    • 2004
  • Recent livestock people concern not only increase of production, but also superior quality of animal-breeding environment. So far, the optimization of the breeding and air environment has been focused on the production increase. In the very near future, the optimization will be emphasized on the environment for the animal welfare and health. Especially, cattle farming demands the precision livestock farming and special attention has to be given to the management of feeding, animal health and fertility. The management of individual animal is the first step for precision livestock farming and animal welfare, and recognizing each individual is important for that. Though electronic identification of a cattle such as RFID(Radio Frequency Identification) has many advantages, RFID implementations practically involve several problems such as the reading speed and distance. In that sense, computer vision might be more effective than RFID for the identification of an individual animal. The researches on the identification of cattle via image processing were mostly performed with the cows having black-white patterns of the Holstein. But, the native Korean and Japanese cattle do not have any definite pattern on the body. The purpose of this research is to identify the Japanese black cattle that does not have a body pattern using computer vision technology and neural network algorithm. Twelve heads of Japanese black cattle have been tested to verify the proposed scheme. The values of input parameters were specified and then computed using the face images of cattle. The images of cattle faces were trained using associate neural network algorithm, and the algorithm was verified by the face images that were transformed using brightness, distortion, and noise factors. As a result, there was difference due to transform ratio of the brightness, distortion, and noise. And, the proposed algorithm could identify 100% in the range from -3 to +3 degrees of the brightness, from -2 to +4 degrees of the distortion, and from 0% to 60% of the noise transformed images. It is concluded that our system can not be applied in real time recognition of the moving cows, but can be used for the cattle being at a standstill.