• 제목/요약/키워드: Extraction of bounding box

검색결과 12건 처리시간 0.021초

무감독 SVM 분류 기법을 통한 드론 영상 경계 박스 내 차량 자동 추출 연구 (A Study on Automatic Vehicle Extraction within Drone Image Bounding Box Using Unsupervised SVM Classification Technique)

  • 염준호
    • 토지주택연구
    • /
    • 제14권4호
    • /
    • pp.95-102
    • /
    • 2023
  • 도시 지역에서 객체를 탐지하기 위해 드론 고해상도 영상에 기계 학습 알고리즘을 적용하는 다양한 연구가 진행되었다. 그러나 대부분의 차량 추출 연구는 인스턴스 세그멘테이션 대신 경계 박스로 차량을 탐지하여 차량의 방향이나 정확한 경계를 알 수 없다는 한계점이 있다. 인스턴스 세그멘테이션은 개별 개체를 훈련하기 위한 노동 집약적인 레이블링 작업을 필요로 하므로, 차량 추출을 위해 자동 무감독 인스턴스 세그멘테이션을 수행하는 방법에 대한 연구가 필요하다. 따라서 본 연구에서는 드론 영상의 차량 경계 박스에 대해 무감독 SVM 분류 기반의 차량 추출 기법을 제안하였다. 연구 결과, 차량을 89% 정확도로 추출할 수 있음을 확인하였으며 차량 내의 분광 특성이 크게 다른 경우에도 차량을 추출할 수 있음을 확인하였다.

단조프레스기의 유압유 누유영역 영상 감지 시스템 (Image Detection System for Leakage Regions of Hydraulic Fluid in Faring Press Machine)

  • 배성호
    • 한국멀티미디어학회논문지
    • /
    • 제12권11호
    • /
    • pp.1557-1562
    • /
    • 2009
  • 단조프레스기의 유압실에서 배관의 연결부위의 손강으로 인한 누유는 인명피해와 기계 파손의 위험성이 있어 이를 조기에 발견하여 예방하는 시스템이 필요하다. 본 논문에서는 원격지에서 회전형 카메라를 이용하여 유압유의 누유여부를 자동 인식하는 시스템을 구현하였다. 구현한 시스템은 라벨링 과정에서 객체영역을 나타내는 경계사각형을 구하고 경계사각형의 높이와 폭에 대한 비율, 누유형상의 원형도를 이용하여, 올바른 누유영역을 추출하였다. 또한 잡음제거와 영상의 이동과 회전에 대한 보정을 전처리 과정으로 수행한다. 실험을 통하여 제안한 시스템이 여러 가지 조명 환경에서도 누유영역을 정확하게 찾아내는 것을 확인하였다.

  • PDF

고속의 세미오토매틱 비디오객체 추적 알고리즘 (A Fast Semiautomatic Video Object Tracking Algorithm)

  • 이종원;김진상;조원경
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.291-294
    • /
    • 2004
  • Semantic video object extraction is important for tracking meaningful objects in video and object-based video coding. We propose a fast semiautomatic video object extraction algorithm which combines a watershed segmentation schemes and chamfer distance transform. Initial object boundaries in the first frame are defined by a human before the tracking, and fast video object tracking can be achieved by tracking only motion-detected regions in a video frame. Experimental results shows that the boundaries of tracking video object arc close to real video object boundaries and the proposed algorithm is promising in terms of speed.

  • PDF

Region-based Corner Detection by Radial Projection

  • Lee, Dae-Ho;Lee, Seung-Gwan;Choi, Jin-Hyuk
    • Journal of the Optical Society of Korea
    • /
    • 제15권2호
    • /
    • pp.152-154
    • /
    • 2011
  • We propose a novel method which detects convex and concave corners using radial projection. The sum of two neighbors' differences at the local maxima or minima of the radial projection is compared with the angle threshold for detecting corners. In addition, the use of oriented bounding box trees and partial circles makes it possible to detect the corners of complex shapes. The experimental results show that the proposed method can separately detect the convex and concave corners, and that this method is scale invariant.

Application of YOLOv5 Neural Network Based on Improved Attention Mechanism in Recognition of Thangka Image Defects

  • Fan, Yao;Li, Yubo;Shi, Yingnan;Wang, Shuaishuai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권1호
    • /
    • pp.245-265
    • /
    • 2022
  • In response to problems such as insufficient extraction information, low detection accuracy, and frequent misdetection in the field of Thangka image defects, this paper proposes a YOLOv5 prediction algorithm fused with the attention mechanism. Firstly, the Backbone network is used for feature extraction, and the attention mechanism is fused to represent different features, so that the network can fully extract the texture and semantic features of the defect area. The extracted features are then weighted and fused, so as to reduce the loss of information. Next, the weighted fused features are transferred to the Neck network, the semantic features and texture features of different layers are fused by FPN, and the defect target is located more accurately by PAN. In the detection network, the CIOU loss function is used to replace the GIOU loss function to locate the image defect area quickly and accurately, generate the bounding box, and predict the defect category. The results show that compared with the original network, YOLOv5-SE and YOLOv5-CBAM achieve an improvement of 8.95% and 12.87% in detection accuracy respectively. The improved networks can identify the location and category of defects more accurately, and greatly improve the accuracy of defect detection of Thangka images.

Fall Detection Based on Human Skeleton Keypoints Using GRU

  • Kang, Yoon-Kyu;Kang, Hee-Yong;Weon, Dal-Soo
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권4호
    • /
    • pp.83-92
    • /
    • 2020
  • A recent study to determine the fall is focused on analyzing fall motions using a recurrent neural network (RNN), and uses a deep learning approach to get good results for detecting human poses in 2D from a mono color image. In this paper, we investigated the improved detection method to estimate the position of the head and shoulder key points and the acceleration of position change using the skeletal key points information extracted using PoseNet from the image obtained from the 2D RGB low-cost camera, and to increase the accuracy of the fall judgment. In particular, we propose a fall detection method based on the characteristics of post-fall posture in the fall motion analysis method and on the velocity of human body skeleton key points change as well as the ratio change of body bounding box's width and height. The public data set was used to extract human skeletal features and to train deep learning, GRU, and as a result of an experiment to find a feature extraction method that can achieve high classification accuracy, the proposed method showed a 99.8% success rate in detecting falls more effectively than the conventional primitive skeletal data use method.

An Optimized e-Lecture Video Search and Indexing framework

  • Medida, Lakshmi Haritha;Ramani, Kasarapu
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.87-96
    • /
    • 2021
  • The demand for e-learning through video lectures is rapidly increasing due to its diverse advantages over the traditional learning methods. This led to massive volumes of web-based lecture videos. Indexing and retrieval of a lecture video or a lecture video topic has thus proved to be an exceptionally challenging problem. Many techniques listed by literature were either visual or audio based, but not both. Since the effects of both the visual and audio components are equally important for the content-based indexing and retrieval, the current work is focused on both these components. A framework for automatic topic-based indexing and search depending on the innate content of the lecture videos is presented. The text from the slides is extracted using the proposed Merged Bounding Box (MBB) text detector. The audio component text extraction is done using Google Speech Recognition (GSR) technology. This hybrid approach generates the indexing keywords from the merged transcripts of both the video and audio component extractors. The search within the indexed documents is optimized based on the Naïve Bayes (NB) Classification and K-Means Clustering models. This optimized search retrieves results by searching only the relevant document cluster in the predefined categories and not the whole lecture video corpus. The work is carried out on the dataset generated by assigning categories to the lecture video transcripts gathered from e-learning portals. The performance of search is assessed based on the accuracy and time taken. Further the improved accuracy of the proposed indexing technique is compared with the accepted chain indexing technique.

Stereo Vision과 AlphaPose를 이용한 다중 객체 거리 추정 방법에 관한 연구 (A Study on the Estimation of Multi-Object Social Distancing Using Stereo Vision and AlphaPose)

  • 이주민;배현재;장규진;김진평
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권7호
    • /
    • pp.279-286
    • /
    • 2021
  • 최근 COVID-19 확산 방지를 위한 공공장소에서는 최소 1m 이상을 유지하는 물리적 거리두기 정책을 실행하고 있다. 본 논문에서는 드론과 CCTV가 취득한 스테레오 영상에서 실시간으로 사람들 간의 거리를 추정하는 방법과 추정된 거리에서 1m 이내의 객체를 인식하는 자동화 시스템을 제안한다. 기존의 CCTV를 이용하여 다중 객체 간의 거리 추정에 사용되었던 방법의 문제점으로는 한 대의 CCTV만을 이용하여 객체의 3차원 정보를 얻지 못한다는 것이다. 선, 후행하거나 겹쳐진 사람 간의 거리를 구하기 위해서는 3차원 정보가 필요하기 때문이다. 또한, 일반적인 Detected Bounding Box를 사용하여 영역 안에서 사람이 존재하는 정확한 좌표를 얻지 못한다. 따라서 사람이 존재하는 정확한 위치 정보를 얻기 위해 스켈레톤 추출하여 관절 키포인트의 2차원 좌표를 획득한 후, Stereo Vision을 이용한 카메라 캘리브레이션을 적용하여 3차원 좌표로 변환한다. 3차원으로 변환된 관절 키포인트의 중심좌표를 계산하고 객체 간 사이의 거리를 추정한다. 3차원 좌표의 정확성과 객체(사람) 간의 거리 추정 실험을 수행한 결과, 1m 이내에 존재하는 다수의 사람 간의 거리 추정에서 0.098m 이내 평균오차를 보였다.

CAM과 Selective Search를 이용한 확장된 객체 지역화 학습데이터 생성 및 이의 재학습을 통한 WSOL 성능 개선 (Expanded Object Localization Learning Data Generation Using CAM and Selective Search and Its Retraining to Improve WSOL Performance)

  • 고수연;최영우
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권9호
    • /
    • pp.349-358
    • /
    • 2021
  • 최근 CAM[1]을 이용해서 이미지의 객체에 대한 주의 영역 또는 지역화(Localization) 영역을 찾는 방법이 WSOL의 연구로서 다양하게 수행되고 있다. CAM을 이용한 객체의 히트(Heat) 맵에서 주의 영역 추출은 객체의 특징이 가장 많이 모여 있는 영역만을 주로 집중해서 객체의 전체적인 영역을 찾지 못하는 단점이 있다. 여기서는 이를 개선하기 위해서 먼저 CAM과 Selective Search[6]를 함께 이용하여 CAM 히트맵의 주의 영역을 확장하고, 확장된 영역에 가우시안 스무딩을 적용하여 재학습 데이터를 만든 후, 이를 학습하여 객체의 주의 영역이 확장되는 방법을 제안한다. 제안 방법은 단 한 번의 재학습만이 필요하며, 학습 후 지역화를 수행할 때는 Selective Search를 실행하지 않기 때문에 처리 시간이 대폭 줄어든다. 실험에서 기존 CAM의 히트맵들과 비교했을 때 핵심 특징 영역으로부터 주의 영역이 확장되고, 확장된 주의 영역 바운딩 박스에 대한 Ground Truth와의 IOU 계산에서 기존 CAM보다 약 58%가 개선되었다.

가상 현실 게임 환경에서의 가상 손 제어를 위한 사용자 손 인식 방법 (A Method of Hand Recognition for Virtual Hand Control of Virtual Reality Game Environment)

  • 김부년;김종호;김태영
    • 한국게임학회 논문지
    • /
    • 제10권2호
    • /
    • pp.49-56
    • /
    • 2010
  • 본 논문에서는 사용자의 손을 인식하여 가상현실 게임 환경에서 가상의 손을 제어할 수 있는 방법을 제안한다. 카메라를 통해 획득한 영상을 통하여 사용자의 손 이동과 가리키는 방향에 대한 정보를 획득하고 이를 이용하여 가상의 손을 게임 화면에 나타낸다. 사용자의 손의 움직임은 가상의 손이 물건을 선택하고 옮기도록 하는 입력 인터페이스로 활용할 수 있다. 제안하는 방법은 비전 기반 손 인식 기법으로 먼저 RGB 컬러영역에서 HSV 컬러영역으로 입력영상을 변환하고 H, S 값에 대한 이중 임계값과 연결 요소 분석을 이용하여 손 영역을 분할한다. 다음으로 분할된 영역에 대하여 0, 1차 모멘트를 적용하고 이를 이용하여 손 영역에 대한 무게 중심점을 구한다. 구해진 무게중심점은 손의 중심에 위치하게 되며, 분할된 손 영역의 픽셀 집합 중 무게중심점으로부터 멀리 떨어진 픽셀들을 손가락의 끝점으로 인식한다. 마지막으로 무게중심점과 손 끝점에 대한 벡터를 통하여 손의 축을 구한다. 인식 안정성과 성능을 높이기 위하여 누적 버퍼를 이용한 떨림 보정과 경계상자를 이용한 처리 영역을 설정하였다. 본 논문의 방법은 기존의 비전 기술을 통한 손 인식 방법들에 비하여 별도의 착용 마커를 두지 않고 실시간으로 처리가 가능하다. 다양한 입력 영상들에 대한 실험 결과는 제안 기법으로 정확하게 손을 분할하고, 안정된 인식 결과를 고속으로 처리할 수 있음을 보여주었다.