• 제목/요약/키워드: Object feature detection

검색결과 342건 처리시간 0.025초

딥러닝 기반의 돌출 객체 검출을 위한 Saliency Attention 방법 (Saliency Attention Method for Salient Object Detection Based on Deep Learning)

  • 김회준;이상훈;한현호;김진수
    • 한국융합학회논문지
    • /
    • 제11권12호
    • /
    • pp.39-47
    • /
    • 2020
  • 본 논문에서는 이미지에서 돌출되는 객체를 검출하기 위해 Saliency Attention을 이용한 딥러닝 기반의 검출 방법을 제안하였다. 돌출 객체 검출은 사람의 시선이 집중되는 물체를 배경으로부터 분리시키는 것이며, 이미지에서 관련성이 높은 부분을 결정한다. 객체 추적 및 검출, 인식 등의 다양한 분야에서 유용하게 사용된다. 기존의 딥러닝 기반 방법들은 대부분 오토인코더 구조로, 특징을 압축 및 추출하는 인코더와 추출된 특징을 복원 및 확장하는 디코더에서 많은 특징 손실이 발생한다. 이러한 손실로 돌출 객체 영역에 손실이 발생하거나 배경을 객체로 검출하는 문제가 있다. 제안하는 방법은 오토인코더 구조에서 특징 손실을 감소시키고 배경 영역을 억제하기 위해 Saliency Attention을 제안하였다. ELU 활성화 함수를 이용해 특징 값의 영향력을 결정하며 각각 정규화된 음수 및 양수 영역의 특징값에 Attention을 진행하였다. 제안하는 Attention 기법을 통해 배경 영역을 억제하며 돌출 객체 영역을 강조하였다. 실험 결과에서는 제안하는 방법이 기존 방법과 비교하여 향상된 검출 결과를 보였다.

다중 채널 동적 객체 정보 추정을 통한 특징점 기반 Visual SLAM (A New Feature-Based Visual SLAM Using Multi-Channel Dynamic Object Estimation)

  • 박근형;조형기
    • 대한임베디드공학회논문지
    • /
    • 제19권1호
    • /
    • pp.65-71
    • /
    • 2024
  • An indirect visual SLAM takes raw image data and exploits geometric information such as key-points and line edges. Due to various environmental changes, SLAM performance may decrease. The main problem is caused by dynamic objects especially in highly crowded environments. In this paper, we propose a robust feature-based visual SLAM, building on ORB-SLAM, via multi-channel dynamic objects estimation. An optical flow and deep learning-based object detection algorithm each estimate different types of dynamic object information. Proposed method incorporates two dynamic object information and creates multi-channel dynamic masks. In this method, information on actually moving dynamic objects and potential dynamic objects can be obtained. Finally, dynamic objects included in the masks are removed in feature extraction part. As a results, proposed method can obtain more precise camera poses. The superiority of our ORB-SLAM was verified to compared with conventional ORB-SLAM by the experiment using KITTI odometry dataset.

Three-stream network with context convolution module for human-object interaction detection

  • Siadari, Thomhert S.;Han, Mikyong;Yoon, Hyunjin
    • ETRI Journal
    • /
    • 제42권2호
    • /
    • pp.230-238
    • /
    • 2020
  • Human-object interaction (HOI) detection is a popular computer vision task that detects interactions between humans and objects. This task can be useful in many applications that require a deeper understanding of semantic scenes. Current HOI detection networks typically consist of a feature extractor followed by detection layers comprising small filters (eg, 1 × 1 or 3 × 3). Although small filters can capture local spatial features with a few parameters, they fail to capture larger context information relevant for recognizing interactions between humans and distant objects owing to their small receptive regions. Hence, we herein propose a three-stream HOI detection network that employs a context convolution module (CCM) in each stream branch. The CCM can capture larger contexts from input feature maps by adopting combinations of large separable convolution layers and residual-based convolution layers without increasing the number of parameters by using fewer large separable filters. We evaluate our HOI detection method using two benchmark datasets, V-COCO and HICO-DET, and demonstrate its state-of-the-art performance.

Activity Object Detection Based on Improved Faster R-CNN

  • Zhang, Ning;Feng, Yiran;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.416-422
    • /
    • 2021
  • Due to the large differences in human activity within classes, the large similarity between classes, and the problems of visual angle and occlusion, it is difficult to extract features manually, and the detection rate of human behavior is low. In order to better solve these problems, an improved Faster R-CNN-based detection algorithm is proposed in this paper. It achieves multi-object recognition and localization through a second-order detection network, and replaces the original feature extraction module with Dense-Net, which can fuse multi-level feature information, increase network depth and avoid disappearance of network gradients. Meanwhile, the proposal merging strategy is improved with Soft-NMS, where an attenuation function is designed to replace the conventional NMS algorithm, thereby avoiding missed detection of adjacent or overlapping objects, and enhancing the network detection accuracy under multiple objects. During the experiment, the improved Faster R-CNN method in this article has 84.7% target detection result, which is improved compared to other methods, which proves that the target recognition method has significant advantages and potential.

골격 특징 및 색상 유사도를 이용한 가축 도난 감지 시스템 (Livestock Theft Detection System Using Skeleton Feature and Color Similarity)

  • 김준형;주영훈
    • 전기학회논문지
    • /
    • 제67권4호
    • /
    • pp.586-594
    • /
    • 2018
  • In this paper, we propose a livestock theft detection system through moving object classification and tracking method. To do this, first, we extract moving objects using GMM(Gaussian Mixture Model) and RGB background modeling method. Second, it utilizes a morphology technique to remove shadows and noise, and recognizes moving objects through labeling. Third, the recognized moving objects are classified into human and livestock using skeletal features and color similarity judgment. Fourth, for the classified moving objects, CAM (Continuously Adaptive Meanshift) Shift and Kalman Filter are used to perform tracking and overlapping judgment, and risk is judged to generate a notification. Finally, several experiments demonstrate the feasibility and applicability of the proposed method.

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

Real-Time Container Shape and Range Recognition for Implementation of Container Auto-Landing System

  • Wei, Li;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제12권6호
    • /
    • pp.794-803
    • /
    • 2009
  • In this paper, we will present a container auto-landing system, the system use the stereo camera to measure the container depth information. And the container region can be detected by using its hough line feature. In the line feature detection algorithm, we will detect the parallel lines and perpendicular lines which compose the rectangle region. Among all the candidate regions, we can select the region with the same aspect-ratio to the container. The region will be the detected container region. After having the object on both left and right images, we can estimate the distance from camera to object and container dimension. Then all the detect dimension information and depth inform will be applied to reconstruct the virtual environment of crane which will be introduce in this paper. Through the simulation result, we can know that, the container detection rate achieve to 97% with simple background. And the estimation algorithm can get a more accuracy result with a far distance than the near distance.

  • PDF

Development of an Edge-Based Algorithm for Moving-Object Detection Using Background Modeling

  • Shin, Won-Yong;Kabir, M. Humayun;Hoque, M. Robiul;Yang, Sung-Hyun
    • Journal of information and communication convergence engineering
    • /
    • 제12권3호
    • /
    • pp.193-197
    • /
    • 2014
  • Edges are a robust feature for object detection. In this paper, we present an edge-based background modeling method for the detection of moving objects. The edges in the image frames were mapped using robust Canny edge detector. Two edge maps were created and combined to calculate the ultimate moving-edge map. By selecting all the edge pixels of the current frame above the defined threshold of the ultimate moving edges, a temporary background-edge map was created. If the frequencies of the temporary background edge pixels for several frames were above the threshold, then those edge pixels were treated as background edge pixels. We conducted a performance comparison with previous works. The existing edge-based moving-object detection algorithms pose some difficulty due to the changes in background motion, object shape, illumination variation, and noises. The result of the performance evaluation shows that the proposed algorithm can detect moving objects efficiently in real-world scenarios.

사각 특징을 추가한 Viola-Jones 물체 검출 알고리즘 (Viola-Jones Object Detection Algorithm Using Rectangular Feature)

  • 서지원;이지은;곽노준
    • 대한전자공학회논문지SP
    • /
    • 제49권3호
    • /
    • pp.18-29
    • /
    • 2012
  • 실시간 물체 검출에 매우 효과적이라고 알려져 있는 Viola-Jones 알고리즘에서는 약분류기를 구성하기 위해 Haar 모양의 특징들을 사용한다. 이러한 Haar 모양 특징은 각각 양의 영역과 음의 영역에 해당하는 두 개 이상의 사각형의 조합으로 구성되며 양의 영역에 해당하는 화소값들의 합과 음의 영역에 해당하는 화소값들의 합의 차에 의하여 특징값을 계산한다. 본 논문에서 새롭게 제안하는 사각 특징은 두 개 이상의 사각 영역으로 구성되는 Haar 모양 특징과는 달리 단일한 사각 영역으로 구성되어 영역 내의 화소값들을 총합과 분산을 특징으로 사용한다. 이러한 사각 특징들을 기존의 Haar 모양 특징과 함께 사용하면 물체의 특징을 인접하는 밝은 영역과 어두운 영역의 조합으로만 선택했던 기존의 방법으로 인해 그동안 배제되어 온 새로운 특징을 선택할 수 있으며 그 결과 계산상의 손실 없이 물체 검출의 성능을 높일 수 있다.

객체 추적을 위한 특징점 검출기의 설계 및 구현 (Design and Implementation of Feature Detector for Object Tracking)

  • 이두현;김현;조재찬;정윤호
    • 전기전자학회논문지
    • /
    • 제23권1호
    • /
    • pp.207-213
    • /
    • 2019
  • 본 논문에서는 객체 추적을 위한 간소화된 특징점 검출 알고리즘을 제안하고, 이의 실시간 처리를 위한 하드웨어 구조 설계 및 구현 결과를 제시한다. 기존 Shi-Tomasi 알고리즘은 객체 추적 응용에서 우수한 성능을 보이지만, 연산 복잡도가 큰 문제가 존재한다. 따라서, 기존 알고리즘에 비해 연산 복잡도를 간소화시키면서 유사한 성능 지원이 가능한 효율적인 특징점 검출 알고리즘을 제안하고, 하드웨어 설계 및 구현 결과를 제시한다. 제안된 특징점 검출기는 FPGA 기반 구현 결과, 1,307개의 logic slices, 5개의 DSP 48s, 86.91Kbit의 메모리로 구현 가능함을 확인하였으며, 114MHz의 동작 주파수로 $1920{\times}1080FHD$급 영상에 대해 54fps의 실시간 처리가 가능하다.