• 제목/요약/키워드: Mask R-CNN(), Deep Learning

검색결과 48건 처리시간 0.02초

스마트 자율배송을 위한 클래스 분류와 객체별 학습데이터 유형 (Class Classification and Type of Learning Data by Object for Smart Autonomous Delivery)

  • 강영진;김기환;정석찬
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.37-47
    • /
    • 2022
  • 자율배송 운행 데이터는 코로나 시대의 라스트마일 배송에 대한 패러다임 변화를 주도하는 핵심이다. 국내 자율배송로봇과 해외 기술선도국가 간의 기술격차 해소를 위해서는 인공지능 학습에 사용 가능한 대규모 데이터 수집과 검증이 최우선으로 요구된다. 따라서 해외 기술선도국가에서는 인공지능 학습데이터를 누구든 사용가능한 공공데이터 형태로 오픈하여 검증과 기술발전에 기여하고 있다. 본 논문은 자율배송로봇 학습을 목적으로 326개의 객체를 수집하고 Mask r-cnn, Yolo v3 등의 인공지능 모델을 학습하고 검증하였다. 추가적으로 두 모델을 기반으로 비교하고 향후 자율배송로봇 연구에 요구되는 요소를 고찰하였다.

Keypoint-based Deep Learning Approach for Building Footprint Extraction Using Aerial Images

  • Jeong, Doyoung;Kim, Yongil
    • 대한원격탐사학회지
    • /
    • 제37권1호
    • /
    • pp.111-122
    • /
    • 2021
  • Building footprint extraction is an active topic in the domain of remote sensing, since buildings are a fundamental unit of urban areas. Deep convolutional neural networks successfully perform footprint extraction from optical satellite images. However, semantic segmentation produces coarse results in the output, such as blurred and rounded boundaries, which are caused by the use of convolutional layers with large receptive fields and pooling layers. The objective of this study is to generate visually enhanced building objects by directly extracting the vertices of individual buildings by combining instance segmentation and keypoint detection. The target keypoints in building extraction are defined as points of interest based on the local image gradient direction, that is, the vertices of a building polygon. The proposed framework follows a two-stage, top-down approach that is divided into object detection and keypoint estimation. Keypoints between instances are distinguished by merging the rough segmentation masks and the local features of regions of interest. A building polygon is created by grouping the predicted keypoints through a simple geometric method. Our model achieved an F1-score of 0.650 with an mIoU of 62.6 for building footprint extraction using the OpenCitesAI dataset. The results demonstrated that the proposed framework using keypoint estimation exhibited better segmentation performance when compared with Mask R-CNN in terms of both qualitative and quantitative results.

심층학습 기법을 활용한 효과적인 타이어 마모도 분류 및 손상 부위 검출 알고리즘 (Efficient Tire Wear and Defect Detection Algorithm Based on Deep Learning)

  • 박혜진;이영운;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제24권8호
    • /
    • pp.1026-1034
    • /
    • 2021
  • Tire wear and defect are important factors for safe driving condition. These defects are generally inspected by some specialized experts or very expensive equipments such as stereo depth camera and depth gauge. In this paper, we propose tire safety vision inspector based on deep neural network (DNN). The status of tire wear is categorized into three: 'safety', 'warning', and 'danger' based on depth of tire tread. We propose an attention mechanism for emphasizing the feature of tread area. The attention-based feature is concatenated to output feature maps of the last convolution layer of ResNet-101 to extract more robust feature. Through experiments, the proposed tire wear classification model improves 1.8% of accuracy compared to the existing ResNet-101 model. For detecting the tire defections, the developed tire defect detection model shows up-to 91% of accuracy using the Mask R-CNN model. From these results, we can see that the suggested models are useful for checking on the safety condition of working tire in real environment.

딥러닝과 그래프 모델을 활용한 고해상도 영상의 건물 변화탐지 (Building change detection in high spatial resolution images using deep learning and graph model)

  • 박슬아;송아람
    • 한국측량학회지
    • /
    • 제40권3호
    • /
    • pp.227-237
    • /
    • 2022
  • 다시기 고해상도 영상에 존재하는 건물의 위치 및 형태학적 왜곡은 건물의 변화탐지를 어렵게 만드는 요인 중 하나이다. 이를 해결하기 위하여 부가적인 3차원 지형정보 및 딥러닝을 활용한 연구가 수행되고 있지만, 실제 사례에 적용되기 어려운 한계가 있다. 본 연구에서는 건물의 효율적인 변화탐지를 수행하기 위하여, 건물의 위치 정보뿐만 아니라 건물 간 위상정보를 활용하는 방안을 제시한다. 다양한 비연직 영상에서의 건물을 학습하기 위하여 SpaceNet v2 데이터셋을 사용하여 Mask R-CNN (Region-based Convolutional Neural Network)을 학습하였으며, 건물 객체를 탐지하여 중심점을 노드로 추출하였다. 추출한 건물 노드를 중심으로 서로 다른 두 시기에 대해 각각 TIN (Triangulated Irregular Network) 그래프들을 형성하고, 두 그래프 간 구조적 차이가 발생한 영역에 기반하여 변화 건물을 추출하기 위해 그래프 유사도와 노드의 위치 차이를 반영한 변화 지수를 제안하였다. 최종적으로 변화 지숫값을 기반으로 두 그래프 간 비교를 통해 새롭게 생성되거나 삭제된 건물을 탐지하였다. 총 3쌍의 테스트 영역에 대해 제안한 기법을 적용한 결과, 건물들 간 연결성의 변화를 고려함으로써 기복 변위에 의해 서로 다른 시기간 동일 건물 쌍을 판단하기 어려운 경우에도 변화가 발생한 건물을 적절하게 탐지하는 것을 확인할 수 있었다.

Bridge Inspection and condition assessment using Unmanned Aerial Vehicles (UAVs): Major challenges and solutions from a practical perspective

  • Jung, Hyung-Jo;Lee, Jin-Hwan;Yoon, Sungsik;Kim, In-Ho
    • Smart Structures and Systems
    • /
    • 제24권5호
    • /
    • pp.669-681
    • /
    • 2019
  • Bridge collapses may deliver a huge impact on our society in a very negative way. Out of many reasons why bridges collapse, poor maintenance is becoming a main contributing factor to many recent collapses. Furthermore, the aging of bridges is able to make the situation much worse. In order to prevent this unwanted event, it is indispensable to conduct continuous bridge monitoring and timely maintenance. Visual inspection is the most widely used method, but it is heavily dependent on the experience of the inspectors. It is also time-consuming, labor-intensive, costly, disruptive, and even unsafe for the inspectors. In order to address its limitations, in recent years increasing interests have been paid to the use of unmanned aerial vehicles (UAVs), which is expected to make the inspection process safer, faster and more cost-effective. In addition, it can cover the area where it is too hard to reach by inspectors. However, this strategy is still in a primitive stage because there are many things to be addressed for real implementation. In this paper, a typical procedure of bridge inspection using UAVs consisting of three phases (i.e., pre-inspection, inspection, and post-inspection phases) and the detailed tasks by phase are described. Also, three major challenges, which are related to a UAV's flight, image data acquisition, and damage identification, respectively, are identified from a practical perspective (e.g., localization of a UAV under the bridge, high-quality image capture, etc.) and their possible solutions are discussed by examining recently developed or currently developing techniques such as the graph-based localization algorithm, and the image quality assessment and enhancement strategy. In particular, deep learning based algorithms such as R-CNN and Mask R-CNN for classifying, localizing and quantifying several damage types (e.g., cracks, corrosion, spalling, efflorescence, etc.) in an automatic manner are discussed. This strategy is based on a huge amount of image data obtained from unmanned inspection equipment consisting of the UAV and imaging devices (vision and IR cameras).

합성 데이터셋과 딥러닝 모델을 이용한 식물 엽면적 추정 (Plant leaf area estimation using synthetic dataset and deep learning model)

  • 서현권;안주연;박현지
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.90-92
    • /
    • 2022
  • 이 논문에서는 합성된 애기장대 데이터셋을 활용하여 딸기의 엽면적을 추정할 수 있는 딥러닝 모델을 제안한다. 제안된 모델에서는 개별 잎 검출을 위하여 합성 데이터셋으로 학습된 Mask R-CNN 의 객체 검출 모델을 사용하였고, 이어 이미지 후처리 작업에 해당되는 모폴로지 연산의 침식 및 팽창, 픽셀 카운터를 통해 엽면적을 추정하였다. 각기 다른 역할을 수행하는 신경망 계층에 어텐션 메커니즘 적용하여 검출 성능의 향상과 검출 시간을 단축하였다. 제안된 모델은 딸기 데이터셋을 사용하지 않는 합성된 데이터셋만으로도 실제 온실에서 획득한 다양한 이미지에서의 딸기 엽면적을 추정하는 데에 우수한 성능을 보여준다.

  • PDF

태양객체 정보 및 태양광 특성을 이용하여 사용자 위치의 자외선 지수를 산출하는 DNN 모델 (DNN Model for Calculation of UV Index at The Location of User Using Solar Object Information and Sunlight Characteristics)

  • 가덕현;오승택;임재현
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.29-35
    • /
    • 2022
  • 자외선은 노출 정도에 따라 인체에 유익 또는 유해한 영향을 미치므로 개인별 적정 노출을 위해서는 정확한 자외선(UV) 정보가 필요하다. 국내의 경우 기상청에서 생활기상정보의 한 요소로 자외선 정보를 제공하고 있으나 지역별 자외선 지수(UVI, Ultraviolet Index)로 사용자 위치의 정확한 UVI를 제공하지는 못하고 있다. 일부에서는 정확한 UVI의 취득을 위해 직접 계측기를 운용하지만 비용이나 편의성에 문제가 있고, 태양의 복사량과 운량 등 주변 환경요소를 통해 자외선 양을 추정하는 연구도 소개되었으나 개인별 서비스 방법을 제시하지는 못하였다. 이에 본 논문에서는 각 개인별 위치에서의 정확한 UVI 제공을 위한 태양객체 정보와 태양광 특성을 이용한 UVI 산출 딥러닝 모델을 제안한다. 기 수집한 하늘이미지 및 태양광 특성을 분석하여 태양의 위치 및 크기, 조도 등 UVI와 상관도가 높은 요소들을 선정한 후 DNN 모델을 위한 데이터 셋을 구성한다. 이후 하늘이미지로부터 Mask R-CNN을 통해 추출한 태양객체 정보와 태양광 특성을 입력하여 UVI를 산출하는 DNN 모델을 구현한다. 국내 UVI 권고기준을 고려, UVI 8이상과 미만인 날에 대한 성능평가에서는 기준장비 대비 MAE 0.26의 범위 내 정확한 UVI의 산출이 가능하였다.

Correlation Extraction from KOSHA to enable the Development of Computer Vision based Risks Recognition System

  • Khan, Numan;Kim, Youjin;Lee, Doyeop;Tran, Si Van-Tien;Park, Chansik
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.87-95
    • /
    • 2020
  • Generally, occupational safety and particularly construction safety is an intricate phenomenon. Industry professionals have devoted vital attention to enforcing Occupational Safety and Health (OHS) from the last three decades to enhance safety management in construction. Despite the efforts of the safety professionals and government agencies, current safety management still relies on manual inspections which are infrequent, time-consuming and prone to error. Extensive research has been carried out to deal with high fatality rates confronting by the construction industry. Sensor systems, visualization-based technologies, and tracking techniques have been deployed by researchers in the last decade. Recently in the construction industry, computer vision has attracted significant attention worldwide. However, the literature revealed the narrow scope of the computer vision technology for safety management, hence, broad scope research for safety monitoring is desired to attain a complete automatic job site monitoring. With this regard, the development of a broader scope computer vision-based risk recognition system for correlation detection between the construction entities is inevitable. For this purpose, a detailed analysis has been conducted and related rules which depict the correlations (positive and negative) between the construction entities were extracted. Deep learning supported Mask R-CNN algorithm is applied to train the model. As proof of concept, a prototype is developed based on real scenarios. The proposed approach is expected to enhance the effectiveness of safety inspection and reduce the encountered burden on safety managers. It is anticipated that this approach may enable a reduction in injuries and fatalities by implementing the exact relevant safety rules and will contribute to enhance the overall safety management and monitoring performance.

  • PDF