• 제목/요약/키워드: IoU

검색결과 192건 처리시간 0.023초

Automated Print Quality Assessment Method for 3D Printing AI Data Construction

  • Yoo, Hyun-Ju;Moon, Nammee
    • Journal of Information Processing Systems
    • /
    • 제18권2호
    • /
    • pp.223-234
    • /
    • 2022
  • The evaluation of the print quality of 3D printing has traditionally relied on manual work using dimensional measurements. However, the dimensional measurement method has an error value that depends on the person who measures it. Therefore, we propose the design of a new print quality measurement method that can be automatically measured using the field-of-view (FOV) model and the intersection over union (IoU) technique. First, the height information of the modeling is acquired from a camera; the output is measured by a sensor; and the images of the top and isometric views are acquired from the FOV model. The height information calculates the height ratio by calculating the percentage of modeling and output, and compares the 2D contour of the object on the image using the FOV model. The contour of the object is obtained from the image for 2D contour comparison and the IoU is calculated by comparing the areas of the contour regions. The accuracy of the automated measurement technique for determining, which derives the print quality value was calculated by averaging the IoU value corrected by the measurement error and the height ratio value.

Vehicle Orientation Detection Using CNN

  • Nguyen, Huu Thang;Kim, Jaemin
    • 전기전자학회논문지
    • /
    • 제25권4호
    • /
    • pp.619-624
    • /
    • 2021
  • Vehicle orientation detection is a challenging task because the orientations of vehicles can vary in a wide range in captured images. The existing methods for oriented vehicle detection require too much computation time to be applied to a real-time system. We propose Rotate YOLO, which has a set of anchor boxes with multiple scales, ratios, and angles to predict bounding boxes. For estimating the orientation angle, we applied angle-related IoU with CIoU loss to solve the underivable problem from the calculation of SkewIoU. Evaluation results on three public datasets DLR Munich, VEDAI and UCAS-AOD demonstrate the efficiency of our approach.

A three-stage deep-learning-based method for crack detection of high-resolution steel box girder image

  • Meng, Shiqiao;Gao, Zhiyuan;Zhou, Ying;He, Bin;Kong, Qingzhao
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.29-39
    • /
    • 2022
  • Crack detection plays an important role in the maintenance and protection of steel box girder of bridges. However, since the cracks only occupy an extremely small region of the high-resolution images captured from actual conditions, the existing methods cannot deal with this kind of image effectively. To solve this problem, this paper proposed a novel three-stage method based on deep learning technology and morphology operations. The training set and test set used in this paper are composed of 360 images (4928 × 3264 pixels) in steel girder box. The first stage of the proposed model converted high-resolution images into sub-images by using patch-based method and located the region of cracks by CBAM ResNet-50 model. The Recall reaches 0.95 on the test set. The second stage of our method uses the Attention U-Net model to get the accurate geometric edges of cracks based on results in the first stage. The IoU of the segmentation model implemented in this stage attains 0.48. In the third stage of the model, we remove the wrong-predicted isolated points in the predicted results through dilate operation and outlier elimination algorithm. The IoU of test set ascends to 0.70 after this stage. Ablation experiments are conducted to optimize the parameters and further promote the accuracy of the proposed method. The result shows that: (1) the best patch size of sub-images is 1024 × 1024. (2) the CBAM ResNet-50 and the Attention U-Net achieved the best results in the first and the second stage, respectively. (3) Pre-training the model of the first two stages can improve the IoU by 2.9%. In general, our method is of great significance for crack detection.

SegNet과 U-Net을 활용한 동남아시아 지역 홍수탐지 (Extracting Flooded Areas in Southeast Asia Using SegNet and U-Net)

  • 김준우;전현균;김덕진
    • 대한원격탐사학회지
    • /
    • 제36권5_3호
    • /
    • pp.1095-1107
    • /
    • 2020
  • 홍수 발생 시 위성영상을 활용하여 침수된 지역을 추출하는 것은 홍수 발생 기간 내의 위성영상 취득과 영상에 나타난 침수구역의 정확한 분류 등에서 많은 어려움이 존재한다. 딥러닝은 전통적인 영상분류기법들에 비해 보다 정확도가 높은 위성영상분류기법으로 주목받고 있지만, 광학영상에 비해 홍수 발생 시 위성영상의 취득이 용이한 SAR 영상의 분류 잠재력은 아직 명확히 규명되지 않았다. 본 연구는 대표적인 의미론적 영상 분할을 위한 딥러닝 모델인 SegNet과 U-Net을 활용하여 동남아시아의 라오스, 태국, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)에 대해 Sentinel-1 A/B 위성영상으로부터 침수지역 추출을 실시하였다. 분석결과 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타났다. 국지적 분류결과 확인을 위한 육안검증에서 U-Net이 SegNet에 비해 보다 높은 분류 정확도를 보여주었지만, 모델의 훈련에 필요한 시간은 67분 17초와 187분 19초가 각각 소요되어 SegNet이 U-Net에 비해 약 3배 정도 빠른 처리속도를 보여주었다. 본 연구의 결과는 향후 딥러닝 기법을 활용한 SAR 영상기반의 홍수탐지 모델과 실무적으로 활용이 가능한 자동화된 딥러닝 기반의 수계탐지 기법의 제시를 위한 중요한 참고자료로 활용될 수 있을 것으로 판단된다.

IoT 헬스케어 서비스를 위한 ISO/IEEE 11073 DIM/REST 기반 생체정보 모니터링 시스템 설계 및 구현 (Design and Implementation of Bio-data Monitering System Based on ISO/IEEE 11073 DIM/REST for IoT Healthcare Service)

  • 최주연;천승만;장동현;박종태
    • 전자공학회논문지
    • /
    • 제52권3호
    • /
    • pp.3-12
    • /
    • 2015
  • 최근 들어, 웹 서비스와 연동을 통해 생체정보 모니터링 서비스를 제공하기 위한 다양한 연구가 시도되고 있다. 의료정보전송 표준인 ISO/IEEE 11073 PHD에서는 ISO/IEEE 11073 에이전트와 ISO/IEEE 11073 매니저간의 생체정보 교환을 위해 비 IP (No-Internet Protocol) 기반의 최적화된 교환 프로토콜인 ISO/IEEE 11073-20601을 정의하고 있다. 이러한 ISO/IEEE 11073-20601을 이용한 비IP 기반의 시스템 구조는 사물인터넷 기반의 원격 생체정보 모니터링 서비스를 제공하는 데 적합하지 않다. 왜냐하면, 사물인터넷 기반 U-헬스케어 서비스에서 원격지의 IP가 탑재된 생체정보 측정 장치들을 관리 및 제어할 수 있는 기능을 지원하기 어렵기 때문이다. 게다가, ISO/IEEE 11073-20601에서 정의하고 있는 ACSE와 CMDISE는 구조적인 복잡도로 인해 구현하기 어렵고 복잡하기 때문에 사물인터넷 기반의 U-헬스케어 서비스를 제공하는데 적합하지 않다. 이러한 기존의 문제점을 해결하기 위해, 본 논문에서는 사물인터넷 기반의 생체정보 모니터링 서비스를 제공하기 위한 사물인터넷의 ISO/IEEE 11073 DIM/REST 기반 생체정보 모니터링 구조를 제안한다. 이를 위해 사물인터넷 기반 생체정보 모니터링 시스템 구조를 설계하였고, ISO/IEEE 11073 에이전트와 ISO/IEEE 11073 매니저간의 ISO/IEEE 11073 DIM/REST 기반의 메시지 교환 프로토콜을 설계하였다. 제안된 시스템 구조의 실현 가능성을 검증하기 위해 서비스 프로토타입을 구현하였다.

콘크리트 구조체 균열 탐지에 대한 Mask R-CNN 알고리즘 적용성 평가 (Application of Mask R-CNN Algorithm to Detect Cracks in Concrete Structure)

  • 배병규;최용진;윤강호;안재훈
    • 한국지반공학회논문집
    • /
    • 제40권3호
    • /
    • pp.33-39
    • /
    • 2024
  • 구조물의 상태를 파악하기 위한 균열조사는 정밀안전 진단에 필수적인 검사 항목이다. 그러나 육안으로 이루어지는 균열조사 방식은 현장 상황의 변화에 따라 주관적으로 수행될 수 있다. 이러한 육안검사의 한계를 극복하기 위해 본 연구에서는, ResNet, FPN, Mask R-CNN을 백본(Backbone), 넥(Neck), 헤드(head)로 구성한 합성곱 신경망을 바탕으로, 이미지 데이터에서의 콘크리트 균열 탐지를 자동화하고. 그 성능을 IoU 값을 바탕으로 분석하였다. 해석에 사용된 데이터는 총 1,203개의 이미지 데이터로 구성하였으며, 이 중 70%를 훈련(Training)에, 20%를 검증(Validation)에, 그리고 10%의 데이터를 시험(Testing)에 사용하였다. 시험 결과의 평균 IoU값은 95.83%로 산정되었고, 또한 이미지 내 균열이 전혀 탐지되지 않는 경우는 존재하지 않아, 본 연구에 가정한 모델이 콘크리트의 균열 탐지를 성공적으로 수행하는 것을 확인하였다.

아리랑 5호 위성 영상에서 수계의 의미론적 분할을 위한 딥러닝 모델의 비교 연구 (Comparative Study of Deep Learning Model for Semantic Segmentation of Water System in SAR Images of KOMPSAT-5)

  • 김민지;김승규;이도훈;감진규
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.206-214
    • /
    • 2022
  • The way to measure the extent of damage from floods and droughts is to identify changes in the extent of water systems. In order to effectively grasp this at a glance, satellite images are used. KOMPSAT-5 uses Synthetic Aperture Radar (SAR) to capture images regardless of weather conditions such as clouds and rain. In this paper, various deep learning models are applied to perform semantic segmentation of the water system in this SAR image and the performance is compared. The models used are U-net, V-Net, U2-Net, UNet 3+, PSPNet, Deeplab-V3, Deeplab-V3+ and PAN. In addition, performance comparison was performed when the data was augmented by applying elastic deformation to the existing SAR image dataset. As a result, without data augmentation, U-Net was the best with IoU of 97.25% and pixel accuracy of 98.53%. In case of data augmentation, Deeplab-V3 showed IoU of 95.15% and V-Net showed the best pixel accuracy of 96.86%.