• 제목/요약/키워드: Instance Segmentation

검색결과 67건 처리시간 0.031초

인공지능 개발방식에 따른 건설 분야 인공지능 개발사례 (Cases of Artificial Intelligence Development in the Construction field According to the Artificial Intelligence Development Method)

  • 허석재;정란
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2021년도 가을 학술논문 발표대회
    • /
    • pp.217-218
    • /
    • 2021
  • The development of artificial intelligence in the field of construction and construction is revitalizing. The performance and development techniques of artificial intelligence are changing rapidly, but if you look at the cases of domestic construction sites, they are using technologies from 5 to 7 years ago. It is right to follow a stable method in consideration of commercialization, but the previous AI development method requires more manpower and time to develop than the current technology. In addition, in order to actively utilize artificial intelligence technology, customized artificial intelligence is required to be applied to ever-changing changes in construction sites. it is the reality As a result, even if good AI technology is secured at the construction site, it is reluctant to introduce it because there is no advantage in terms of time and cost compared to the existing method to apply it only to some processes. Currently, an AI technique with a faster development process and accurate recognition has been developed to cope with a fluid situation, so it will be important to understand and introduce the rapidly changing AI development method.

  • PDF

YOLACT를 이용한 스티칭 속도 개선 방안 (Stitching speed improvement method using YOLACT)

  • 고성영;이성배;박성환;김규헌
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.10-13
    • /
    • 2020
  • 최근 초고화질 영상, 가상현실 등 프리미엄 콘텐츠에 대한 요구가 커지면서 360° VR과 8K TV 등의 시장이 확대되고 있다. 360° VR 영상을 만드는 데에 스티칭 기술이 사용되고 있고, 8K 영상을 촬영할 수 있는 장비는 매우 제한적이기 때문에 스티칭 기술을 통해 콘텐츠를 확보하려는 노력이 이어지고 있다. 스티칭 기술은 여러 영상을 합성하여 기존 카메라의 좁은 시야각 문제를 해결하고 보다 넓은 시야각의 영상을 만드는 기술이다. 최근에는 해당 분야에 관한 연구가 진행됨에 따라 이미지를 넘어 동영상 스티칭에 대한 연구가 주로 진행되고 있다, 기존 동영상 스티칭 방식은 이미지 스티칭 방식을 프레임마다 반복하기 때문에 시간이 오래 걸린다는 단점이 있다. 컴퓨터 비전 분야에서는 딥러닝을 활용하여 객체가 존재할 것으로 예측되는 부분에 사각형 모양의 경계 상자(Bounding box)를 생성하는 객체 탐지(Object detection) 분야에 관한 많은 연구가 이루어져 왔고 이를 기반으로 객체의 경계선을 검출하여 해당 영역만을 구분하는 객체 분할(Instance segmentation)에 대한 연구 또한 진행 중이다. 본 논문에서는 앞서 말한 스티칭 속도 문제를 해결하기 위하여 빠른 속도로 객체 분할이 가능한 YOLACT를 이용하여 스티칭 속도를 개선하는 방안을 제안한다.

  • PDF

압축센싱이 Mask R-CNN 기반의 객체검출에 미치는 영향 분석 (Analysis of the Effect of Compressed Sensing on Mask R-CNN Based Object Detection)

  • 문한솔;권혜민;이창교;서정욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.97-99
    • /
    • 2022
  • 산업과 기술력이 발전하면서 이에 대한 데이터의 양도 증폭하고 있으며 해당 기술력과 정보 전달에 대한 연구가 활발히 진행되고 있다. 따라서 본 논문에서는 데이터의 양을 줄이기 위해서 압축센싱을 활용하였고 해당 데이터가 객체 검출 알고리즘인 Mask R-CNN 모델에 미치는 영향을 분석하였다. 압축률이 높아질수록 이미지의 데이터 양이 줄어들면서 해상도가 낮아지는 것을 확인할 수 있었지만 객체 검출에서는 원본과 큰 차이를 보이지 않고 대부분의 객체가 검출되는 것을 확인하였다.

  • PDF

이미지 기반 건설현장 수치 측정 모델 기초연구 (Preliminary Study for Image-Based Measurement Model in a Construction Site)

  • 윤세빈;강민균;김창원;임현수;유위성;김태훈
    • 한국건축시공학회:학술대회논문집
    • /
    • 한국건축시공학회 2023년도 봄 학술논문 발표대회
    • /
    • pp.287-288
    • /
    • 2023
  • The inspection work at construction sites is one of the important supervisory tasks, which involves verifying that the building is being constructed by the numerical values specified in the design drawings. The conventional measuring method for inspection involves using tools or equipment such as rulers directly by the personnel at the site, and it is usually confirmed by vision. Therefore, this study proposes an model to measure numerical values on images of the construction site. Through the case study to measure the installation interval of jack supports, the proposed algorithm was verified the effiect and validity. The results of this study suggest that it can support inspection work even in the office, which may have been overlooked by on-site inspectors, and contribute to the digitization of inspection work at construction sites.

  • PDF

딥러닝 기반 농경지 속성분류를 위한 TIF 이미지와 ECW 이미지 간 정확도 비교 연구 (A Study on the Attributes Classification of Agricultural Land Based on Deep Learning Comparison of Accuracy between TIF Image and ECW Image)

  • 김지영;위성승
    • 한국농공학회논문집
    • /
    • 제65권6호
    • /
    • pp.15-22
    • /
    • 2023
  • In this study, We conduct a comparative study of deep learning-based classification of agricultural field attributes using Tagged Image File (TIF) and Enhanced Compression Wavelet (ECW) images. The goal is to interpret and classify the attributes of agricultural fields by analyzing the differences between these two image formats. "FarmMap," initiated by the Ministry of Agriculture, Food and Rural Affairs in 2014, serves as the first digital map of agricultural land in South Korea. It comprises attributes such as paddy, field, orchard, agricultural facility and ginseng cultivation areas. For the purpose of comparing deep learning-based agricultural attribute classification, we consider the location and class information of objects, as well as the attribute information of FarmMap. We utilize the ResNet-50 instance segmentation model, which is suitable for this task, to conduct simulated experiments. The comparison of agricultural attribute classification between the two images is measured in terms of accuracy. The experimental results indicate that the accuracy of TIF images is 90.44%, while that of ECW images is 91.72%. The ECW image model demonstrates approximately 1.28% higher accuracy. However, statistical validation, specifically Wilcoxon rank-sum tests, did not reveal a significant difference in accuracy between the two images.

Real-time 3D multi-pedestrian detection and tracking using 3D LiDAR point cloud for mobile robot

  • Ki-In Na;Byungjae Park
    • ETRI Journal
    • /
    • 제45권5호
    • /
    • pp.836-846
    • /
    • 2023
  • Mobile robots are used in modern life; however, object recognition is still insufficient to realize robot navigation in crowded environments. Mobile robots must rapidly and accurately recognize the movements and shapes of pedestrians to navigate safely in pedestrian-rich spaces. This study proposes real-time, accurate, three-dimensional (3D) multi-pedestrian detection and tracking using a 3D light detection and ranging (LiDAR) point cloud in crowded environments. The pedestrian detection quickly segments a sparse 3D point cloud into individual pedestrians using a lightweight convolutional autoencoder and connected-component algorithm. The multi-pedestrian tracking identifies the same pedestrians considering motion and appearance cues in continuing frames. In addition, it estimates pedestrians' dynamic movements with various patterns by adaptively mixing heterogeneous motion models. We evaluate the computational speed and accuracy of each module using the KITTI dataset. We demonstrate that our integrated system, which rapidly and accurately recognizes pedestrian movement and appearance using a sparse 3D LiDAR, is applicable for robot navigation in crowded spaces.

다중 공간정보 데이터의 점진적 조합에 의한 의미적 분류 딥러닝 모델 학습 성능 분석 (Training Performance Analysis of Semantic Segmentation Deep Learning Model by Progressive Combining Multi-modal Spatial Information Datasets)

  • 이대건;신영하;이동천
    • 한국측량학회지
    • /
    • 제40권2호
    • /
    • pp.91-108
    • /
    • 2022
  • 대부분의 경우 광학 RGB 영상을 딥러닝(DL: Deep learning)의 학습 데이터로 사용하여 객체탐지, 인식, 식별, 분류, 의미적 분할 및 객체 분할 등을 수행하지만, 실세계의 3차원 객체들을 2차원 영상으로 완전하게 파악하는 것은 한계가 있다. 그러므로 대표적인 3차원 지형 공간정보인 수치표면모델(DSM: Digital Surface Model)과 더불어 DSM에 내재된 특성정보를 이용하여 3차원 지형지물을 분석하는 것이 효과적이다. 건물과 같이 기하학적으로 정형화된 형태의 인공구조물은 3차원 공간데이터로부터 얻을 수 있는 기하학적 요소와 특성을 이용하여 객체의 분류와 형상 묘사가 가능하다. 이 연구는 고차원 시각정보(high-level visual information) 시스템에서 중요한 역할을 하는 내재된 고유의 특성정보(intrinsic information)를 기반으로 하며, 이를 위하여 객체의 기하학적 요소인 경사와 주향을 DSM으로부터 도출하고, 다방향에서 생성한 음영기복영상(SRI: Shaded Relief Image)과 함께 DL 모델의 학습 수행에 사용하였다. 실험은 ISPRS (International Society for Photogrammetry and Remote Sensing)에서 제공하는 데이터 셋 중에서 DSM과 레이블 데이터를 객체의 의미적 분류를 위해 개발된 합성곱 기반의 SegNet 학습에 사용하였다. 지형지물을 분류하고 분류 결과를 이용하여 건물을 추출하였다. 특히 DL 모델의 학습 성능 향상을 위해 학습 데이터의 여러 조합에 따른 시너지 효과를 분석하는 것에 핵심이다. 제안한 방법은 건물 분류와 추출에 효과적임을 보여주고 있다.

딥러닝 모델을 이용한 항공정사영상의 비닐하우스 탐지 (Detection of Plastic Greenhouses by Using Deep Learning Model for Aerial Orthoimages)

  • 윤병현;성선경;최재완
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.183-192
    • /
    • 2023
  • 위성영상 및 항공사진과 같은 원격탐사 자료들은 영상판독과 영상처리 기법을 통하여 영상 내의 객체를 탐지하고 추출하는 데에 사용될 수 있다. 특히, 원격탐사 자료의 해상도가 향상되고, 딥러닝(deep learning) 모델 등과 같은 기술의 발전으로 인하여 관심객체를 자동으로 추출하여 지도갱신 및 지형 모니터링 등에 활용될 수 있는 가능성이 증대되고 있다. 이를 위해, 본 연구에서는 의미론적 분할에 사용되는 대표적인 딥러닝 모델인 fully convolutional densely connected convolutional network (FC-DenseNet)을 기반으로 하여 항공정사영상 내 존재하는 비닐하우스를 추출하고, 이에 대한 결과를 정량적으로 평가하였다. 농림축산식품부의 팜맵(farm map)을 이용하여 담양, 밀양지역의 비닐하우스에 대한 레이블링을 수행하여 훈련자료를 생성하고, 훈련자료를 이용하여 FC-DenseNet의 훈련을 수행하였다. 원격탐사자료에 딥러닝 모델을 효과적으로 이용하기 위하여, 각 밴드별 특성이 유지되도록 instance norm을 이용하여 정규화과정을 수행하였으며, attention module을 추가하여 각 밴드별 가중치를 효과적으로 산정하였다. 실험결과, 딥러닝 모델을 이용하여 영상 내 존재하는 비닐하우스 지역을 효과적으로 추출할 수 있음을 확인하였으며 팜맵, 토지피복지도 등의 갱신에 활용될 수 있을 것으로 판단하였다.

A Comparison of Deep Reinforcement Learning and Deep learning for Complex Image Analysis

  • Khajuria, Rishi;Quyoom, Abdul;Sarwar, Abid
    • Journal of Multimedia Information System
    • /
    • 제7권1호
    • /
    • pp.1-10
    • /
    • 2020
  • The image analysis is an important and predominant task for classifying the different parts of the image. The analysis of complex image analysis like histopathological define a crucial factor in oncology due to its ability to help pathologists for interpretation of images and therefore various feature extraction techniques have been evolved from time to time for such analysis. Although deep reinforcement learning is a new and emerging technique but very less effort has been made to compare the deep learning and deep reinforcement learning for image analysis. The paper highlights how both techniques differ in feature extraction from complex images and discusses the potential pros and cons. The use of Convolution Neural Network (CNN) in image segmentation, detection and diagnosis of tumour, feature extraction is important but there are several challenges that need to be overcome before Deep Learning can be applied to digital pathology. The one being is the availability of sufficient training examples for medical image datasets, feature extraction from whole area of the image, ground truth localized annotations, adversarial effects of input representations and extremely large size of the digital pathological slides (in gigabytes).Even though formulating Histopathological Image Analysis (HIA) as Multi Instance Learning (MIL) problem is a remarkable step where histopathological image is divided into high resolution patches to make predictions for the patch and then combining them for overall slide predictions but it suffers from loss of contextual and spatial information. In such cases the deep reinforcement learning techniques can be used to learn feature from the limited data without losing contextual and spatial information.

통합 이미지 처리 기술을 이용한 콘크리트 교량 균열 탐지 및 매핑 (Crack Inspection and Mapping of Concrete Bridges using Integrated Image Processing Techniques)

  • 김병현;조수진
    • 한국안전학회지
    • /
    • 제36권1호
    • /
    • pp.18-25
    • /
    • 2021
  • In many developed countries, such as South Korea, efficiently maintaining the aging infrastructures is an important issue. Currently, inspectors visually inspect the infrastructure for maintenance needs, but this method is inefficient due to its high costs, long logistic times, and hazards to the inspectors. Thus, in this paper, a novel crack inspection approach for concrete bridges is proposed using integrated image processing techniques. The proposed approach consists of four steps: (1) training a deep learning model to automatically detect cracks on concrete bridges, (2) acquiring in-situ images using a drone, (3) generating orthomosaic images based on 3D modeling, and (4) detecting cracks on the orthmosaic image using the trained deep learning model. Cascade Mask R-CNN, a state-of-the-art instance segmentation deep learning model, was trained with 3235 crack images that included 2415 hard negative images. We selected the Tancheon overpass, located in Seoul, South Korea, as a testbed for the proposed approach, and we captured images of pier 34-37 and slab 34-36 using a commercial drone. Agisoft Metashape was utilized as a 3D model generation program to generate an orthomosaic of the captured images. We applied the proposed approach to four orthomosaic images that displayed the front, back, left, and right sides of pier 37. Using pixel-level precision referencing visual inspection of the captured images, we evaluated the trained Cascade Mask R-CNN's crack detection performance. At the coping of the front side of pier 37, the model obtained its best precision: 94.34%. It achieved an average precision of 72.93% for the orthomosaics of the four sides of the pier. The test results show that this proposed approach for crack detection can be a suitable alternative to the conventional visual inspection method.