• 제목/요약/키워드: Image Learning

검색결과 3,175건 처리시간 0.034초

독점 멀티 분류기의 심층 학습 모델을 사용한 약지도 시맨틱 분할 (Weakly-supervised Semantic Segmentation using Exclusive Multi-Classifier Deep Learning Model)

  • 최현준;강동중
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권6호
    • /
    • pp.227-233
    • /
    • 2019
  • 최근 딥러닝 기술의 발달과 함께 신경 네트워크는 컴퓨터 비전에서도 성공을 거두고 있다. 컨볼루션 신경망은 단순한 영상 분류 작업뿐만 아니라 객체 분할 및 검출 등 난이도가 높은 작업에서도 탁월한 성능을 보였다. 그러나 그러한 많은 심층 학습 모델은 지도학습에 기초하고 있으며, 이는 이미지 라벨보다 주석 라벨이 더 많이 필요하다. 특히 semantic segmentation 모델은 훈련을 위해 픽셀 수준의 주석을 필요로 하는데, 이는 매우 중요하다. 이 논문은 이러한 문제를 해결하기 위한 네트워크 훈련을 위해 영상 수준 라벨만 필요한 약지도 semantic segmentation 방법을 제안한다. 기존의 약지도학습 방법은 대상의 특정 영역만 탐지하는 데 한계가 있다. 반면에, 본 논문에서는 우리의 모델이 사물의 더 다른 부분을 인식하도 multi-classifier 심층 학습 아키텍처를 사용한다. 제안된 방법은 VOC 2012 검증 데이터 세트를 사용하여 평가한다.

R-FCN과 Transfer Learning 기법을 이용한 영상기반 건설 안전모 자동 탐지 (Image-Based Automatic Detection of Construction Helmets Using R-FCN and Transfer Learning)

  • 박상윤;윤상현;허준
    • 대한토목학회논문집
    • /
    • 제39권3호
    • /
    • pp.399-407
    • /
    • 2019
  • 대한민국에서 건설업은 타 업종들과 비교하여 안전사고의 위험성이 가장 높게 나타난다. 따라서 건설업 내 안전성 향상을 도모하기 위해 여러 연구가 예전부터 진행이 되어 왔고, 본 연구에선 건설현장 영상 데이터를 기반으로 물체 탐지 및 분류 알고리즘을 이용해서 효과적인 안전모 자동탐지 시스템을 구축하여 건설현장 노동자들의 안전성 향상에 기여하고자 한다. 본 연구에서 사용된 알고리즘은 Convolutional Neural Network (CNN) 기반의 물체 탐지 및 분류 알고리즘인 Region-based Fully Convolutional Networks (R-FCN)이고 이를 Transfer Learning 기법을 사용하여 딥러닝을 실시하였다. ImageNet에서 수집한 1089장의 사람과 안전모가 포함된 영상으로 학습을 시행하였고 그 결과, 사람과 안전모의 mean Average Precision (mAP)은 각각 0.86, 0.83로 측정되었다.

합성곱 신경망을 이용한 손상된 볼트의 이미지 분류 (Image Classification of Damaged Bolts using Convolution Neural Networks)

  • Lee, Soo-Byoung;Lee, Seok-Soon
    • 항공우주시스템공학회지
    • /
    • 제16권4호
    • /
    • pp.109-115
    • /
    • 2022
  • 딥러닝 기법과 컴퓨터 비전 기술을 융합한 합성곱 신경망 알고리즘은 고성능 컴퓨팅 시스템을 기반으로 이미지 데이터의 분류를 가용하게 한다. 본 논문에서는 합성곱 신경망 알고리즘을 대표적인 딥러닝 프레임워크인 텐서플로와 학습 기법을 이용하여 구현하고 이미지 분류 문제에 적용한다. 모델의 지도학습에 필요한 데이터는 동일 종류의 볼트를 이용하여 나사산이 정상인 볼트와 나사산이 손상된 볼트로 구분하여 이미지를 생성하였다. 소량의 이미지 데이터를 이용한 학습 모델은 좋은 성능으로 볼트의 손상을 탐지하였다. 그리고 모델의 내부 구성에 따른 학습 성능을 비교하기 위해 합성곱 신경망 내 컨볼루션 레이어의 개수를 변경하고 과적합 회피기법을 선택 적용하여 이미지 분류 성능을 확인하였다.

CT 이미지 세그멘테이션을 위한 3D 의료 영상 데이터 증강 기법 (3D Medical Image Data Augmentation for CT Image Segmentation)

  • 고성현;양희규;김문성;추현승
    • 인터넷정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.85-92
    • /
    • 2023
  • X-ray, Computed Tomography (CT), Magnetic Resonance Imaging (MRI)과 같은 의료데이터에서 딥러닝을 활용해 질병 유무 판별 태스크와 같은 문제를 해결하려는 시도가 활발하다. 대부분의 데이터 기반 딥러닝 문제들은 높은 정확도 달성과 정답과 비교하는 성능평가의 활용을 위해 지도학습기법을 사용해야 한다. 지도학습에는 다량의 이미지와 레이블 세트가 필요하지만, 학습에 충분한 양의 의료 이미지 데이터를 얻기는 어렵다. 다양한 데이터 증강 기법을 통해 적은 양의 의료이미지와 레이블 세트로 지도학습 기반 모델의 과소적합 문제를 극복할 수 있다. 본 연구는 딥러닝 기반 갈비뼈 골절 세그멘테이션 모델의 성능 향상과 효과적인 좌우 반전, 회전, 스케일링 등의 데이터 증강 기법을 탐색한다. 좌우 반전과 30° 회전, 60° 회전으로 증강한 데이터셋은 모델 성능 향상에 기여하지만, 90° 회전 및 ⨯0.5 스케일링은 모델 성능을 저하한다. 이는 데이터셋 및 태스크에 따라 적절한 데이터 증강 기법의 사용이 필요함을 나타낸다.

제초로봇 개발을 위한 2차원 콩 작물 위치 자동검출 (Estimation of two-dimensional position of soybean crop for developing weeding robot)

  • 조수현;이충열;정희종;강승우;이대현
    • 드라이브 ㆍ 컨트롤
    • /
    • 제20권2호
    • /
    • pp.15-23
    • /
    • 2023
  • In this study, two-dimensional location of crops for auto weeding was detected using deep learning. To construct a dataset for soybean detection, an image-capturing system was developed using a mono camera and single-board computer and the system was mounted on a weeding robot to collect soybean images. A dataset was constructed by extracting RoI (region of interest) from the raw image and each sample was labeled with soybean and the background for classification learning. The deep learning model consisted of four convolutional layers and was trained with a weakly supervised learning method that can provide object localization only using image-level labeling. Localization of the soybean area can be visualized via CAM and the two-dimensional position of the soybean was estimated by clustering the pixels associated with the soybean area and transforming the pixel coordinates to world coordinates. The actual position, which is determined manually as pixel coordinates in the image was evaluated and performances were 6.6(X-axis), 5.1(Y-axis) and 1.2(X-axis), 2.2(Y-axis) for MSE and RMSE about world coordinates, respectively. From the results, we confirmed that the center position of the soybean area derived through deep learning was sufficient for use in automatic weeding systems.

전이 학습과 데이터 증강을 이용한 너구리와 라쿤 분류 (Classification of Raccoon dog and Raccoon with Transfer Learning and Data Augmentation)

  • 박동민;조영석;염석원
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.34-41
    • /
    • 2023
  • 최근 인간의 활동 범위가 증가함에 따라 외래종의 유입이 잦아지고 있고 환경에 적응하지 못해 유기된 외래종 중 2020년부터 유해 지정 동물로 지정된 라쿤이 문제가 되고 있다. 라쿤은 국내 토종 너구리와 크기나 생김새가 유사하여 일반적으로 포획하는데 있어서 구분이 필요하다. 이를 해결하기 위해서 이미지 분류에 특화된 CNN 딥러닝 모델인 VGG19, ResNet152V2, InceptionV3, InceptionResNet, NASNet을 사용한다. 학습에 사용할 파라미터는 많은 양의 데이터인 ImageNet으로 미리 학습된 파라미터를 전이 학습하여 이용한다. 너구리와 라쿤 데이터셋에서 동물의 외형적인 특징으로 분류하기 위해서 이미지를 회색조로 변환한 후 밝기를 정규화하였으며, 조정된 데이터셋에 충분한 학습을 위한 데이터를 만들기 위해 좌우 반전, 회전, 확대/축소, 이동을 이용하여 증강 기법을 적용하였다. 증강하지 않은 데이터셋은 FCL을 1층으로, 증강된 데이터셋은 4층으로 구성하여 진행하였다. 여러 가지 증강된 데이터셋의 정확도를 비교한 결과, 증강을 많이 할수록 성능이 증가함을 확인하였다.

DenseNet을 활용한 식물 잎 분류 방안 연구 (Classification Method of Plant Leaf using DenseNet)

  • 박용민;강수명;채지훈;이준재
    • 한국멀티미디어학회논문지
    • /
    • 제21권5호
    • /
    • pp.571-582
    • /
    • 2018
  • Recently, development of deep learning has shown better image classification result than human. According to recent research, a hidden layer of deep learning is deeper, and a preservation of extracted features shows good results. However, in the case of general images, the extracted features are clear and easy to sort. This study aims to classify plant leaf images. This plant leaf image has high similarity in each image. Since plant leaf images have high similarity not only between images of different species but also within the same species, classification accuracy is not increased by simply extending the hidden layer or connecting the layers. Therefore, in this paper, we tried to improve the hidden layer of the algorithm called DenseNet which shows the recent excellent classification results, and compare the results of several different modified layers. The proposed method makes it possible to classify plant leaf images collected in a natural environment more easily and accurately than conventional methods. This results in good classification of plant leaf image data including unnecessary noise obtained in a natural environment.

컨볼루션 신경망을 기반으로 한 드론 영상 분류 (Drone Image Classification based on Convolutional Neural Networks)

  • 주영도
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.97-102
    • /
    • 2017
  • 최근 고해상도 원격탐사 자료의 분류방안으로 컨볼루션 신경망(Convolutional Neural Networks)을 비롯한 딥 러닝 기법들이 소개되고 있다. 본 논문에서는 드론으로 촬영된 농경지 영상의 작물 분류를 위해 컨볼루션 신경망을 적용하여 가능성을 검토하였다. 농경지를 논, 고구마, 고추, 옥수수, 깻잎, 과수, 비닐하우스로 총 7가지 클래스로 나누고 수동으로 라벨링 작업을 완료했다. 컨볼루션 신경망 적용을 위해 영상 전처리와 정규화 작업을 수행하였으며 영상분류 결과 98%이상 높은 정확도를 확인할 수 있었다. 본 논문을 통해 기존 영상분류 방법들에서 딥 러닝 기반 영상분류 방법으로의 전환이 빠르게 진행될 것으로 예상되며, 그 성공 가능성을 확신할 수 있었다.

A Study on Brand Image Analysis of Gaming Business Corporation using KoBERT and Twitter Data

  • Kim, Hyunji
    • 한국게임학회 논문지
    • /
    • 제21권6호
    • /
    • pp.75-86
    • /
    • 2021
  • 브랜드 이미지는 고객, 이해관계자, 시장 전체가 해당 브랜드를 어떻게 보고 인지하는지를 뜻한다. 긍정적 브랜드 이미지는 계속적인 구매를 유발하지만, 부정적인 브랜드 이미지는 구매를 중단하게 만드는 등 소비자의 구매행동에 직결되기 때문에, 기업 입장에서는 빠르고 정확히 파악할 필요가 있다. 현재 브랜드 이미지를 조사하는 방법으로는 설문조사, SNS조사 등이 있는데, 표본의 수가 한정되고 시간과 비용이 많이 소요된다는 이슈가 있다. 따라서 본 연구에서는 딥러닝 기반의 KoBERT 모델을 활용하여 소셜미디어 상의 텍스트 데이터에 대한 감성분석을 실시한 후, 이를 브랜드 이미지 분석에 활용하는 방법을 제시하고, 이에 대한 성능을 검증하였다. 결과적으로, 다섯 개의 브랜드 이미지 순위를 매긴 결과가 한국기업평판연구소의 순위와 일치함으로써 본 연구의 사용성을 입증하였다.

Impacts of label quality on performance of steel fatigue crack recognition using deep learning-based image segmentation

  • Hsu, Shun-Hsiang;Chang, Ting-Wei;Chang, Chia-Ming
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.207-220
    • /
    • 2022
  • Structural health monitoring (SHM) plays a vital role in the maintenance and operation of constructions. In recent years, autonomous inspection has received considerable attention because conventional monitoring methods are inefficient and expensive to some extent. To develop autonomous inspection, a potential approach of crack identification is needed to locate defects. Therefore, this study exploits two deep learning-based segmentation models, DeepLabv3+ and Mask R-CNN, for crack segmentation because these two segmentation models can outperform other similar models on public datasets. Additionally, impacts of label quality on model performance are explored to obtain an empirical guideline on the preparation of image datasets. The influence of image cropping and label refining are also investigated, and different strategies are applied to the dataset, resulting in six alternated datasets. By conducting experiments with these datasets, the highest mean Intersection-over-Union (mIoU), 75%, is achieved by Mask R-CNN. The rise in the percentage of annotations by image cropping improves model performance while the label refining has opposite effects on the two models. As the label refining results in fewer error annotations of cracks, this modification enhances the performance of DeepLabv3+. Instead, the performance of Mask R-CNN decreases because fragmented annotations may mistake an instance as multiple instances. To sum up, both DeepLabv3+ and Mask R-CNN are capable of crack identification, and an empirical guideline on the data preparation is presented to strengthen identification successfulness via image cropping and label refining.