• 제목/요약/키워드: Training Image

검색결과 1,336건 처리시간 0.04초

유사물체 치환증강을 통한 기동장비 물체 인식 성능 향상 (Object Detection Accuracy Improvements of Mobility Equipments through Substitution Augmentation of Similar Objects)

  • 허지성;박지훈
    • 한국군사과학기술학회지
    • /
    • 제25권3호
    • /
    • pp.300-310
    • /
    • 2022
  • A vast amount of labeled data is required for deep neural network training. A typical strategy to improve the performance of a neural network given a training data set is to use data augmentation technique. The goal of this work is to offer a novel image augmentation method for improving object detection accuracy. An object in an image is removed, and a similar object from the training data set is placed in its area. An in-painting algorithm fills the space that is eliminated but not filled by a similar object. Our technique shows at most 2.32 percent improvements on mAP in our testing on a military vehicle dataset using the YOLOv4 object detector.

드론 영상으로부터 월동 작물 분류를 위한 의미론적 분할 딥러닝 모델 학습 최적 공간 해상도와 영상 크기 선정 (The Optimal GSD and Image Size for Deep Learning Semantic Segmentation Training of Drone Images of Winter Vegetables)

  • 정동기;이임평
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1573-1587
    • /
    • 2021
  • 드론 영상은 위성이나 항공 영상보다 공간 해상도가 수배 혹은 수십 배가 높은 초고해상도 영상이다. 따라서 드론 영상 기반의 원격탐사는 영상에서 추출하고자 하는 객체의 수준과 처리해야 하는 데이터의 양이 전통적인 원격탐사와 다른 양상을 보인다. 또한, 적용되는 딥러닝(deep learning) 모델의 특성에 따라 모델 훈련에 사용되는 최적의 데이터의 축척과 크기가 달라질 수밖에 없다. 하지만 대부분 연구가 찾고자 하는 객체의 크기, 축척을 반영하는 영상의 공간 해상도, 영상의 크기 등을 고려하지 않고, 관성적으로 적용하고자 하는 모델에서 기존에 사용했던 데이터 명세를 그대로 적용하는 경우가 많다. 본 연구에서는 드론 영상의 공간 해상도, 영상 크기가 6가지 월동채소의 의미론적 분할(semantic segmentation) 딥러닝 모델의 정확도와 훈련 시간에 미치는 영향을 실험 통해 정량적으로 분석하였다. 실험 결과 6가지 월동채소 분할의 평균 정확도는 공간 해상도가 증가함에 따라 증가하지만, 개별 작물에 따라 증가율과 수렴하는 구간이 다르고, 동일 해상도에서 영상의 크기에 따라 정확도와 시간에 큰 차이가 있음을 발견하였다. 특히 각 작물에 따라 최적의 해상도와 영상의 크기가 다름을 알 수 있었다. 연구성과는 향후 드론 영상 데이터를 이용한 월동채소 분할 모델을 개발할 때, 드론 영상의 촬영과 학습 데이터의 제작 효율성 확보를 위한 자료로 활용할 수 있을 것이다.

학습패치 크기와 ConvNeXt 적용이 CycleGAN 기반 위성영상 모의 정확도에 미치는 영향 (The Effect of Training Patch Size and ConvNeXt application on the Accuracy of CycleGAN-based Satellite Image Simulation)

  • 원태연;조수민;어양담
    • 한국측량학회지
    • /
    • 제40권3호
    • /
    • pp.177-185
    • /
    • 2022
  • 본 연구에서는 딥러닝을 통해 고해상도 광학 위성영상에 동종센서로 촬영한 영상을 참조하여 폐색 영역을 복원하는 방법을 제안하였다. 패치 단위로 분할된 영상에서 원본 영상의 화소 분포를 최대한 유지하며 폐색 영역을 모의한 영상과 주변 영상의 자연스러운 연속성을 위해 ConvNeXt 블록을 적용한 CycleGAN (Cycle Generative Adversarial Network) 방법을 사용하여 실험을 진행하였고 이를 3개의 실험지역에 대해 분석하였다. 또한, 학습패치 크기를 512*512화소로 하는 경우와 2배 확장한 1024*1024화소 크기의 적용 결과도 비교하였다. 서로 특징이 다른 3개의 지역에 대하여 실험한 결과, ConvNeXt CycleGAN 방법론이 기존의 CycleGAN을 적용한 영상, Histogram matching 영상과 비교하여 개선된 R2 값을 보여줌을 확인하였다. 학습에 사용되는 패치 크기별 실험의 경우 1024*1024화소의 패치를 사용한 결과, 약 0.98의 R2값이 산출되었으며 영상밴드별 화소 분포를 비교한 결과에서도 큰 패치 크기로 학습한 모의 결과가 원본 영상과 더 유사한 히스토그램 분포를 나타내었다. 이를 통해, 기존의 CycleGAN을 적용한 영상 및 Histogram matching 영상보다 발전된 ConvNeXt CycleGAN을 사용할 때 원본영상과 유사한 모의 결과를 도출할 수 있었고, 성공적인 모의를 수행할 수 있음을 확인하였다.

임상실습시기별 간호학생이 지각하는 간호사의 이미지 변화 (Changes of Nurse's Image Perceived by Nursing Student as every Clinical Experience)

  • 김원옥;강현숙
    • 동서간호학연구지
    • /
    • 제10권1호
    • /
    • pp.68-74
    • /
    • 2004
  • Purpose: This study aims to identify changing image of nurse before and after the first clinical experience, and before graduate. Method: The subjects were 69 nursing students. All of them had their first clinical experience for 1 week during sophomore year. The Nurse's Image was measured before and after the 1st clinical experience, and before graduation. Collected data were analyzed by using repeated measure ANOVA and pair wise comparison method. Results: 1. The mean score for the Nurse's Image overall held by after 1st clinical experience($3.78{\pm}.38$) was more positive than those held by before graduation($3.50{\pm}.49$) and before 1st clinical experience($3.35{\pm}.36$). 2. For the four subscales (F=25.673 p= .000), the mean score of traditional(F=10.394 P= .000), Social(F=11.673 P= .000), Professional(F=17.341 P= .000) and personal Image(F=19.463 P= .000) were more positive than before graduation and before 1st clinical experience. Conclusion: Summarizing, after the nursing students had their 1st clinical training, the nurse's image perceived by them was positively improved compared to before the training. However, by the time of graduation the improved nurse's image was declined back. Therefore it is necessary to develop proper out-to field training program that will help to maintain and furthermore improve nurse's image.

  • PDF

합성곱 신경망의 비지니스 응용: 런웨이 이미지를 사용한 의류 분류를 중심으로 (Business Application of Convolutional Neural Networks for Apparel Classification Using Runway Image)

  • 서이안;신경식
    • 지능정보연구
    • /
    • 제24권3호
    • /
    • pp.1-19
    • /
    • 2018
  • 최근 딥러닝은 오디오, 텍스트 및 이미지 데이터와 같은 비 체계적인 데이터를 대상으로 다양한 추정, 분류 및 예측 문제에 사용 및 적용되고 있다. 특히, 의류산업에 적용될 경우 딥러닝 기법을 활용한 의류 인식, 의류 검색, 자동 제품 추천 등의 심층 학습을 기반으로 한 응용이 가능하다. 이 때의 핵심모형은 합성곱 신경망을 사용한 이미지 분류이다. 합성곱 신경망은 입력이 전달되고 출력에 도달하는 과정에서 가중치와 같은 매개 변수를 학습하는 뉴런으로 구성되고, 영상 분류에 가장 적합한 방법론으로 사용된다. 기존의 의류 이미지 분류 작업에서 대부분의 분류 모형은 의류 이미지 자체 또는 전문모델 착용 의류와 같이 통제된 상황에서 촬영되는 온라인 제품 이미지를 사용하여 학습을 수행한다. 하지만 본 연구에서는 통제되지 않은 상황에서 촬영되고 사람들의 움직임과 다양한 포즈가 포함된 스트릿 패션 이미지 또는 런웨이 이미지를 분류하려는 상황을 고려하여 분류 모형을 훈련시키는 효과적인 방법을 제안한다. 이동성을 포착하는 런웨이 의류 이미지로 모형을 학습시킴으로써 분류 모형의 다양한 쿼리 이미지에 대한 적응력을 높일 수 있다. 모형 학습 시 먼저 ImageNet 데이터셋을 사용하여 pre-training 과정을 거치고 본 연구를 위해 수집된 32 개 주요 패션 브랜드의 2426개 런웨이 이미지로 구성된 데이터셋을 사용하여 fine-tuning을 수행한다. 학습 과정의 일반화를 고려해 10번의 실험을 수행하고 제안된 모형은 최종 테스트에서 67.2 %의 정확도를 기록했다. 본 연구 모형은 쿼리 이미지가 런웨이 이미지, 제품 이미지 또는 스트릿 패션 이미지가 될 수 있는 다양한 분류 환경에 적용될 수 있다. 구체적으로는 패션 위크에서 모바일 어플리케이션 서비스를 통해 브랜드 검색을 용이하게 하는 서비스를 제공하거나, 패션 잡지사의 편집 작업에 사용되어 브랜드나 스타일을 분류하고 라벨을 붙일 수 있으며, 온라인 쇼핑몰에서 아이템 정보를 제공하거나 유사한 아이템을 추천하는 등의 다양한 목적에 적용될 수 있다.

적록색맹 모사 영상 데이터를 이용한 딥러닝 기반의 위장군인 객체 인식 성능 향상 (Performance Improvement of a Deep Learning-based Object Recognition using Imitated Red-green Color Blindness of Camouflaged Soldier Images)

  • 최근하
    • 한국군사과학기술학회지
    • /
    • 제23권2호
    • /
    • pp.139-146
    • /
    • 2020
  • The camouflage pattern was difficult to distinguish from the surrounding background, so it was difficult to classify the object and the background image when the color image is used as the training data of deep-learning. In this paper, we proposed a red-green color blindness image transformation method using the principle that people of red-green blindness distinguish green color better than ordinary people. Experimental results show that the camouflage soldier's recognition performance improved by proposed a deep learning model of the ensemble technique using the imitated red-green-blind image data and the original color image data.

IMAGE COMPRESSION USING VECTOR QUANTIZATION

  • Pantsaena, Nopprat;Sangworasil, M.;Nantajiwakornchai, C.;Phanprasit, T.
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.979-982
    • /
    • 2002
  • Compressing image data by using Vector Quantization (VQ)[1]-[3]will compare Training Vectors with Codebook. The result is an index of position with minimum distortion. The implementing Random Codebook will reduce the image quality. This research presents the Splitting solution [4],[5]to implement the Codebook, which improves the image quality[6]by the average Training Vectors, then splits the average result to Codebook that has minimum distortion. The result from this presentation will give the better quality of the image than using Random Codebook.

  • PDF

Super-resolution of compressed image by deep residual network

  • Jin, Yan;Park, Bumjun;Jeong, Jechang
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.59-61
    • /
    • 2018
  • Highly compressed images typically not only have low resolution, but are also affected by compression artifacts. Performing image super-resolution (SR) directly on highly compressed image would simultaneously magnify the blocking artifacts. In this paper, a SR method based on deep learning is proposed. The method is an end-to-end trainable deep convolutional neural network which performs SR on compressed images so as to reduce compression artifacts and improve image resolution. The proposed network is divided into compression artifacts removal (CAR) part and SR reconstruction part, and the network is trained by three-step training method to optimize training procedure. Experiments on JPEG compressed images with quality factors of 10, 20, and 30 demonstrate the effectiveness of the proposed method on commonly used test images and image sets.

  • PDF

Fuzzy Training Based on Segmentation Using Spatial Region Growing

  • Lee Sang-Hoon
    • 대한원격탐사학회지
    • /
    • 제20권5호
    • /
    • pp.353-359
    • /
    • 2004
  • This study proposes an approach to unsupervisedly estimate the number of classes and the parameters of defining the classes in order to train the classifier. In the proposed method, the image is segmented using a spatial region growing based on hierarchical clustering, and fuzzy training is then employed to find the sample classes that well represent the ground truth. For cluster validation, this approach iteratively estimates the class-parameters in the fuzzy training for the sample classes and continuously computes the log-likelihood ratio of two consecutive class-numbers. The maximum ratio rule is applied to determine the optimal number of classes. The experimental results show that the new scheme proposed in this study could be used to select the regions with different characteristics existed on the scene of observed image as an alternative of field survey that is so expensive.

Improving Performance of Machine Learning-based Haze Removal Algorithms with Enhanced Training Database

  • Ngo, Dat;Kang, Bongsoon
    • 전기전자학회논문지
    • /
    • 제22권4호
    • /
    • pp.948-952
    • /
    • 2018
  • Haze removal is an object of scientific desire due to its various practical applications. Existing algorithms are founded upon histogram equalization, contrast maximization, or the growing trend of applying machine learning in image processing. Since machine learning-based algorithms solve problems based on the data, they usually perform better than those based on traditional image processing/computer vision techniques. However, to achieve such a high performance, one of the requisites is a large and reliable training database, which seems to be unattainable owing to the complexity of real hazy and haze-free images acquisition. As a result, researchers are currently using the synthetic database, obtained by introducing the synthetic haze drawn from the standard uniform distribution into the clear images. In this paper, we propose the enhanced equidistribution, improving upon our previous study on equidistribution, and use it to make a new database for training machine learning-based haze removal algorithms. A large number of experiments verify the effectiveness of our proposed methodology.