• Title/Summary/Keyword: 데이터 합성

Search Result 1,381, Processing Time 0.03 seconds

Quadtree-based Convolutional Neural Network Optimization to Quickly Calculate the Depth of Field of an Image (이미지의 피사계 심도를 빠르게 계산하기 위한 쿼드트리 기반의 합성곱 신경망 최적화)

  • Kim, Donghui;Kim, Soo-Kyun;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.257-260
    • /
    • 2021
  • 본 논문에서는 카메라의 포커싱과 아웃포커싱에 의해 이미지에서 뿌옇게 표현되는 DoF(Depth of field, 피사계 심도) 영역을 쿼드트리(Quadtree) 기반의 합성곱 신경망을 통해 빠르게 찾는 방법을 제안한다. 우리의 접근 방식은 RGB채널기반의 상호-상관 필터를 이용하여 DoF영역을 이미지로부터 효율적으로 분류하고, 적응형 트리인 쿼드트리를 기반으로 유의미한 영역만을 분류한다. 이 과정에서 손실 없이 온전하게 DoF영역을 추출하기 위한 필터링 과정을 거친다. 이러한 과정에서 얻어진 이미지 패치들은 전체 이미지에 비해 적은 영역으로 나타나며, 이 적은 개수의 패치들을 이용하여 네트워크 단계에서 사용할 이미지-DoF가중치 맵 데이터 쌍을 설정한다. 네트워크 과정에서 학습할 때 사용되는 데이터는 이미지와 상호-상관 필터 기반으로 추출된 DoF 가중치 맵을 이용한다. 본 논문에서 제안하는 쿼드트리 기반 합성곱 신경망은 이미지로부터 포커싱과 아웃포커싱된 DoF영역을 자동으로 추출하는 과정을 학습시키기 위해 사용된다. 결과적으로 학습에 필요한 데이터 영역이 줄어듦으로써 학습 시간과 메모리를 절약했으며, 테스트 결과로 얻은 DoF 가중치 이미지는 입력 이미지에서 DoF영역을 더욱더 빠른 시간 내에 찾아낸다.

  • PDF

Generating A Synthetic Multimodal Dataset for Vision Tasks Involving Hands (손을 다루는 컴퓨터 비전 작업들을 위한 멀티 모달 합성 데이터 생성 방법)

  • Lee, Changhwa;Lee, Seongyeong;Kim, Donguk;Jeong, Chanyang;Baek, Seungryul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.1052-1055
    • /
    • 2020
  • 본 논문에서는 3D 메시 정보, RGB-D 손 자세 및 2D/3D 손/세그먼트 마스크를 포함하여 인간의 손과 관련된 다양한 컴퓨터 비전 작업에 사용할 수 있는 새로운 다중 모달 합성 벤치마크를 제안 하였다. 생성된 데이터셋은 기존의 대규모 데이터셋인 BigHand2.2M 데이터셋과 변형 가능한 3D 손 메시(mesh) MANO 모델을 활용하여 다양한 손 포즈 변형을 다룬다. 첫째, 중복되는 손자세를 줄이기 위해 전략적으로 샘플링하는 방법을 이용하고 3D 메시 모델을 샘플링된 손에 피팅한다. 3D 메시의 모양 및 시점 파라미터를 탐색하여 인간 손 이미지의 자연스러운 가변성을 처리한다. 마지막으로, 다중 모달리티 데이터를 생성한다. 손 관절, 모양 및 관점의 데이터 공간을 기존 벤치마크의 데이터 공간과 비교한다. 이 과정을 통해 제안된 벤치마크가 이전 작업의 차이를 메우고 있음을 보여주고, 또한 네트워크 훈련 과정에서 제안된 데이터를 사용하여 RGB 기반 손 포즈 추정 실험을 하여 생성된 데이터가 양질의 질과 양을 가짐을 보여준다. 제안된 데이터가 RGB 기반 3D 손 포즈 추정 및 시맨틱 손 세그멘테이션과 같은 품질 좋은 큰 데이터셋이 부족하여 방해되었던 작업에 대한 발전을 가속화할 것으로 기대된다.

Machine Learning Data Extension Way for Confirming Genuine of Trademark Image which is Rotated (회전한 상표 이미지의 진위 결정을 위한 기계 학습 데이터 확장 방법)

  • Gu, Bongen
    • Journal of Platform Technology
    • /
    • v.8 no.1
    • /
    • pp.16-23
    • /
    • 2020
  • For protecting copyright for trademark, convolutional neural network can be used to confirm genuine of trademark image. For this, repeated training one trademark image degrades the performance of machine learning because of overfitting problem. Therefore, this type of machine learning application generates training data in various way. But if genuine trademark image is rotated, this image is classified as not genuine trademark. In this paper, we propose the way for extending training data to confirm genuine of trademark image which is rotated. Our proposed way generates rotated image from genuine trademark image as training data. To show effectiveness of our proposed way, we use CNN machine learning model, and evaluate the accuracy with test image. From evaluation result, our way can be used to generate training data for machine learning application which confirms genuine of rotated trademark image.

  • PDF

Text Augmentation Using Hierarchy-based Word Replacement

  • Kim, Museong;Kim, Namgyu
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.1
    • /
    • pp.57-67
    • /
    • 2021
  • Recently, multi-modal deep learning techniques that combine heterogeneous data for deep learning analysis have been utilized a lot. In particular, studies on the synthesis of Text to Image that automatically generate images from text are being actively conducted. Deep learning for image synthesis requires a vast amount of data consisting of pairs of images and text describing the image. Therefore, various data augmentation techniques have been devised to generate a large amount of data from small data. A number of text augmentation techniques based on synonym replacement have been proposed so far. However, these techniques have a common limitation in that there is a possibility of generating a incorrect text from the content of an image when replacing the synonym for a noun word. In this study, we propose a text augmentation method to replace words using word hierarchy information for noun words. Additionally, we performed experiments using MSCOCO data in order to evaluate the performance of the proposed methodology.

A Study on Phoneme-Based PSOLA Speech Synthesis Using LSP (LSP를 이용한 음소단위 PSOLA 음성합성에 관한 연구)

  • 권혁제;조순계;김종교
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.2
    • /
    • pp.3-10
    • /
    • 1998
  • 본 논문에서는 음소단위 PSOLA 한국어 합성을 LSP line의 조절과 자모음 분석을 통해서 실시하였다. 음성합성에서 많이 사용하는 triphone, diphone, demisyllable등과 같은 합성단위들은 자연스러운 합성음을 위해 다양한 음운환경에서 수집된다. 그러나, 이런 방법 은 많은 시간과 메모리가 요구된다. 본 논문에서는 합성단위로서 자음17개, 모음 16개로 총 33개의 음소를 이용하였다. 자음은 후위모음/이/인 CV에서 segment되고, 모음은 단음절의 단모음과 이중모음을 1인의 화자로부터 합성데이터를 수집하였다. 또한, 10명의 화자가 발성 한 CV에서 각 모음에 따라 변하는 자음의 주파수를 분석하였고, CV+VC 또는 CV+CV에서 각 자음에 따라 변하는 모음의 포먼트변화를 분석하였다. 분석결과를 토대로 모음은 LSP line을 조절해서 PSOLA합성을 하고, 자음은 합성하려는 모음과 결합하였다. 그 결과 6개의 합성단어에 대한 청취율은 65%를 보였다.

  • PDF

GAN-Based Synthesis of Sparse Disease Data for Improving Medical AI Performance (의료 인공지능 성능 향상을 위한 GAN 기반 희소 질병 데이터 합성)

  • Ye-Rim Jeong;So-Yeon Kim;Il-Gu Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.707-708
    • /
    • 2024
  • 최근 디지털 헬스케어 기술과 서비스가 널리 활용되면서 의료 인공지능 성능 향상에 대한 관심이 높아지고 있다. 그러나 양성 데이터 대비 질병 데이터가 희소하여 학습 과정에서 과적합이 발생하거나 질병 예측 모델의 성능이 떨어진다는 한계가 있다. 본 논문에서는 데이터가 균질하지 않은 상황에서 생성형 인공지능 모델을 사용하여 합성 데이터를 생성하는 방안을 제안한다. 실험 결과에 따르면, 종래 방법 대비 제안한 방법의 정확도가 약 5.8% 향상되었고, 재현율이 약 21% 개선되었다.

A Study on Improving the Accuracy of Medical Images Classification Using Data Augmentation

  • Cheon-Ho Park;Min-Guan Kim;Seung-Zoon Lee;Jeongil Choi
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.12
    • /
    • pp.167-174
    • /
    • 2023
  • This paper attempted to improve the accuracy of the colorectal cancer diagnosis model using image data augmentation in convolutional neural network. Image data augmentation was performed by flipping, rotation, translation, shearing and zooming with basic image manipulation method. This study split 4000 training data and 1000 test data for 5000 image data held, the model is learned by adding 4000 and 8000 images by image data augmentation technique to 4000 training data. The evaluation results showed that the clasification accuracy for 4000, 8000, and 12,000 training data were 85.1%, 87.0%, and 90.2%, respectively, and the improvement effect depending on the increase of image data was confirmed.

A GAN-based face rotation technique using 3D face model for game characters (3D 얼굴 모델 기반의 GAN을 이용한 게임 캐릭터 회전 기법)

  • Kim, Handong;Han, Jongdae;Yang, Heekyung;Min, Kyungha
    • Journal of Korea Game Society
    • /
    • v.21 no.3
    • /
    • pp.13-24
    • /
    • 2021
  • This paper shows the face rotation applicable to game character facial illustration. Existing studies limited data to human face data, required a large amount of data, and the synthesized results were not good. In this paper, the following method was introduced to solve the existing problems of existing studies. First, a 3D model with features of the input image was rotated and then rendered as a 2D image to construct a data set. Second, by designing GAN that can learn features of various poses from the data built through the 3D model, the input image can be synthesized at a desired pose. This paper presents the results of synthesizing the game character face illustration. From the synthesized result, it can be confirmed that the proposed method works well.

Non-Homogeneous Haze Synthesis for Hazy Image Depth Estimation Using Deep Learning (불균일 안개 영상 합성을 이용한 딥러닝 기반 안개 영상 깊이 추정)

  • Choi, Yeongcheol;Paik, Jeehyun;Ju, Gwangjin;Lee, Donggun;Hwang, Gyeongha;Lee, Seungyong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.28 no.3
    • /
    • pp.45-54
    • /
    • 2022
  • Image depth estimation is a technology that is the basis of various image analysis. As analysis methods using deep learning models emerge, studies using deep learning in image depth estimation are being actively conducted. Currently, most deep learning-based depth estimation models are being trained with clean and ideal images. However, due to the lack of data on adverse conditions such as haze or fog, the depth estimation may not work well in such an environment. It is hard to sufficiently secure an image in these environments, and in particular, obtaining non-homogeneous haze data is a very difficult problem. In order to solve this problem, in this study, we propose a method of synthesizing non-homogeneous haze images and a learning method for a monocular depth estimation deep learning model using this method. Considering that haze mainly occurs outdoors, datasets mainly containing outdoor images are constructed. Experiment results show that the model with the proposed method is good at estimating depth in both synthesized and real haze data.

Species-level Zooplankton Classifier and Visualization using a Convolutional Neural Network (합성곱 신경망을 이용한 종 수준의 동물플랑크톤 분류기 및 시각화)

  • Man-Ki Jeong;Ho Young Soh;Hyi-Thaek Ceong
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.19 no.4
    • /
    • pp.721-732
    • /
    • 2024
  • Species identification of zooplankton is the most basic process in understanding the marine ecosystem and studying global warming. In this study, we propose an convolutional neural network model that can classify females and males of three zooplankton at the species level. First, training data including morphological features is constructed based on microscopic images acquired by researchers. In constructing training data, a data argumentation method that preserves morphological feature information of the target species is applied. Next, we propose a convolutional neural network model in which features can be learned from the constructed learning data. The proposed model minimized the information loss of training image in consideration of high resolution and minimized the number of learning parameters by using the global average polling layer instead of the fully connected layer. In addition, in order to present the generality of the proposed model, the performance was presented based on newly acquired data. Finally, through the visualization of the features extracted from the model, the key features of the classification model were presented.