• Title/Summary/Keyword: 모델 이미지

Search Result 1,854, Processing Time 0.037 seconds

Extraction of Color Information from Images using Grid Kernel (지역적 유사도를 이용한 이미지 색상 정보 추출)

  • Son, Jeong-Woo;Park, Seong-Bae;Kim, Sang-Su;Kim, Ku-Jin
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.06b
    • /
    • pp.182-187
    • /
    • 2007
  • 본 논문에서는 이미지 상에 나타난 색상 정보를 추출하기 위한 새로운 커널 메소드(Kernel method)인 Grid kernel을 제안한다. 제안한 Grid kernel은 Convolution kernel의 하나로 이미지 상에 나타나는 자질을 주변 픽셀에서 나타나는 자질로 정의 하고 이를 재귀적으로 적용함으로써 두 이미지를 비교한다. 본 논문에서는 제안한 커널을 차량 색상 인식 문제에 적용하여 차량 색상 인식 모델을 제안한다. 이미지 생성시 나타나는 주변 요인으로 인해 차량의 색상을 추출하는 것은 어려운 문제이다. 이미지가 야외에서 촬영되기 때문에 시간, 날씨 등의 주변 요인은 같은 차량이라 하더라도 다른 색상을 보이게 할 수 있다. 이를 해결하기 위해 Grid kernel이 적용된 차량 색상 인식 모델은 이미지를 HSV (Hue-Saturation-Value) 색상 공간으로 사상하여 명도를 배제하였다. 제안한 커널과 색상 인식 모델을 검증하기 위해 5가지 색상을 가진 차량 이미지를 이용하여 실험을 하였으며, 실험 결과 92.4%의 정확율과 92.0%의 재현율을 보였다.

  • PDF

Image Anomaly Detection Using MLP-Mixer (MLP-Mixer를 이용한 이미지 이상탐지)

  • Hwang, Ju-hyo;Jin, Kyo-hong
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.05a
    • /
    • pp.104-107
    • /
    • 2022
  • autoencoder deep learning model has excellent ability to restore abnormal data to normal data, so it is not appropriate for anomaly detection. In addition, the Inpainting method, which is a method of restoring hidden data after masking (masking) a part of the data, has a problem in that the restoring ability is poor for noisy images. In this paper, we use a method of modifying and improving the MLP-Mixer model to mask the image at a certain ratio and to reconstruct the image by delivering compressed information of the masked image to the model. After constructing a model learned with normal data from the MVTec AD dataset, a reconstruction error was obtained by inputting normal and abnormal images, respectively, and anomaly detection was performed through this. As a result of the performance evaluation, it was found that the proposed method has superior anomaly detection performance compared to the existing method.

  • PDF

A Video Style Generation and Synthesis Network using GAN (GAN을 이용한 동영상 스타일 생성 및 합성 네트워크 구축)

  • Choi, Heejo;Park, Gooman;Kim, Sang-Jun;Lee, Yu-Jin;Sang, Hye-Jun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.727-730
    • /
    • 2021
  • 이미지와 비디오 합성 기술에 대한 수요가 늘어남에 따라, 인간의 손에만 의존하여 이미지나 비디오를 합성하는데에는 시간과 자원이 한정적이며, 전문적인 지식을 요한다. 이러한 문제를 해결하기 위해 최근에는 스타일 변환 네트워크를 통해 이미지를 변환하고, 믹싱하여 생성하는 알고리즘이 등장하고 있다. 이에 본 논문에서는 GAN을 이용한 스타일 변환 네트워크를 통한 자연스러운 스타일 믹싱에 대해 연구했다. 먼저 애니메이션 토이 스토리의 등장인물에 대한 데이터를 구축하고, 모델을 학습하고 두 개의 모델을 블렌딩하는 일련의 과정을 거쳐 모델을 준비한다. 그 다음에 블렌딩된 모델을 통해 타겟 이미지에 대하여 스타일 믹싱을 진행하며, 이 때 이미지 해상도와 projection 반복 값으로 스타일 변환 정도를 조절한다. 최종적으로 스타일 믹싱한 결과 이미지들을 바탕으로 하여 스타일 변형, 스타일 합성이 된 인물에 대한 동영상을 생성한다.

A study on evaluation method of NIDS datasets in closed military network (군 폐쇄망 환경에서의 모의 네트워크 데이터 셋 평가 방법 연구)

  • Park, Yong-bin;Shin, Sung-uk;Lee, In-sup
    • Journal of Internet Computing and Services
    • /
    • v.21 no.2
    • /
    • pp.121-130
    • /
    • 2020
  • This paper suggests evaluating the military closed network data as an image which is generated by Generative Adversarial Network (GAN), applying an image evaluation method such as the InceptionV3 model-based Inception Score (IS) and Frechet Inception Distance (FID). We employed the famous image classification models instead of the InceptionV3, added layers to those models, and converted the network data to an image in diverse ways. Experimental results show that the Densenet121 model with one added Dense Layer achieves the best performance in data converted using the arctangent algorithm and 8 * 8 size of the image.

A Development of 3D Viewer Using OPenGL (OpenGL을 이용한 3D 언어 개발)

  • 김병수;강병익
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.11b
    • /
    • pp.776-779
    • /
    • 2002
  • 본 논문에서는 OpenGL을 이용한 삼차원 뷰어(Viewer)를 개발한다. 3D Max와 같은 3D 개발 툴에서 침대, 소파 등 3D 모델 라이브러리를 제작한 후 일어들이는 렌더링 모듈을 개발한다. 3D 모델 라이브러리에 직물 이미지 라이브러리를 매핑하는 모듈도 개발하여 직물 이미지와 유사한 효과를 낼 수 있도록 한다. 3D max에서 광원과 질감을 포함하여 렌더링한 후 개발되는 프로그램으로 데이터 손실없이 읽어들이는 것을 목표로 한다. 3차원 모델에 설계된 직물 이미지를 사용하여 3D 매핑된 후. 사용자가 확대, 축소, 이동, 회전 등의 효과를 줄 수 있게 하는 사용자 인터페이스 제공 및 3D 애니메이션 기능을 구현한다.

  • PDF

Anomaly Detection in printed patters using U-Net (U-Net 모델을 이용한 비정상 인쇄물 검출 방법)

  • Hong, Soon-Hyun;Nam, Hyeon-Gil;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.686-688
    • /
    • 2020
  • 본 논문에서는 U-Net 모델을 이용하여 정교하고 반복되는 패턴을 가진 인쇄물에 대한 비지도 학습을 통한 딥러닝 기반 이상치탐지(Anomaly Detection) 방법을 제안하였다. 인쇄물(카드)의 비정상 패턴 검출을 위하여 촬영한 영상으로부터 카드 영역을 분리한 이미지로 구성된 Dataset을 구축하였고 정상 이미지와 동일한 이미지를 출력하기 위해, 정상 이미지와 마스크 이미지 쌍의 Training dataset을 U-Net으로 학습하였다. Test dataset의 이미지를 입력으로 넣어 생성된 마스크 결과를 원본 마스크 이미지와 비교하여 이상 여부를 판단하는 본 논문의 방법이 정상, 비정상 인쇄물을 잘 구분하는 것을 확인하였다. 또한 정상과 비정상 이미지 각각을 학습한 지도학습 기반 CNN 분류 방법을 입력 영상과 복원 영상 간의 복원 오차를 비교하여 객체의 이상 여부를 판별하는 본 논문의 방법과 비교 평가하였다. 본 논문을 통해 U-Net을 사용하여 별도로 데이터에 대한 label 취득 없이 이상치를 검출할 수 있음을 확인할 수 있었다.

  • PDF

3D Face Model Texturing Using Panorama Image Stitching (파노라마 이미지 스티칭 기술을 이용한 3차원 얼굴 모델 텍스쳐링 기법)

  • Cho, Kwang-Hyeon;Kim, Gye-Young;Choi, Hyung-Il
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2011.01a
    • /
    • pp.47-49
    • /
    • 2011
  • 본 논문에서는 사용자의 정면, 측면 영상을 이용하여 3차원 얼굴 모델에 적합한 텍스쳐 맵을 생성, 이를 이용하여 3차원 얼굴 모델을 생성하는 방법을 제안한다. 기존 3차원 얼굴 모델은 매핑 할 텍스쳐 영상들을 하나로 통합하여 이를 원통형 좌표계를 통해 텍스쳐링 하는 방법이 이용되고 있다. 이때 정면과 측면의 영상을 3차원 얼굴 모델의 중심축을 기준으로 계산하여 좌표에 맞게 투영시키고 통합 및 보간하여 텍스쳐링 하게 된다. 사용자는 이를 위하여 정면과 측면 영상을 원통형 좌표에 맞게 통합시키는 작업이 필요하다. 본 논문은 사용자에게 수반되는 이러한 작업을 줄이고 발생될 수 있는 텍스쳐의 왜곡을 최소화하기 위한 방법을 제시한다. 2차원 정면 측면 이미지를 3차원 얼굴모델에 투영시키고 정면과 측면을 구분하여 각 텍스쳐 간 경계 부분을 자연스럽게 처리하기 위해 파노라마 이미지 스티칭 기술을 이용하여 텍스쳐링 한 뒤 얼굴 모델을 생성하는 방법에 대해서 기술한다.

  • PDF

Membership Inference Attack against Text-to-Image Model Based on Generating Adversarial Prompt Using Textual Inversion (Textual Inversion을 활용한 Adversarial Prompt 생성 기반 Text-to-Image 모델에 대한 멤버십 추론 공격)

  • Yoonju Oh;Sohee Park;Daeseon Choi
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.33 no.6
    • /
    • pp.1111-1123
    • /
    • 2023
  • In recent years, as generative models have developed, research that threatens them has also been actively conducted. We propose a new membership inference attack against text-to-image model. Existing membership inference attacks on Text-to-Image models produced a single image as captions of query images. On the other hand, this paper uses personalized embedding in query images through Textual Inversion. And we propose a membership inference attack that effectively generates multiple images as a method of generating Adversarial Prompt. In addition, the membership inference attack is tested for the first time on the Stable Diffusion model, which is attracting attention among the Text-to-Image models, and achieve an accuracy of up to 1.00.

Multiple image classification using label mapping (레이블 매핑을 이용한 다중 이미지 분류)

  • Jeon, Seung-Je;Lee, Dong-jun;Lee, DongHwi
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.05a
    • /
    • pp.367-369
    • /
    • 2022
  • In this paper, the predicted results were confirmed by label mapping for each class while implementing multi-class image classification to confirm accurate results for images in which the trained model failed classification. A CNN model was constructed and trained using Kaggle's Intel Image Classification dataset, and the mapped label values of multiple classes of images and the values classified by the model were compared by label mapping the images of the test dataset.

  • PDF

Deep Clustering Based on Vision Transformer(ViT) for Images (이미지에 대한 비전 트랜스포머(ViT) 기반 딥 클러스터링)

  • Hyesoo Shin;Sara Yu;Ki Yong Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.363-365
    • /
    • 2023
  • 본 논문에서는 어텐션(Attention) 메커니즘을 이미지 처리에 적용한 연구가 진행되면서 등장한 비전 트랜스포머 (Vision Transformer, ViT)의 한계를 극복하기 위해 ViT 기반의 딥 클러스터링(Deep Clustering) 기법을 제안한다. ViT는 완전히 트랜스포머(Transformer)만을 사용하여 입력 이미지의 패치(patch)들을 벡터로 변환하여 학습하는 모델로, 합성곱 신경망(Convolutional Neural Network, CNN)을 사용하지 않으므로 입력 이미지의 크기에 대한 제한이 없으며 높은 성능을 보인다. 그러나 작은 데이터셋에서는 학습이 어렵다는 단점이 있다. 제안하는 딥 클러스터링 기법은 처음에는 입력 이미지를 임베딩 모델에 통과시켜 임베딩 벡터를 추출하여 클러스터링을 수행한 뒤, 클러스터링 결과를 임베딩 벡터에 반영하도록 업데이트하여 클러스터링을 개선하고, 이를 반복하는 방식이다. 이를 통해 ViT 모델의 일반적인 패턴 파악 능력을 개선하고 더욱 정확한 클러스터링 결과를 얻을 수 있다는 것을 실험을 통해 확인하였다.