• Title/Summary/Keyword: 이미지 비교

Search Result 2,320, Processing Time 0.026 seconds

Image Browsing in Mobile Devices Using User Motion Tracking (모바일 장치를 위한 동작 추적형 이미지 브라우징 시스템)

  • Yim, Sung-Hoon;Hwang, Jane;Choi, Seung-Moon;Kim, Joung-Hyun Gerard
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.440-446
    • /
    • 2007
  • 현재 대부분의 모바일 장치들엔 디지털 카메라가 설치되어 있으며 거대한 양의 이미지 데이터들을 저장할 수 있다. 이렇게 많은 양의 이미지가 저장되어 있을 경우 장치 속의 이미지들에 대한 브라우징을 하기 어려워지며, 그에 걸리는 시간도 증가하게 된다. 특히 모바일 장치의 경우 화면의 크기가 작으며, 일반 컴퓨터와 비교하여 부자연스럽고, 불편한 인터페이스를 갖고 있어 어려움을 더욱 증가 시킨다. 우리는 이를 해결하기 위해 3차원 가시화 방법과 모션 센싱을 이용한 인터페이스를 제안하고, 제안된 가시화 방법과 인터페이스의 조합을 통해 모바일 장치에서의 효과적인 이미지 브라우징 방법을 모색해 보았다.

  • PDF

The classification metrics selection and analysis for Medical research paper image search (의학 논문 이미지 검색을 위한 분류 메트릭 선정 및 분석)

  • Jang, Wu-In;Park, Young-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.892-894
    • /
    • 2014
  • 논문을 검색할 때 키워드를 이용한 검색 방법이 주로 사용된다. 논문에서 사용하는 이미지는 논문의 내용을 설명하는 중요한 요소임에도 불구하고 검색에 있어서 고려되지 않은 점이 있다. 특히, 이미지 검색은 의학 논문을 검색할 경우에 키워드를 대신할 수 있는 유용한 검색방법이 될 수 있을 것으로 사료된다. 본 논문에서는 기존의 이미지 검색이 쓰였던 관련 연구들을 살펴보고 의학 논문 사이트를 대표하는 펍메드와 코리아메드를 비교 분석한다. 더 나아가 빠르고 정확한 이미지 검색을 위한 이미지 분류 기준을 설정하여 본다.

Malware Classification Schemes Based on CNN Using Images and Metadata (이미지와 메타데이터를 활용한 CNN 기반의 악성코드 패밀리 분류 기법)

  • Lee, Song Yi;Moon, Bongkyo;Kim, Juntae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.212-215
    • /
    • 2021
  • 본 논문에서는 딥러닝의 CNN(Convolution Neural Network) 학습을 통하여 악성코드를 실행시키지 않고서 악성코드 변종을 패밀리 그룹으로 분류하는 방법을 연구한다. 먼저 데이터 전처리를 통해 3가지의 서로 다른 방법으로 악성코드 이미지와 메타데이터를 생성하고 이를 CNN으로 학습시킨다. 첫째, 악성코드의 byte 파일을 8비트 gray-scale 이미지로 시각화하는 방법이다. 둘째, 악성코드 asm 파일의 opcode sequence 정보를 추출하고 이를 이미지로 변환하는 방법이다. 셋째, 악성코드 이미지와 메타데이터를 결합하여 분류에 적용하는 방법이다. 이미지 특징 추출을 위해서는 본고에서 제안한 CNN을 통한 학습 방식과 더불어 3개의 Pre-trained된 CNN 모델을 (InceptionV3, Densnet, Resnet-50) 사용하여 전이학습을 진행한다. 전이학습 시에는 마지막 분류 레이어층에서 본 논문에서 선택한 데이터셋에 대해서만 학습하도록 파인튜닝하였다. 결과적으로 가공된 악성코드 데이터를 적용하여 9개의 악성코드 패밀리로 분류하고 예측 정확도를 측정해 비교 분석한다.

Image captioning and video captioning using Transformer (Transformer를 사용한 이미지 캡셔닝 및 비디오 캡셔닝)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.303-305
    • /
    • 2023
  • 본 논문에서는 트랜스포머를 사용한 이미지 캡셔닝 방법과 비디오 캡셔닝 방법을 제안한다. 트랜스포머의 입력으로 사전 학습된 이미지 클래스 분류모델을 거쳐 추출된 특징을 트랜스포머의 입력으로 넣고 인코더-디코더를 통해 이미지와 비디오의 캡션을 출력한다. 이미지 캡셔닝의 경우 한글 데이터 세트를 학습하여 한글 캡션을 출력하도록 학습하였으며 비디오 캡셔닝의 경우 MSVD 데이터 세트를 학습하여 학습 후 출력 캡션의 성능을 다른 비디오 캡셔닝 모델의 성능과 비교하였다. 비디오 캡셔닝에서 성능향상을 위해 트랜스포머의 디코더를 변형한 GPT-2를 사용하였을 때 BLEU-1 점수가 트랜스포머의 경우 0.62, GPT-2의 경우 0.80으로 성능이 향상됨을 확인하였다

  • PDF

The study on the Influences of National Image and Corporate Image on Brand Equity -Focused on the Comparison between Chinese brands and Global brands- (브랜드자산에 대한 국가이미지 및 기업이미지의 영향에 연구 -중국시장에 진출한 글로벌 브랜드 및 중국 브랜드에 대한 비교를 중심으로-)

  • Kim, Moon-Tae
    • Management & Information Systems Review
    • /
    • v.30 no.1
    • /
    • pp.187-209
    • /
    • 2011
  • This study investigate the roles of national image and corporate image on perceived quality, brand image, brand loyalty and brand equity of Chinese brands and global brands that are doing marketing in China. Several implications of this study is following like these. First, national image is one of major influence factors that affect enough on perceived quality likewise factors like advertising, price, and distribution. It is important marketing tool to promote national image on the national perspective and need to do those kinds of marketing activities. Second, this study shows the result that corporate image that is measured by the items focused on abilities of corporations is also influence factors that affect on perceived quality. In this perspective, the corporate image focused marketing activities of Korean firms may be the one of effective tools. Consequently, this study explains the mechanism that national image and corporate image variables enhance perceived quality, and perceived quality enhances brand image, brand loyalty and brand equity.

  • PDF

Implementation of Content-based Image Retrieval System using Color Spatial and Shape Information (칼라 공간과 형태 정보를 이용한 내용기반 이미지 검색 시스템 구현)

  • Ban, Hong-Oh;Kang, Mun-Ju;Choi, Heyung-Jin
    • The KIPS Transactions:PartB
    • /
    • v.10B no.6
    • /
    • pp.681-686
    • /
    • 2003
  • In recent years automatic image indexing and retrieval have been increasingly studied. However, content-based retrieval techniques for general images are still inadequate for many purposes. The novelty and originality of this thesis are the definition and use of a spatial information model as a contribution to the accuracy and efficiency of image search. In addition, the model is applied to represent color and shape image contents as a vector using the method of image features extraction, which was inspired by the previous work on the study of human visual perception. The indexing scheme using the color, shape and spatial model shows the potential of being applied with the well-developed algorithms of features extraction and image search, like ranking operations. To conclude, user can retrieved more similar images with high precision and fast speed using the proposed system.

Feature Extraction of Shape of Image Objects in Content-based Image Retrieval (내용기반으로한 이미지 검색에서 이미지 객체들의 외형특징추출)

  • Cho, June-Suh
    • The KIPS Transactions:PartB
    • /
    • v.10B no.7
    • /
    • pp.823-828
    • /
    • 2003
  • The main objective of this paper is to provide a methodology of feature extraction using shape of image objects for content-based image retrieval. The shape of most real-life objects is irregular, and hence there is no universal approach to quantify the shape of an arbitrary object. In particular. electronic catalogs contain many image objects for their products. In this paper, we perform feature extraction based on individual objects in images rather than on the whole image itself, since our method uses a shape-based approach of objects using RLC lines within an image. Experiments show that shape parameters distinctly represented image objects and provided better classification and discrimination among image objects in an image database compared to Texture.

Development of Location Image Analysis System design using Deep Learning

  • Jang, Jin-Wook
    • Journal of the Korea Society of Computer and Information
    • /
    • v.27 no.1
    • /
    • pp.77-82
    • /
    • 2022
  • The research study was conducted for development of the advanced image analysis service system based on deep learning. CNN(Convolutional Neural Network) is built in this system to extract learning data collected from Google and Instagram. The service gets a place image of Jeju as an input and provides relevant location information of it based on its own learning data. Accuracy improvement plans are applied throughout this study. In conclusion, the implemented system shows about 79.2 of prediction accuracy. When the system has plenty of learning data, it is expected to predict various places more accurately.

Korean Image Caption Generator Based on Show, Attend and Tell Model (Show, Attend and Tell 모델을 이용한 한국어 캡션 생성)

  • Kim, Dasol;Lee, Gyemin
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.258-261
    • /
    • 2022
  • 최근 딥러닝 기술이 발전하면서 이미지를 설명하는 캡션을 생성하는 모델 또한 발전하였다. 하지만 기존 이미지 캡션 모델은 대다수 영어로 구현되어있어 영어로 캡션을 생성하게 된다. 따라서 한국어 캡션을 생성하기 위해서는 영어 이미지 캡션 결과를 한국어로 번역하는 과정이 필요하다는 문제가 있다. 이에 본 연구에서는 기존의 이미지 캡션 모델을 이용하여 한국어 캡션을 직접 생성하는 모델을 만들고자 한다. 이를 위해 이미지 캡션 모델 중 잘 알려진 Show, Attend and Tell 모델을 이용하였다. 학습에는 MS-COCO 데이터의 한국어 캡션 데이터셋을 이용하였다. 한국어 형태소 분석기를 이용하여 토큰을 만들고 캡션 모델을 재학습하여 한국어 캡션을 생성할 수 있었다. 만들어진 한국어 이미지 캡션 모델은 BLEU 스코어를 사용하여 평가하였다. 이때 BLEU 스코어를 사용하여 생성된 한국어 캡션과 영어 캡션의 성능을 평가함에 있어서 언어의 차이에 인한 결과 차이가 발생할 수 있으므로, 영어 이미지 캡션 생성 모델의 출력을 한국어로 번역하여 같은 언어로 모델을 평가한 후 최종 성능을 비교하였다. 평가 결과 한국어 이미지 캡션 생성 모델이 영어 이미지 캡션 생성 모델을 한국어로 번역한 결과보다 좋은 BLEU 스코어를 갖는 것을 확인할 수 있었다.

  • PDF

Comparative Analysis of Self-supervised Deephashing Models for Efficient Image Retrieval System (효율적인 이미지 검색 시스템을 위한 자기 감독 딥해싱 모델의 비교 분석)

  • Kim Soo In;Jeon Young Jin;Lee Sang Bum;Kim Won Gyum
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.12 no.12
    • /
    • pp.519-524
    • /
    • 2023
  • In hashing-based image retrieval, the hash code of a manipulated image is different from the original image, making it difficult to search for the same image. This paper proposes and evaluates a self-supervised deephashing model that generates perceptual hash codes from feature information such as texture, shape, and color of images. The comparison models are autoencoder-based variational inference models, but the encoder is designed with a fully connected layer, convolutional neural network, and transformer modules. The proposed model is a variational inference model that includes a SimAM module of extracting geometric patterns and positional relationships within images. The SimAM module can learn latent vectors highlighting objects or local regions through an energy function using the activation values of neurons and surrounding neurons. The proposed method is a representation learning model that can generate low-dimensional latent vectors from high-dimensional input images, and the latent vectors are binarized into distinguishable hash code. From the experimental results on public datasets such as CIFAR-10, ImageNet, and NUS-WIDE, the proposed model is superior to the comparative model and analyzed to have equivalent performance to the supervised learning-based deephashing model. The proposed model can be used in application systems that require low-dimensional representation of images, such as image search or copyright image determination.