• Title/Summary/Keyword: user-generated image

검색결과 122건 처리시간 0.028초

한국 웹툰의 참여 문화 연구 - 사용자 생성 이미지를 중심으로 - (A Study on Participatory Culture of Korean Webtoon Focused on User-Generated Images -)

  • 김유나;김수진
    • 만화애니메이션 연구
    • /
    • 통권44호
    • /
    • pp.307-331
    • /
    • 2016
  • 웹툰은 동시대 한국을 대표하는 대중문화 콘텐츠이다. 본 연구에서는 웹툰을 둘러싼 참여 문화의 양상을 살펴보고, 웹툰이 동시대 한국에서 지니는 문화적 함의를 밝히고자 한다. 이때 웹툰의 참여 문화가 사용자 생성 이미지를 중심으로 형성되고 있다는 점에 주목하고 그 재현 양상을 분석한다. 이를 위해 먼저 2장에서는 사용자 생성 이미지가 모방되는 과정을 '밈' 개념을 기반으로 분석한다. 특히 사용자 생성 이미지의 그림과 글이 변이 혹은 복제되는 정도에 따라 이를 '완전 복제형', '부분 변이형', '완전 변이형'의 세 가지 유형으로 분류한다. 사용자들은 이렇게 변용한 이미지를 일상적인 메신저 대화 등에 이식함으로써 하나의 놀이 요소로 사용하고 있다. 3장에서는 이러한 사용자 생성 이미지가 생성되는 과정에서 도출되는 문화적 의미를 밝힌다. 특히 대부분의 사용자 생성 이미지가 원본 웹툰의 주인공을 모방한다는 점에 주목하고, 노스럽 프라이의 문학 양식 이론을 통해 그 근저에 깔린 대중의 욕망을 분석한다. 웹툰의 주된 독자는 한국의 대도시에 살아가는 소시민이며, 사용자 생성 이미지 역시 이러한 평범한 사람들의 일상을 반영하는 방식으로 나타난다. 이처럼 웹툰의 사용자 생성 이미지는 그림이나 글을 복제 및 변이하는 방식으로 원본을 모방하며, 사용자들 사이에서 하나의 유희적 코드로서 소비 및 향유된다. 특히 주인공의 모습을 자기반영적으로 모방함으로써 사용자들의 일상적 공감에 소구한다. 본 연구는 웹툰의 사용자 생성 이미지가 동시대 한국을 살아가는 대중의 욕망을 드러낸다는 점에서 그 문화적 함의를 고찰한다.

Comparative Analysis of AI Painting Using [Midjourney] and [Stable Diffusion] - A Case Study on Character Drawing -

  • Pingjian Jie;Xinyi Shan;Jeanhun Chung
    • International Journal of Advanced Culture Technology
    • /
    • 제11권2호
    • /
    • pp.403-408
    • /
    • 2023
  • The widespread discussion of AI-generated content, fueled by the emergence of consumer applications like ChatGPT and Midjourney, has attracted significant attention. Among various AI applications, AI painting has gained popularity due to its mature technology, user-friendly nature, and excellent output quality, resulting in a rapid growth in user numbers. Midjourney and Stable Diffusion are two of the most widely used AI painting tools by users. In this study, the author adopts a perspective that represents the general public and utilizes case studies and comparative analysis to summarize the distinctive features and differences between Midjourney and Stable Diffusion in the context of AI character illustration. The aim is to provide informative material forthose interested in AI painting and lay a solid foundation for further in-depth research on AI-generated content. The research findings indicate that both software can generate excellent character images but with distinct features.

Understanding Brand Image from Consumer-generated Hashtags

  • Park, Keeyeon Ki-cheon;Kim, Hye-jin
    • Asia Marketing Journal
    • /
    • 제22권3호
    • /
    • pp.71-85
    • /
    • 2020
  • Social media has emerged as a major hub of engagement between brands and consumers in recent years, and allows user-generated content to serve as a powerful means of encouraging communication between the sides. However, it is challenging to negotiate user-generated content owing to its lack of structure and the enormous amount generated. This study focuses on the hashtag, a metadata tag that reflects customers' brand perception through social media platforms. Online users share their knowledge and impressions using a wide variety of hashtags. We examine hashtags that co-occur with particular branded hashtags on the social media platform, Instagram, to derive insights about brand perception. We apply text mining technology and network analysis to identify the perceptions of brand images among consumers on the site, where this helps distinguish among the diverse personalities of the brands. This study contributes to highlighting the value of hashtags in constructing brand personality in the context of online marketing.

이미지 합성을 이용한 인증에 대한 연구 (A Study on Authentication using Image Synthesis)

  • 김수희;박봉주
    • 융합보안논문지
    • /
    • 제4권3호
    • /
    • pp.19-25
    • /
    • 2004
  • 본 연구는 이미지 합성을 이용하여 서버가 사용자를 인증하기 위한 알고리즘을 개발하고 이를 구현한다. 서버는 사용자가 소지하는 사용자카드를 랜덤하게 점을 찍어 생성하고, 각 사용자에게 배포된 사용자카드의 정보를 유지하고 관리한다. 한 사용자로부터 인증요청이 들어오면, 서버는 그 사용자의 사용자카드 정보를 기반으로 서버카드를 실시간에 생성하여 사용자에게 송신한다. 서버카드는 각 인증마다 다르게 생성되므로 원타임 패스워드 첼린지(challenge) 역할을 한다. 사용자는 본인이 소유하고 있는 사용자카드와 서버로부터 송신된 서버카드를 겹쳤을 때 생성되는 이미지를 판독하여 인증을 수행한다. 이 논문은 보안성을 높이면서 이미지를 선명하게 형성하는 기법을 제시하고 이를 구현한다.

  • PDF

Hardware Accelerated Design on Bag of Words Classification Algorithm

  • Lee, Chang-yong;Lee, Ji-yong;Lee, Yong-hwan
    • Journal of Platform Technology
    • /
    • 제6권4호
    • /
    • pp.26-33
    • /
    • 2018
  • In this paper, we propose an image retrieval algorithm for real-time processing and design it as hardware. The proposed method is based on the classification of BoWs(Bag of Words) algorithm and proposes an image search algorithm using bit stream. K-fold cross validation is used for the verification of the algorithm. Data is classified into seven classes, each class has seven images and a total of 49 images are tested. The test has two kinds of accuracy measurement and speed measurement. The accuracy of the image classification was 86.2% for the BoWs algorithm and 83.7% the proposed hardware-accelerated software implementation algorithm, and the BoWs algorithm was 2.5% higher. The image retrieval processing speed of BoWs is 7.89s and our algorithm is 1.55s. Our algorithm is 5.09 times faster than BoWs algorithm. The algorithm is largely divided into software and hardware parts. In the software structure, C-language is used. The Scale Invariant Feature Transform algorithm is used to extract feature points that are invariant to size and rotation from the image. Bit streams are generated from the extracted feature point. In the hardware architecture, the proposed image retrieval algorithm is written in Verilog HDL and designed and verified by FPGA and Design Compiler. The generated bit streams are stored, the clustering step is performed, and a searcher image databases or an input image databases are generated and matched. Using the proposed algorithm, we can improve convenience and satisfaction of the user in terms of speed if we search using database matching method which represents each object.

Evaluation of Geo-based Image Fusion on Mobile Cloud Environment using Histogram Similarity Analysis

  • Lee, Kiwon;Kang, Sanggoo
    • 대한원격탐사학회지
    • /
    • 제31권1호
    • /
    • pp.1-9
    • /
    • 2015
  • Mobility and cloud platform have become the dominant paradigm to develop web services dealing with huge and diverse digital contents for scientific solution or engineering application. These two trends are technically combined into mobile cloud computing environment taking beneficial points from each. The intention of this study is to design and implement a mobile cloud application for remotely sensed image fusion for the further practical geo-based mobile services. In this implementation, the system architecture consists of two parts: mobile web client and cloud application server. Mobile web client is for user interface regarding image fusion application processing and image visualization and for mobile web service of data listing and browsing. Cloud application server works on OpenStack, open source cloud platform. In this part, three server instances are generated as web server instance, tiling server instance, and fusion server instance. With metadata browsing of the processing data, image fusion by Bayesian approach is performed using functions within Orfeo Toolbox (OTB), open source remote sensing library. In addition, similarity of fused images with respect to input image set is estimated by histogram distance metrics. This result can be used as the reference criterion for user parameter choice on Bayesian image fusion. It is thought that the implementation strategy for mobile cloud application based on full open sources provides good points for a mobile service supporting specific remote sensing functions, besides image fusion schemes, by user demands to expand remote sensing application fields.

COMMUNITY-GENERATED ONLINE IMAGE DICTORNARY

  • Li, Guangda;Li, Haojie;Tang, Jinhui;Chua, Tat-Seng
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.178-183
    • /
    • 2009
  • Online image dictionary has become more and more popular in concepts cognition. However, for existing online systems, only very few images are manually picked to demonstrate the concepts. Currently, there is very little research found on automatically choosing large scale online images with the help of semantic analysis. In this paper, we propose a novel framework to utilize community-generated online multimedia content to visually illustrate certain concepts. Our proposed framework adapts various techniques, including the correlation analysis, semantic and visual clustering to produce sets of high quality, precise, diverse and representative images to visually translate a given concept. To make the best use of our results, a user interface is deployed, which displays the representative images according the latent semantic coherence. The objective and subjective evaluations show the feasibility and effectiveness of our approach.

  • PDF

Interactive prostate shape reconstruction from 3D TRUS images

  • Furuhata, Tomotake;Song, Inho;Zhang, Hong;Rabin, Yoed;Shimada, Kenji
    • Journal of Computational Design and Engineering
    • /
    • 제1권4호
    • /
    • pp.272-288
    • /
    • 2014
  • This paper presents a two-step, semi-automated method for reconstructing a three-dimensional (3D) shape of the prostate from a 3D transrectal ultrasound (TRUS) image. While the method has been developed for prostate ultrasound imaging, it can potentially be applicable to any other organ of the body and other imaging modalities. The proposed method takes as input a 3D TRUS image and generates a watertight 3D surface model of the prostate. In the first step, the system lets the user visualize and navigate through the input volumetric image by displaying cross sectional views oriented in arbitrary directions. The user then draws partial/full contours on selected cross sectional views. In the second step, the method automatically generates a watertight 3D surface of the prostate by fitting a deformable spherical template to the set of user-specified contours. Since the method allows the user to select the best cross-sectional directions and draw only clearly recognizable partial or full contours, the user can avoid time-consuming and inaccurate guesswork on where prostate contours are located. By avoiding the usage of noisy, incomprehensible portions of the TRUS image, the proposed method yields more accurate prostate shapes than conventional methods that demand complete cross-sectional contours selected manually, or automatically using an image processing tool. Our experiments confirmed that a 3D watertight surface of the prostate can be generated within five minutes even from a volumetric image with a high level of speckles and shadow noises.

프랙탈 트리를 이용한 자동 작곡 방법 (Automatic Composition Algorithm based on Fractal Tree)

  • 곽성호;유민준;이인권
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.618-622
    • /
    • 2008
  • 본 논문에서는 프랙탈 이론을 이용한 새로운 자동 작곡 알고리즘을 제안한다. 사용자는 L-System에서 시작 상태 및 생성 규칙들을 설정함으로써 다양한 프랙탈 형태를 정의 및 조정할 수 있다. 본 연구에서는 먼저 L-System과 확률을 이용하여 비대칭인 프랙탈 트리를 생성한다. 그리고 생성된 프랙탈 트리의 이미지를 기반으로 음악화 기법을 이용하여 음악을 생성한다. 본 논문에서는 다음 두 가지 방법을 소개한다. 첫째로, 이미지의 x축과 y축을 음의 크기와 음정으로 매핑하여 단선율 음악을 생성한다. 둘째로, 이미지의 x축과 y축을 시간과 음정으로 매핑하여 다성음악을 생성한다. 본 논문에서 제시하는 방법을 이용하여 사용자는 프랙탈의 재귀적인 특징이 반복성으로 나타나는 음악을 생성할 수 있으며, 프랙탈 트리의 모습을 음악적 구조로 갖는 음악을 생성할 수 있다.

  • PDF

비교정 영상에서의 반자동 3차원 건물 모델링 (Semi-automatic 3D Building Reconstruction from Uncalibrated Images)

  • 장경호;장재석;이석준;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제12권9호
    • /
    • pp.1217-1232
    • /
    • 2009
  • 본 논문에서는 실외에서 촬영된 비교정 영상으로부터 3차원 건물 구조를 복원하는 반자동화 방법론을 제안한다. 사용자는 관심있는 건물을 임의의 위치에서 촬영한다. 본 논문에서 제안하는 시스템은 먼저, 입력영상에 대하여 SIFT 알고리즘을 이용하여 특징점과 대응점을 추출한다. 두 번째로, 각 영상에 존재하는 선과 소실점을 추정하고, 추정된 소실점으로 추출한 선들을 그룹화 한다. 다음으로, 각 영상 간의 관계를 대응점의 개수로 정의한 인접 그래프를 이용하여 입력 영상에 대한 순서를 정의하여, 각 영상을 촬영한 카메라의 위치 정보를 보정한다. 최종적으로 추정한 카메라의 정보와 각 영상에서 그룹화된 선을 이용하여 건물의 대략적인 3차원 구조를 복원한다. 하프 에지(half-edge) 자료 구조와 오일러 연산자(Euler operator)를 이용한 상세 모델링을 수행함으로써 완성된 건물 구조를 복원할 수 있다. 본 논문에서는 자동으로 추출된 기하학적 정보를 이용하여 최소한의 사용자 입력으로 건물을 복원 할 수 있도록 하였다.

  • PDF