• Title/Summary/Keyword: Flickr

Search Result 40, Processing Time 0.028 seconds

A Study on Analysis of Flickr Note and Its Applications for Social Media Search (소셜 미디어 검색을 위한 Flickr Note의 분석 및 응용에 관한 연구)

  • Jeong, Jin-Woo;Hong, Hyun-Ki;Lee, Dong-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.49-52
    • /
    • 2011
  • 본 연구에서는 Flickr에서 제공하는 어노테이션 기법 중 Note 서비스에 대한 다양한 분석 결과를 제공하고, 이를 기반으로 소셜 미디어 검색을 위한 Flickr Note의 응용 방안을 제안한다. Flickr Note는 기존의 태그 기반 검색에서 활용되는 태그와는 달리 이미지의 특정 영역 위에 직접적으로 할당되는 텍스트들의 집합이다. Flickr Note는 보다 지능적인 소셜 이미지 공유 및 검색 서비스를 위하여 다양한 정보들을 제공할 수 있는 중요한 데이터지만, 이를, 이미지 검색에 효과적으로 활용하기 위한 연구는 미미한 수준이다. 따라서 본 연구에서는 Flickr Note에 대한 다양한 분석을 통하여 소설 이미지 검색에서 Note의 역할 및 활용 기능성을 제공하고자 하며, 이를 바탕으로 Flickr Note 기반의 이미지 분석 및 검색을 위한 다양한 연구들이 시도되기를 기대한다.

Motivations for Sharing Photos and Videos on YouTube and Flickr (YouTube와 Flickr에 사진과 비디오를 공유하는 이용자 동기 연구)

  • Oh, Sanghee;Syn, Sue Yeon
    • Journal of the Korean Society for information Management
    • /
    • v.34 no.4
    • /
    • pp.227-245
    • /
    • 2017
  • This study mainly investigates the motivations of YouTube and Flicker users for posting videos or images/photos on each service. The motivational framework with ten factors such as enjoyment, self-efficacy, learning, personal gain, altruism, empathy, social engagement, community interest, reputation and reciprocity were used to test the motivations. Those who are users of YouTube and Flickr were recruited from Amazon Mechanical Turk to participate in online surveys. Findings show that learning and social engagement are the two most highly rated motivations. Altruism was rated relatively low, although it was strongly correlated with all other motivations. Personal gain was rated as the lowest by both users but Flickr users rated personal gain higher than YouTube users. Findings from this study could be applicable to specify user motivations for using the services and to upgrade the designs of the services in the future.

Image Caption Generation using Recurrent Neural Network (Recurrent Neural Network를 이용한 이미지 캡션 생성)

  • Lee, Changki
    • Journal of KIISE
    • /
    • v.43 no.8
    • /
    • pp.878-882
    • /
    • 2016
  • Automatic generation of captions for an image is a very difficult task, due to the necessity of computer vision and natural language processing technologies. However, this task has many important applications, such as early childhood education, image retrieval, and navigation for blind. In this paper, we describe a Recurrent Neural Network (RNN) model for generating image captions, which takes image features extracted from a Convolutional Neural Network (CNN). We demonstrate that our models produce state of the art results in image caption generation experiments on the Flickr 8K, Flickr 30K, and MS COCO datasets.

Web Image Classification using Semantically Related Tags and Image Content (의미적 연관태그와 이미지 내용정보를 이용한 웹 이미지 분류)

  • Cho, Soo-Sun
    • Journal of Internet Computing and Services
    • /
    • v.11 no.3
    • /
    • pp.15-24
    • /
    • 2010
  • In this paper, we propose an image classification which combines semantic relations of tags with contents of images to improve the satisfaction of image retrieval on application domains as huge image sharing sites. To make good use of image retrieval or classification algorithms on huge image sharing sites as Flickr, they are applicable to real tagged Web images. To classify the Web images by 'bag of visual word' based image content, our algorithm includes training the category model by utilizing the preliminary retrieved images with semantically related tags as training data and classifying the test images based on PLSA. In the experimental results on the Flickr Web images, the proposed method produced the better precision and recall rates than those from the existing method using tag information.

Learning and Transferring Deep Neural Network Models for Image Caption Generation (이미지 캡션 생성을 위한 심층 신경망 모델 학습과 전이)

  • Kim, Dong-Ha;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.617-620
    • /
    • 2016
  • 본 논문에서는 이미지 캡션 생성과 모델 전이에 효과적인 심층 신경망 모델을 제시한다. 본 모델은 멀티 모달 순환 신경망 모델의 하나로서, 이미지로부터 시각 정보를 추출하는 컨볼루션 신경망 층, 각 단어를 저차원의 특징으로 변환하는 임베딩 층, 캡션 문장 구조를 학습하는 순환 신경망 층, 시각 정보와 언어 정보를 결합하는 멀티 모달 층 등 총 5 개의 계층들로 구성된다. 특히 본 모델에서는 시퀀스 패턴 학습과 모델 전이에 우수한 LSTM 유닛을 이용하여 순환 신경망 층을 구성하고, 컨볼루션 신경망 층의 출력을 임베딩 층뿐만 아니라 멀티 모달 층에도 연결함으로써, 캡션 문장 생성을 위한 매 단계마다 이미지의 시각 정보를 이용할 수 있는 연결 구조를 가진다. Flickr8k, Flickr30k, MSCOCO 등의 공개 데이터 집합들을 이용한 다양한 비교 실험을 통해, 캡션의 정확도와 모델 전이의 효과 면에서 본 논문에서 제시한 멀티 모달 순환 신경망 모델의 우수성을 입증하였다.

Investigating the End-User Tagging Behavior and its Implications in Flickr (플리커 이미지 자료에 대한 이용자 태깅 행태 분석과 활용 방안)

  • Kim, Hyun-Hee;Kim, Min-Kyung
    • Journal of Information Management
    • /
    • v.40 no.2
    • /
    • pp.71-94
    • /
    • 2009
  • Indexing images using traditional indexing methods like taxonomy is not always efficient because of its visual content. This study examined how to apply folksonomies to image retrieval. To do this, first, we developed a category model for image tags found in Flickr. The model includes five categories and seventeen subcategories. Second, in order to evaluate the usefulness of the model to represent the various image tags as well as to investigate the end-user tagging behavior, three researchers classified the sampled image tags(141 most popular tags, 105 tags on three individual tag clouds and 3,848 image tags assigned on 156 images) according to the model. Finally, based on the research results, we proposed three methods for efficient image retrieval: extending folksonomies by combining them with ontologies; improving image retrieval efficiency using visual content and folksonomies; and updating taxonomy using folksonomies.

Design of a Deep Neural Network Model for Image Caption Generation (이미지 캡션 생성을 위한 심층 신경망 모델의 설계)

  • Kim, Dongha;Kim, Incheol
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.6 no.4
    • /
    • pp.203-210
    • /
    • 2017
  • In this paper, we propose an effective neural network model for image caption generation and model transfer. This model is a kind of multi-modal recurrent neural network models. It consists of five distinct layers: a convolution neural network layer for extracting visual information from images, an embedding layer for converting each word into a low dimensional feature, a recurrent neural network layer for learning caption sentence structure, and a multi-modal layer for combining visual and language information. In this model, the recurrent neural network layer is constructed by LSTM units, which are well known to be effective for learning and transferring sequence patterns. Moreover, this model has a unique structure in which the output of the convolution neural network layer is linked not only to the input of the initial state of the recurrent neural network layer but also to the input of the multimodal layer, in order to make use of visual information extracted from the image at each recurrent step for generating the corresponding textual caption. Through various comparative experiments using open data sets such as Flickr8k, Flickr30k, and MSCOCO, we demonstrated the proposed multimodal recurrent neural network model has high performance in terms of caption accuracy and model transfer effect.

TagPlus: A Retrieval System using Synonym Tag in Folksonomy (TagPlus: 폭소노미에서 동의어 태그를 이용한 검색 시스템)

  • Lee, Sun-Sook;Yong, Hwan-Seung
    • Journal of Digital Contents Society
    • /
    • v.8 no.3
    • /
    • pp.255-262
    • /
    • 2007
  • Collaborative tagging describes the process by which many users add metadata in the form of keywords to shared content. Recently, collaborative tagging has grown in popularity on the web, on sites that allow users to tag bookmarks, photographs, videos and other content. In this paper, we analyze the structure and basic knowledge of collaborative tagging systems as well as their dynamical aspects. We also present a retrieval system, TagPlus, using synonym tag that is derived from WordNet database. Specifically, TagPlus, a synonym tag based system has users retrieve images from Flickr system. The proposed system show the images tagged by not only the tag that users input but also the synonyms that are synonyms with the tag.

  • PDF

Cross-Platform Mobile System for Social Applications (소셜 응용을 위한 크로스-플랫폼 모바일 시스템)

  • Kim, Kwang-Sup;Kang, Sang-Gu;Kim, Nam-Yun;Hwang, Ki-Tae
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.11 no.1
    • /
    • pp.193-198
    • /
    • 2011
  • As smartphone use has been steadily growing over the past year, social networking on the mobile phones appears to be increasing. In this paper, we propose a cross-platform mobile architecture for supporting social applications. The key design objectives for developing the proposed system include: 1) providing personalized data through filtering information which is supplied by various social applications, 2) providing a cross-platform architecture for adapting various smartphones such as Apple iPhone and Google android. We verified system design by implementing a smartphone application which displays the filtered pictures from social network services such as Flickr and Picasa.

Evolution strategies of Digital Camera to cope with the progress of the Imaging Device and Web (이미징 디바이스 및 웹의 발전에 대응한 디지털 카메라의 진화전략에 관한 연구)

  • An, Ho-Seong;Byeon, Sang-Yeong;Kim, Jae-Beom
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2009.11a
    • /
    • pp.79-82
    • /
    • 2009
  • 본 연구는 인터넷의 진화 및 이미징 디바이스 전반의 발달에 따른 디지털 카메라의 진화 전략을 다룬 논문이다. 오늘날의 카메라 기술은 하루가 다르게 발전해 나가고 있다. 수동 필름 카메라에서부터 최첨단 하이브리드(hybrid) 카메라에 이르기 까지 카메라는 끊임없이 진화해 왔으며 사용자 계층 역시 다양해지고 있다. 디지털이 적용된 디지털 카메라의 경우, 웹의 발전과 더불어 활용도가 다양해 짐에 따라서 기존에는 전문가와 비전문가 계층으로 명확하게 나뉘던 사용자 계층도 그 경계가 모호해졌으며 사용자의 수 역시 비약적으로 증가하였다. 수많은 사업자들이 디지털 카메라 시장에 진출함에 따라, 높은 성장세가 지속되던 컴팩트 카메라 (compact camera)시장은 과포화기에 접어들어 성장성이 점차 감소하는 추세에 있으며, 전문가의 영역으로 여겨졌던 DSLR 시장 역시 선발업체의 높은 진입장벽과 이를 극복하기 위한 후발업체의 지속적인 도전으로 인해 경쟁은 치열하고 이익은 내기 어려운 레드 오션(red ocean)이 되었다. 이러한 상황 속에서 디지털 카메라가 활용될 수 있는 대표적 매체인 웹 역시 '웹 2.0' 이라는 용어가 생길 정도로 발전했다. 웹2.0시대가 본격화되어 서로 다른 사용자들이 자유롭게 컨텐츠를 공유하고 누구든지 쉽게 정보의 생산에 동참할 수 있게 됨으로써 기존의 웹에서 일어나지 않았던 다양한 변화들이 생겨나게 되었다. 본 연구에서는 변화의 특징들을 살펴보기 위해 웹 2.0 시대의 대표적인 컨텐츠 공유 커뮤니티로 자리매김한 야후(Yahoo)사(社) 플리커(Flickr)의 사례를 통해 디지털 카메라 사용자들의 디지털 카메라 사용패턴을 살펴보고 이를 통해 디지털 카메라의 진화를 설명하고자 한다. 인터넷이 발전하며 디지털 카메라와 관련 되어 나타난 대표적인 변화는 일반 소비자가 진화하는 점 이라고 볼 수 있다. 컨텐츠의 공유가 자유로운 웹 플랫폼의 등장, 카메라 기술이 결합된 소형 디지털 단말기의 발전 등으로 인해 비전문가 영역에 속해있던 일반 소비자 계층에 Flickr와 같은 웹 커뮤니티에서의 활동을 통해 준전문가 계층으로 진입하려는 욕구가 생기게 되었는데, 이렇게 형성된 욕구에 따라 디지털 카메라 시장 역시 새로운 수요를 만나게 되었다. 본 연구에서는 경쟁이 치열한 시장 상황 속에서 디지털 카메라의 향후 발전 방향을 알아보기 위해 우선 디지털 카메라 기능을 나누어 본 후, 이미징 디바이스 시장과 웹의 발전 형태에 대해 분석해보았다. 이어 본 연구에서는 분류된 디지털 카메라의 기능을 바탕으로 웹 2.0 시대에 시장을 주도할 수 있는 디지털 카메라의 변화방향에 대해서 알아보았다. 본 연구는 감성적 및 이성적 측면에서 디지털 카메라의 향후 전개방향을 살펴보았다는 점에서 이론적 실무적 함의를 가지는 논문이라고 사료된다.

  • PDF