• 제목/요약/키워드: Mobile Annotation

검색결과 36건 처리시간 0.023초

모바일 환경에서 의미 기반 이미지 어노테이션 및 검색 (Semantic Image Annotation and Retrieval in Mobile Environments)

  • 노현덕;서광원;임동혁
    • 한국멀티미디어학회논문지
    • /
    • 제19권8호
    • /
    • pp.1498-1504
    • /
    • 2016
  • The progress of mobile computing technology is bringing a large amount of multimedia contents such as image. Thus, we need an image retrieval system which searches semantically relevant image. In this paper, we propose a semantic image annotation and retrieval in mobile environments. Previous mobile-based annotation approaches cannot fully express the semantics of image due to the limitation of current form (i.e., keyword tagging). Our approach allows mobile devices to annotate the image automatically using the context-aware information such as temporal and spatial data. In addition, since we annotate the image using RDF(Resource Description Framework) model, we are able to query SPARQL for semantic image retrieval. Our system implemented in android environment shows that it can more fully represent the semantics of image and retrieve the images semantically comparing with other image annotation systems.

모바일 환경에서 사용자 정의 규칙과 추론을 이용한 의미 기반 이미지 어노테이션의 확장 (Extending Semantic Image Annotation using User- Defined Rules and Inference in Mobile Environments)

  • 서광원;임동혁
    • 한국멀티미디어학회논문지
    • /
    • 제21권2호
    • /
    • pp.158-165
    • /
    • 2018
  • Since a large amount of multimedia image has dramatically increased, it is important to search semantically relevant image. Thus, several semantic image annotation methods using RDF(Resource Description Framework) model in mobile environment are introduced. Earlier studies on annotating image semantically focused on both the image tag and the context-aware information such as temporal and spatial data. However, in order to fully express their semantics of image, we need more annotations which are described in RDF model. In this paper, we propose an annotation method inferencing with RDFS entailment rules and user defined rules. Our approach implemented in Moment system shows that it can more fully represent the semantics of image with more annotation triples.

워키태깅 : 스마트폰 환경에서 음성기반의 효과적인 영상 콘텐츠 어노테이션 방법에 관한 연구 (WalkieTagging : Efficient Speech-Based Video Annotation Method for Smart Devices)

  • 박준영;이수빈;강동엽;석영태
    • 한국IT서비스학회지
    • /
    • 제12권1호
    • /
    • pp.271-287
    • /
    • 2013
  • The rapid growth and dissemination of touch-based mobile devices such as smart phones and tablet PCs, gives numerous benefits to people using a variety of multimedia contents. Due to its portability, it enables users to watch a soccer game, search video from YouTube, and sometimes tag on contents on the road. However, the limited screen size of mobile devices and touch-based character input methods based on this, are still major problems of searching and tagging multimedia contents. In this paper, we propose WalkieTagging, which provides a much more intuitive way than that of previous one. Just like any other previous video tagging services, WalkieTagging, as a voice-based annotation service, supports inserting detailed annotation data including start time, duration, tags, with little effort of users. To evaluate our methods, we developed the Android-based WalkieTagging application and performed user study via a two-week. Through our experiments by a total of 46 people, we observed that experiment participator think our system is more convenient and useful than that of touch-based one. Consequently, we found out that voice-based annotation methods can provide users with much convenience and satisfaction than that of touch-based methods in the mobile environments.

비주얼 의류 검색기술을 위한 의류 속성 기반 Annotation 기법 개발 (Annotation Technique Development based on Apparel Attributes for Visual Apparel Search Technology)

  • 이은경;김양원;김선숙
    • 한국의류산업학회지
    • /
    • 제17권5호
    • /
    • pp.731-740
    • /
    • 2015
  • Mobile (smartphone) search engine marketing is increasingly important. Accordingly, the development of visual apparel search technology to obtain easier and faster access to visual information in the apparel field is urgently needed. This study helps establish a proper classifying system for an apparel search after an analysis of search techniques for apparel search applications and existing domestic and overseas apparel sites. An annotation technique is developed in accordance with visual attributes and apparel categories based on collected data obtained by web crawling and apparel images collecting. The categorical composition of apparel is divided into wearing, image and style. The web evaluation site traces the correlations of the apparel category and apparel factors as dependent upon visual attributes. An appraisal team of 10 individuals evaluated 2860 pieces of merchandise images. Data analysis consisted of correlations between apparel, sleeve length and apparel category (based on an average analysis), and correlation between fastener and apparel category (based on an average analysis). The study results can be considered as an epoch-making mobile apparel search system that can contribute to enhancing consumer convenience since it enables an effective search of type, price, distributor, and apparel image by a mobile photographing of the wearing state.

독서장애인용 디지털음성도서를 위한 음성 어노테이션 기법 (A Voice-Annotation Technique in Mobile E-book for Reading-disabled People)

  • 이경희;이종우;임순범
    • 디지털콘텐츠학회 논문지
    • /
    • 제12권3호
    • /
    • pp.329-337
    • /
    • 2011
  • 디지털 음성 도서는 독서장애인의 독서 환경 개선을 위해 개발되었다. 그러나 기존 디지털 음성 도서에서의 어노테이션 기능(도서에 노트나 하이라이트 등의 주석을 표기하는 행위)은 시력을 필요로 하는 화면 인터페이스를 통해서만 가능했기 때문에 독서장애인들에게는 무용지물이었던 것이 사실이다. 이에 본 논문에서는 듣는 능력과 음성만으로도 노트나 하이라이트 달기 같은 어노테이션 기능을 가능하게 해주는 음성 어노테이션 기법을 제안한다. 디지털음성도서 재생 중 입력된 음성 어노테이션이 어느 문장에 해당하는 것인지를 결정하는 기법을 설계하였으며, 이의 효용성을 검증하기 위해 안드로이드 환경에서 구현하였다. 눈가리개를 착용한 복수의 실험자들을 대상으로 실험한 결과 실험자들이 의도했던 위치에 정확히 어노테이션이 삽입된다는 것을 확인하였다.

Augmented Reality Annotation for Real-Time Collaboration System

  • Cao, Dongxing;Kim, Sangwook
    • 한국멀티미디어학회논문지
    • /
    • 제23권3호
    • /
    • pp.483-489
    • /
    • 2020
  • Advancements in mobile phone hardware and network connectivity made communication becoming more and more convenient. Compared to pictures or texts, people prefer to share videos to convey information. For intentions clearer, the way to annotating comments directly on the video are quite important issues. Recently there have been many attempts to make annotations on video. These previous works have many limitations that do not support user-defined handwritten annotations or annotating on local video. In this sense, we propose an augmented reality based real-time video annotation system which allowed users to make any annotations directly on the video freely. The contribution of this work is the development of a real-time video annotation system based on recent augmented reality platforms that not only enables annotating drawing geometry shape on video in real-time but also drastically reduces the production costs. For practical use, we proposed a real-time collaboration system based on the proposed annotation method. Experimental results show that the proposed annotation method meets the requirements of real-time, accuracy and robustness of the collaboration system.

독서장애인을 위한 음성 도서 어노테이션 검색 기법 (A Voice Annotation Browsing Technique in Digital Talking Book for Reading-disabled People)

  • 박주현;임순범;이종우
    • 한국멀티미디어학회논문지
    • /
    • 제16권4호
    • /
    • pp.510-519
    • /
    • 2013
  • 본 연구에서는 독서장애인을 위한 모바일 전자책에 저장된 어노테이션을 탐색하고 그 결과를 재생하는 기법을 제안하고, 이를 음성 어노테이션 브라우징 시스템이라 칭하였다. 제안된 음성 어노테이션 브라우징 시스템은 명령 입력, 중요도 분석 및 추천, 검색, 출력 단계로 구성된다. 특히 본 논문에서는 대상 사용자가 청각 의존도가 높은 독서장애인들이기 때문에 완전히 청각에 의존해서 사용할 수 있도록 모든 단계에서 음성인식 인터페이스를 제공한다. 제안된 음성 어노테이션 브라우징 시스템의 효율성을 검증하기 위해 모바일 안드로이드 환경에서 실행되는 전자책 소프트웨어와 음성 어노테이션 브라우징 시스템을 설계하고 구현하였다. 구현된 시스템은 전맹인으로 구성된 다수의 사용자들로 하여금 검증하도록 하였으며, 그 결과 이들이 원하는 어노테이션을 찾는 과정이 성공적으로 이루어 질 수 있음을 확인 하였다.

CC/PP와 어노테이션을 이용한 웹 문서의 트랜스코딩 (Transcoding Web Documents Using CC/PP and Annotation)

  • 김회모;송특섭;최윤철;이경호
    • 한국멀티미디어학회논문지
    • /
    • 제8권2호
    • /
    • pp.137-153
    • /
    • 2005
  • 본 논문에서는 웹 문서를 다양한 종류의 디바이스에 적합하도록 동적으로 변환하는 트랜스코딩 방법을 제안한다 이를 위하여 디바이스의 컨텍스트 정보를 표현하기 위한 웹 표준인 CC/PP 프로파일을 지원한다. 또한 보다 정교한 수준의 맞춤형 서비스를 지원하기 위하여 원본 컨텐츠에 대한 부가적인 정보를 기술할 수 있는 어노테이션을 정의한다. 한편 제한된 크기의 화면을 가진 모바일 디바이스를 위해서 웹 페이지는 다수의 작은 페이지로 분할된다. 제안된 방법은 분할된 다수의 페이지에 대한 계층적 정보인 네비게이션 맵 을 동적으로 생 성 한다. 다양한 웹 컨텐츠를 대상으로 실험 한 결과, 제 안된 방법은 네비게이션의 편의성과 트랜스코딩 성능의 두 가지 측면에서 우수하였다.

  • PDF

모바일 환경에서 추론을 이용한 의미 기반 이미지 어노테이션 시스템 설계 및 구현 (Semantic Image Annotation using Inference in Mobile Environments)

  • 서광원;임동혁
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.999-1000
    • /
    • 2017
  • 본 논문에서는 이전의 의미 기반 이미지 어노테이션 및 검색 시스템 Moment(Mobile Semantic Image Annotation and Retrieval System)에 RDF(Resource Description Framework) 추론 기능을 사용한 어노테이션 방법을 제안한다. 이를 위하여 제안된 시스템은 Apache Jena Inference API를 통해 구현되였으며 각 이미지들이 가진 어노테이션의 개수가 증가되었다. 자동으로 추론된 결과 또한 SPARQL 질의를 통해 검색이 가능하며, 기존 어노테이션 결과에 대한 의미 검색을 더욱 효과적으로 할 수 있게 한다.

모바일 단말기에서 사용자의 의미기반 검색을 위한 인터페이스 설계 (The Design Interface for Retrieval Meaning Base of User Mobile Unit)

  • 조현섭;오훈
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 제38회 하계학술대회
    • /
    • pp.1665-1667
    • /
    • 2007
  • Recently, retrieval of various video data has become an important issue as more and more multimedia content services are being provided. To effectively deal with video data, a semantic-based retrieval scheme that allows for processing diverse user queries and saving them on the database is required. In this regard, this paper proposes a semantic-based video retrieval system that allows the user to search diverse meanings of video data for electrical safetyrelated educational purposes by means of automatic annotation processing. If the user inputs a keyword to search video data for electrical safety-related educational purposes, the mobile agent of the proposed system extracts the features of the video data that are afterwards learned in a continuous manner, and detailed information on electrical safety education is saved on the database. The proposed system is designed to enhance video data retrieval efficiency for electrical safety-related educational purposes.

  • PDF