• Title/Summary/Keyword: 직접 객체 인식

Search Result 59, Processing Time 0.031 seconds

Technical Trends of Projection-based Augmented Reality (프로젝션 기반 증강현실 기술동향)

  • Heo, G.S.;Lee, D.W.;Jeong, H.T.;Park, J.S.
    • Electronics and Telecommunications Trends
    • /
    • v.26 no.5
    • /
    • pp.92-101
    • /
    • 2011
  • 최근 3D 및 증강현실 기술이 발전함에 따라 사용자는 특수한 장비를 착용하지 않고서도 주변의 다양한 서비스 및 콘텐츠가 현실 세계와 결합되어 디스플레이 되며, 손의 감각과 인식에 따라 직접 상호작용하는 것을 요구한다. 이에 따라 기존 see-through HMD(Head Mounted Display)나 모니터 화면을 벗어나 실세계의 객체에 직접 증강된 현실을 보여주고 체험할 수 있는 프로젝션 기반 증강현실 기술의 중요성이 증대되고 있다. 본 고에서는 프로젝션 기반 증강현실을 구현하기 위한 출력보정, 추적 및 정합, 상호작용 및 사용자 인터페이스 기술에 대한 동향을 살펴본다. 더불어 산업, 의료, 교육 및 엔터테인먼트, 모바일 응용 등 각 분야에서 활용되고 있는 최근의 프로젝션 기반 증강현실 기술동향을 소개한다.

  • PDF

A Collaborative Video Annotation and Browsing System using Linked Data (링크드 데이터를 이용한 협업적 비디오 어노테이션 및 브라우징 시스템)

  • Lee, Yeon-Ho;Oh, Kyeong-Jin;Sean, Vi-Sal;Jo, Geun-Sik
    • Journal of Intelligence and Information Systems
    • /
    • v.17 no.3
    • /
    • pp.203-219
    • /
    • 2011
  • Previously common users just want to watch the video contents without any specific requirements or purposes. However, in today's life while watching video user attempts to know and discover more about things that appear on the video. Therefore, the requirements for finding multimedia or browsing information of objects that users want, are spreading with the increasing use of multimedia such as videos which are not only available on the internet-capable devices such as computers but also on smart TV and smart phone. In order to meet the users. requirements, labor-intensive annotation of objects in video contents is inevitable. For this reason, many researchers have actively studied about methods of annotating the object that appear on the video. In keyword-based annotation related information of the object that appeared on the video content is immediately added and annotation data including all related information about the object must be individually managed. Users will have to directly input all related information to the object. Consequently, when a user browses for information that related to the object, user can only find and get limited resources that solely exists in annotated data. Also, in order to place annotation for objects user's huge workload is required. To cope with reducing user's workload and to minimize the work involved in annotation, in existing object-based annotation automatic annotation is being attempted using computer vision techniques like object detection, recognition and tracking. By using such computer vision techniques a wide variety of objects that appears on the video content must be all detected and recognized. But until now it is still a problem facing some difficulties which have to deal with automated annotation. To overcome these difficulties, we propose a system which consists of two modules. The first module is the annotation module that enables many annotators to collaboratively annotate the objects in the video content in order to access the semantic data using Linked Data. Annotation data managed by annotation server is represented using ontology so that the information can easily be shared and extended. Since annotation data does not include all the relevant information of the object, existing objects in Linked Data and objects that appear in the video content simply connect with each other to get all the related information of the object. In other words, annotation data which contains only URI and metadata like position, time and size are stored on the annotation sever. So when user needs other related information about the object, all of that information is retrieved from Linked Data through its relevant URI. The second module enables viewers to browse interesting information about the object using annotation data which is collaboratively generated by many users while watching video. With this system, through simple user interaction the query is automatically generated and all the related information is retrieved from Linked Data and finally all the additional information of the object is offered to the user. With this study, in the future of Semantic Web environment our proposed system is expected to establish a better video content service environment by offering users relevant information about the objects that appear on the screen of any internet-capable devices such as PC, smart TV or smart phone.

Convenience Store Product Recognition Application for the Blind (시각장애인을 위한 편의점 제품 인식 애플리케이션)

  • Han, Sang Hyeok;Park, Da Soo;Lim, Chae Min;Jeong, Ji Woon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.1298-1301
    • /
    • 2021
  • 본 논문은 딥러닝 학습을 통한 객체(편의점제품) 인식 시스템을 소개한다. 편의점 내에서 시각장애인의 접근성인 매우 떨어지고 있다. 그나마 점자가 있는 제품은 음료수 제품이지만 제품 이름이 아닌 범주로 표현하고 있어 원하는 제품 구매를 어렵게 한다. 본 논문에서는 YOLOv5를 통한 딥러닝 학습을 사용하여 정확한 제품을 시각장애인에게 제공할 수 있는 애플리케이션을 개발했다. 사용한 학습데이터 세트는 제품을 직접 찍어 확보했으며, 국내 11개 제품을 포함한다. 학습데이터 세트는 총 23,814장을 사용했으며, 결과 정확도를 나타내는 mAP_0.5:0.95 는 약 0.9790의 성능을 보였다.

Deep-Learning-based Nailfold Capillary Recognition (딥러닝 기반 손톱 하부 모세혈관 인식)

  • Ko, Seoyeong;Jeong, Hieyong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.471-472
    • /
    • 2022
  • 손톱 하부 모세혈관(Nailfold Capillary)의 형태와 분포 특징으로부터 다양한 질병을 밝혀내려는 시도가 꾸준히 있어 왔다. 손톱 하부 모세혈관은 그의 대표적인 형태 특징을 따라 몇 가지로 분류할 수 있고, 이 분포와 질병과의 상관관계가 밝혀진 종래 연구들도 다수 존재한다. 현재는 진단하는 과정을 의료 전문가가 직접 촬영된 모세혈관 사진을 보고 주관적인 평가를 하게 되는데, 이러한 분석 방법은 많은 시간과 휴먼 에러가 발생한다는 문제점이 있다. 이를 자동화하기 위하여 본 논문은 손톱 하부 모세혈관의 모세혈관들을 YOLO 객체 인식 모델을 활용하여 모세혈관을 탐지하고 모세혈관의 종류에 따라 분류하는 방법을 제안하고, 그 유효성을 검증하였다.

Gait Recognition Using Shape Sequence Descriptor (Shape Sequence 기술자를 이용한 게이트 인식)

  • Jeong, Seung-Do
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.12 no.5
    • /
    • pp.2339-2345
    • /
    • 2011
  • Gait recognition is the method to identify the person who walks in front of camera using characteristics of individuals by a sequence of images of walking people. The accuracy of biometric such as fingerprint or iris is very high; however, to provide information needs downsides which allow users to direct contact or close-up, etc. There have been many studies in gait recognition because it could capture images and analysis characteristics far from a person. In order to recognize the gait of person needs a continuous sequence of walking which can be distinguished from the individuals should be extracted features rather than an single image. Therefore, this paper proposes a method of gait recognition that the motion of objects in sequence is described the characteristics of a shape sequence descriptor, and through a variety of experiments can show possibility as a recognition technique.

Gesture Environment for Pen-based PDA System (펜 기반 PDA 시스템을 위한 제스쳐(gesture)환경)

  • 박재필;조환규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.451-453
    • /
    • 2001
  • 제스쳐(gesture)는 마우스 또는 스타일러스의 난일 표시(single mark)를 이용하여 객체들과 기능들을 식별하는 문서 편집 도구의 강력한 방법들 주 하나이다. 마우스를 위한 제스쳐는 주로 데스크 팁 기반의 환경을 위해 개발되어지고 스타일러스를 위한 제스쳐는 보통 휴대용 컴퓨터를 위해 개발되어진다[2]. 현대는 PDA(Personal Digital Assistant)시스템의 스타일러스를 위한 제스쳐 개발이 활발하게 이루어지고 있다.[3]. 하지만 PDA 시스템에서는 인식에 의한 문자 입력의 보조 도구 정도의 수준에서 제스쳐가 사용되어진다. 본 논문에서는 PDA 시스템에서 사용되는 키보드의 키 역할을 하는 기존의 제스쳐와는 달리 사용자 입력과 제스쳐에 차별을 두지 않고 한 화면에서 직접적이 제스쳐가 가능한 환경을 개발하고 다양한 제스쳐 인식 방법을 제안한다. PDA 시스템에서의 제약을 최소화하기 위해 펜 기반의 입력에서 각 스트록을 간략화시켜 정보를 최소호 한 뒤 각 스트록을 양방향 연결 리스트를 이용해 연결하였다. 제스쳐(gesture)는 삽입, 삭제의 기본적인 것들을 비롯하여 이동, 복사, 붙임과 같은 제스쳐도 포함되어 있다. 제스쳐(gesture)의 인식은 각 스트록의 바운딩 박스와 점들의 위치 정보, 스트록 생성 순서에 기반하여 이루어지기 때문에, 이로 인해 펜 기반의문서 에디터 사용에서 요구되는 다른 제약 없이 오로지 펜만으로 모두 편집 환경을 구현할 수 있다.

  • PDF

Relationship classification model through CNN-based model learning: AI-based Self-photo Studio Pose Recommendation Frameworks (CNN 기반의 모델 학습을 통한 관계 분류 모델 : AI 기반의 셀프사진관 포즈 추천 프레임워크)

  • Kang-Min Baek;Yeon-Jee Han
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.951-952
    • /
    • 2023
  • 소위 '인생네컷'이라 불리는 셀프사진관은 MZ 세대의 새로운 놀이 문화로 떠오르며 사용자 수가 나날이 증가하고 있다. 그러나 짧은 시간 내에 다양한 포즈를 취해야 하는 셀프사진관 특성상 촬영이 낯선 사람에게는 여전히 진입장벽이 존재한다. 더불어 매번 비슷한 포즈와 사진 결과물에 기존 사용자는 점차 흥미를 잃어가는 문제점도 발생하고 있다. 이에 본 연구에서는 셀프사진관 사용자의 관계를 분류하는 모델을 개발하여 관계에 따른 적합하고 다양한 포즈를 추천하는 프레임워크를 제안한다. 사용자의 관계를 'couple', 'family', 'female_friend', 'female_solo', 'male_friend', 'male_solo' 총 6 개로 구분하였고 실제 현장과 유사하도록 단색 배경의 이미지를 우선으로 학습 데이터를 수집하여 모델의 성능을 높였다. 모델 학습 단계에서는 모델의 성능을 높이기 위해 여러 CNN 기반의 모델을 전이학습하여 각각의 정확도를 비교하였다. 결과적으로 195 장의 test_set 에서 accuracy 0.91 의 성능 평가를 얻었다. 본 연구는 객체 인식보다 객체 간의 관계를 학습시켜 관계성을 추론하고자 하는 것을 목적으로, 연구 결과가 희박한 관계 분류에 대한 주제를 직접 연구하여 추후의 방향성이나 방법론과 같은 초석을 제안할 수 있다. 또한 관계 분류 모델을 CCTV 에 활용하여 미아 방지 혹은 추적과 구조 등에 활용하여 국가 치안을 한층 높이는 데 기대할 수 있다.

Development of Hand-drawn Clothing Matching System Based on Neural Network Learning (신경망 모델을 이용한 손그림 의류 매칭 시스템 개발)

  • Lim, Ho-Kyun;Moon, Mi-Kyeong
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.16 no.6
    • /
    • pp.1231-1238
    • /
    • 2021
  • Recently, large online shopping malls are providing image search services as well as text or category searches. However, in the case of an image search service, there is a problem in that the search service cannot be used in the absence of an image. This paper describes the development of a system that allows users to find the clothes they want through hand-drawn images of the style of clothes when they search for clothes in an online clothing shopping mall. The hand-drawing data drawn by the user increases the accuracy of matching through neural network learning, and enables matching of clothes using various object detection algorithms. This is expected to increase customer satisfaction with online shopping by allowing users to quickly search for clothing they are looking for.

Development of Motion based Training Contents: "3D Space Exploration" Case Study (동작 기반의 훈련콘텐츠 : "3D 우주탐험" 개발사례)

  • Lim, C.J.;Park, Seung Goo;Jeong, Yun Guen
    • Journal of Korea Game Society
    • /
    • v.13 no.5
    • /
    • pp.63-72
    • /
    • 2013
  • To enhance the effect of science educational contents, we developed a motion based training content: 3D space exploration. In this content, we used the 3D depth camera for user's motion recognition. Learners have to conduct the space station maintenance mission using the motion based natural and intuitive interface. The result this study is expected to propose the immersive training simulation for young science learners.

A Study on Trademark Vienna Classification Automation Using Faster R-CNN and DenseNet (Faster R-CNN과 DenseNet을 이용한 도형 상표 비엔나 분류 자동화 연구)

  • Lee, Jin-woo;Kim, Hong-ki;Lee, Ha-young;Ko, Bong-soo;Lee, Bong-gun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.848-851
    • /
    • 2019
  • 이미지 형식으로 등록되는 상표의 특성상 상표의 검색에는 어려움이 따른다. 특허청은 도형 상표의 검색을 용이하게 하기 위해 상표가 포함하고 있는 구성요소에 도형분류코드를 부여한다. 하지만 도형 상표에 포함된 이미지를 확인하고 분류코드를 부여하는 과정은 사람이 직접 수행해야 한다는 어려움이 따른다. 이에 본 논문에서는 딥러닝을 이용하여 자동으로 도형 상표 내 객체를 인식하고 분류코드를 부여하는 방안을 제안한다. DenseNet을 이용하여 중분류를 먼저 예측한 후 각 중분류에 해당하는 Faster R-CNN 모델을 이용하여 세분류 예측을 수행하였다. 성능평가를 통해 비엔나분류 중분류별 평균 74.49%의 예측 정확도를 확인하였다.