• Title/Summary/Keyword: 증강 현실 응용

Search Result 175, Processing Time 0.03 seconds

Projection-based Mesh Generation for 3D Panoramic Virtual Environment Creation (3D 파노라믹 가상 환경 생성을 위한 투영기반 메쉬 모델 생성 기법)

  • Lee, Won-Woo;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.493-498
    • /
    • 2006
  • 본 논문에서는 3D 파노라믹 가상 환경 생성을 위한 투영기반 메쉬 모델 생성 기법을 제안한다. 제안된 메쉬 모델 생성 기법은 멀티뷰 카메라를 이용해 다수의 시점에서 얻은 실내 환경의 3D 데이터로부터 메쉬 모델을 생성한다. 먼저 미리 보정된 카메라 파라미터를 이용해 입력된 임의의 3D점 데이터를 여러 개의 하위 점군으로 분할한다. 적응적 샘플링을 통해 각 하위 점군으로부터 중복되는 점 데이터를 없애고 새로운 점군을 생성한다. 각각의 하위 점군을 Delaunay삼각화 방법을 통해 메쉬 모델링하고, 인접한 하위 점군의 메쉬들을 통합하여 하나의 메쉬 모델을 생성한다. 제안된 메쉬 모델링 방법은 점군의 분할을 통해 각 부분의 메쉬 모델을 독립적으로 생성하므로 실내 환경과 같은 넓은 영역의 모델링에 알맞다. 또한, 적응적 샘플링을 통해 3D 데이터가 갖는 깊이 정보의 특징을 보존하면서 메쉬 데이터의 크기를 줄인다. 생성된 가상 환경 모델은 가상/증강현실 응용 어플리케이션 등에 적용이 가능하다.

  • PDF

Development of Smart Toy Application Using Autometically Separated Blocks (자동분리 블록을 이용한 스마트 토이 응용의 구현)

  • Cho, Dae-Soo;Kim, Won-Chan;Lee, Ki-Yoek;Son, Won-Sock;Kim, Chang-Min
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2013.07a
    • /
    • pp.389-390
    • /
    • 2013
  • 본 논문에서는 블록 놀이의 질적 향상을 위한다. 일반 블록 완구의 해결하지 못한 문제점인 조립과 완성으로 즐거움이 끝나고 분리시의 지루함을 해결하기위한 블록 자동분리 시스템에 관한 것으로, 좀 더 구체적으로는 블록을 이용하여 물체를 완성시키는 것에서 더 나아가 자동분리 블록의 외부에 부착된 마커를 스마트 폰을 이용하여 인식하고, 인식된 마커에 해당하는 영상을 스마트 폰을 통해 보며 미션을 수행하여 흥미를 유발시키고, 미션 완료 후 블록을 자동 분리 시키기 위한 블록 자동분리 시스템에 관한 것이다. 특히, 블록에 분리장치를 구성함으로써 스마트 폰과의 통신에 의해 분리장치가 동작하여 블록을 자동으로 분리 가능하도록 하여 물체를 완성 후 분리 시에 느끼는 지루함을 최소화하고, 흥미를 극대화시킬 수 있도록 한다.

  • PDF

Game contents development base on AR-Table system (AR-Table 시스템 기반의 게임 콘텐츠 개발)

  • Kim, Byung-Chul;Lee, Hye-Sun;Kim, Jin-Gook;Lee, Jong-Weon
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.541-547
    • /
    • 2007
  • 게임 문화는 오프라인에서 온라인으로 중심축이 급격하게 바뀌었다. 급격한 변화는 온라인 게임의 발전 불렀지만 게임 문화의 획일화를 불러 오프라인 게임 문화를 잠식하였다. 그러나 보드게임 활발한 보급은 사람들에게 과거의 추억과 사람사이의 유대감을 다시금 불러일으켰다. 그러나 지식의 부족으로 한정된 보드게임만 즐기게 되고 또한 구매하여 즐기기에는 경제적 부담이 컸기 때문에 인기가 많이 하락하고 있다. 본 논문은 이 문제를 해결하고 오프라인 게임의 장점을 살리기 위해 우리가 개발한 AR-Table System을 제안했다. 이 시스템은 오프라인 게임과 온라인 게임의 장점을 융합하고 단점을 보완하고 증강현실을 사용하여 새로운 게임 개발 환경을 제공한다. 이 시스템은 Main Table System과 Personal Display Device로 구성되어 있고, 물리적 마커를 응용한 디지털 마커를 개발하였다. 이 시스템을 설명하기 위해 보드게임 Geister를 AR Geister로 개발하였다.

  • PDF

Trends and Perspectives of the Next-Generation Navigation Technology (차세대 내비게이션 기술 현황 및 전망)

  • Cho, S.I.;Kim, K.H.;Joo, I.H.;Park, J.H.;Chae, G.J.;Lee, S.Y.
    • Electronics and Telecommunications Trends
    • /
    • v.22 no.3 s.105
    • /
    • pp.12-19
    • /
    • 2007
  • 현재 위치에서 목적지까지의 거리와 교통상황을 고려하여 최적의 경로를 안내하는 도로 및 교통 정보 제공 시스템인 차량용 내비게이션 시스템은 텔레매틱스의 가장 중요한 응용 분야이며 디지털 컨버전스의 핵심으로 부각되고 있다. 내비게이션 기술은 크게 2차원 또는 3차원 그래픽 기반 기술과 위성 영상이나 비디오 또는 실시간 영상에 기반을 둔 영상 기반 내비게이션 기술로 구분할 수 있으며, 최근에는 운전자의 시야에 보이는 실제의 도로의 모습을 카메라를 통해 실시간으로 취득한 후 경로 안내 정보를 부가하여 보여줄 수 있도록 하는 증강현실 기반의 실감 내비게이션이 차세대 기술로 연구되고 있다. 본 고에서는 이러한 실감 내비게이션 기술을 중심으로 국내외 기술개발현황과 한국전자통신연구원에서의 기술 개발 사례에 대하여 자세히 살펴보고 향후의발전 방향에 대해 전망해 본다.

RGB-D Image Feature Point Extraction and Description Method for 3D Object Recognition (3차원 객체 인식을 위한 RGB-D 영상 특징점 추출 및 특징 기술자 생성 방법)

  • Park, Noh-Young;Jang, Young-Kyoon;Woo, Woon-Tack
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.448-450
    • /
    • 2012
  • 본 논문에서는 Kinect 방식의 RGB-D 영상센서를 사용하여, 깊이(Depth) 영상으로부터 3차원 객체의 기하정보를 표현하는 표면 정규 벡터(Surface Normal Vector)를 추출하고, 그 결과를 영상화하는 방법을 제안하며, 제안된 방법으로 생성된 영상으로부터 깊이 영상의 특징점 및 특징 기술자를 추출하여 3차원 객체 인식 성능을 향상시키는 방법을 제안한다. 또한 생성된 RGB-D 특징 기술자들을 객체 단위로 구분 가능한 코드북(CodeBook) 학습을 통한 인식방법을 제안하여 객체의 인식 성능을 높이는 방법을 제안한다. 제안하는 RGB-D 기반의 특징 추출 및 학습 방법은 텍스쳐 유무, 카메라 회전 및 이동 변화 등의 환경변화에 강건함을 실험적으로 증명하였으며, 이 방법은 Kinect 방식의 RGB-D 영상을 사용하는 3차원 객체/공간 인식 및 추적, 혹은 이를 응용하는 증강현실 시스템에 적용하여 사용될 수 있다.

An Implementation of a Character Recognition System using JNI on Android Platform (JNI를 이용한 안드로이드 플랫폼기반 문자 인식 시스템 구현)

  • Lee, Woo Young;Ahn, Gee Taek;Kim, Cheong Ghil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.1471-1473
    • /
    • 2010
  • 스마트 폰의 급속한 보급 확산에 따라 스마트 폰의 각종 센서를 이용한 응용 영역이 넓어지고 있다. 그 가운데 스마트 폰의 카메라를 이용한 인식 기술은 비전 기반 증강현실 시스템 구현의 핵심적인 부분으로 그 중요성이 부각되고 있다. 본 논문에서는 스마트 폰의 카메라를 사용하여 JNI 기술을 이용한 안드로이드 기반의 인쇄매체의 문자 검출 및 인식 시스템을 설계 구현하였다. 전체 시스템은 영상의 전처리 과정을 통한 문자 영역의 검출과 인식 알고리즘 연산 후 기본 데이터와의 비교를 통한 문자인식 과정으로 구성되어 있다. 본 구성은 PC기반의 일반적 문자 인식과 동일하다. 구현결과는 1GHz의 CPU를 가지는 스마트 폰의 제한된 하드웨어 자원에서도 플랫폼 최적화를 통한 실시간 인식의 가능성을 보여주었다.

Outlier Removal to Improve Accuracy for Markerless Tracking (무마커 추적의 정확도 향상을 위한 이상점 제거)

  • Bae, Byeong-Jo;Jeon, Young-Jun;Park, Jong-Seung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.399-400
    • /
    • 2009
  • 무마커 기반 증강현실 응용에서 빠르고 정확한 무마커 추적이 수행되어야 한다. 무마커 추적은 등록된 패턴의 특징점들과 입력 영상에서의 특징점들의 매칭을 통하여 수행된다. 매칭에서 이상점은 시차를 크게 유발시키는 요인이 되므로 정확도 향상을 위해서는 이상점을 제거해야 한다. 본 논문에서는 무마커 추적의 정확도 향상을 위한 이상점 제거 방식을 제안한다. 무마커 추적에서 사용되는 SURF 알고리즘을 사용하여 실영상을 캡처하여 실험하였고 정확도 및 실행시간을 비교하였다.

Unseen Object Pose Estimation using a Monocular Depth Estimator (단안 카메라 깊이 추정기를 이용한 미지 물체의 자세 추정)

  • Song, Sung-Ho;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.637-640
    • /
    • 2022
  • 3차원 물체의 탐지와 자세 추정은 실내외 환경에서 장면 이해, 로봇의 물체 조작 작업, 자율 주행, 증강 현실 등과 같은 다양한 응용 분야들에서 공통적으로 요구되는 매우 중요한 시각 인식 기술이다. 깊이 지도를 요구하는 기존 연구들과는 달리, 본 논문에서는 RGB 컬러 영상만을 이용해 미지의 물체들, 즉 3차원 CAD 모델을 가지고 있지 않은 새로운 물체들을 탐지해내고, 이들의 자세를 추정해낼 수 있는 새로운 신경망 모델을 제안한다. 제안 모델에서는 최근 빠른 속도로 발전하고 있는 깊이 추정 기술을 이용함으로써, 깊이 측정 센서 없이도 물체 자세 추정에 필요한 깊이 지도를 컬러 영상에서 구해낼 수 있다. 본 논문에서는 벤치마크 데이터 집합을 이용한 실험을 통해, 제안 모델의 유용성을 평가한다.

Analysis of Computer Vision Application for CGRA Mapping : SIFT (재구성형 프로세서 맵핑을 위한 컴퓨터 비전 응용 분석 : SIFT)

  • Heo, Ingoo;Kim, Yongjoo;Lee, Jinyong;Cho, Yeongpil;Paek, Yunheung;Ko, Kwangman
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.5-8
    • /
    • 2011
  • 최근 영상이나 이미지로부터 사용자가 원하는 정보를 추출해 내고 재구성 하는 영상 인식, 증강 현실 등의 컴퓨터 비전(Computer Vision) 응용들이 각광을 받고 있다. 이러한 컴퓨터 비전 응용들은 그 동안 많은 알고리즘들의 연구를 통해 꾸준히 개선되고 향상되어 왔으나, 많은 계산량을 요구하기 때문에 임베디드 시스템에서는 널리 쓰이기 힘들었다. 하지만 최근 들어, 스마트폰 등의 모바일 기기에서의 계산 처리 능력이 향상 되고, 소비자 수요가 증가하면서, 이러한 컴퓨터 비전 응용은 점점 모바일 기기에서 널리 쓰이게 되고 있다. 하지만, 여전히 이러한 컴퓨터 응용을 수행하기 위한 계산양은 부족하기 때문에, 충분한 연산량을 제공하기 위한 방법론들이 다양하게 제시되고 있다. 본 논문에서는 이러한 컴퓨터 응용을 위한 프로세서 구조로서 재구성형 프로세서(Reconfigurable Architecture)를 제안한다. 컴퓨터 비전 응용 중 사물 인식 분야에서 널리 쓰이는 SIFT(Scale Invariant Feature Transformation)을 분석하고 이를 재구성형 프로세서에 맵핑하여 성능 향상을 꾀하였다. SIFT의 주요 커널들을 재구성형 프로세서 맵핑한 결과 최소 6.5배에서 최대 9.2배의 성능 향상을 이룰 수 있었다.

Fingertip Detection through Atrous Convolution and Grad-CAM (Atrous Convolution과 Grad-CAM을 통한 손 끝 탐지)

  • Noh, Dae-Cheol;Kim, Tae-Young
    • Journal of the Korea Computer Graphics Society
    • /
    • v.25 no.5
    • /
    • pp.11-20
    • /
    • 2019
  • With the development of deep learning technology, research is being actively carried out on user-friendly interfaces that are suitable for use in virtual reality or augmented reality applications. To support the interface using the user's hands, this paper proposes a deep learning-based fingertip detection method to enable the tracking of fingertip coordinates to select virtual objects, or to write or draw in the air. After cutting the approximate part of the corresponding fingertip object from the input image with the Grad-CAM, and perform the convolution neural network with Atrous Convolution for the cut image to detect fingertip location. This method is simpler and easier to implement than existing object detection algorithms without requiring a pre-processing for annotating objects. To verify this method we implemented an air writing application and showed that the recognition rate of 81% and the speed of 76 ms were able to write smoothly without delay in the air, making it possible to utilize the application in real time.