• Title/Summary/Keyword: 3D 가상모델

Search Result 432, Processing Time 0.039 seconds

Projection-based Mesh Generation for 3D Panoramic Virtual Environment Creation (3D 파노라믹 가상 환경 생성을 위한 투영기반 메쉬 모델 생성 기법)

  • Lee, Won-Woo;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.493-498
    • /
    • 2006
  • 본 논문에서는 3D 파노라믹 가상 환경 생성을 위한 투영기반 메쉬 모델 생성 기법을 제안한다. 제안된 메쉬 모델 생성 기법은 멀티뷰 카메라를 이용해 다수의 시점에서 얻은 실내 환경의 3D 데이터로부터 메쉬 모델을 생성한다. 먼저 미리 보정된 카메라 파라미터를 이용해 입력된 임의의 3D점 데이터를 여러 개의 하위 점군으로 분할한다. 적응적 샘플링을 통해 각 하위 점군으로부터 중복되는 점 데이터를 없애고 새로운 점군을 생성한다. 각각의 하위 점군을 Delaunay삼각화 방법을 통해 메쉬 모델링하고, 인접한 하위 점군의 메쉬들을 통합하여 하나의 메쉬 모델을 생성한다. 제안된 메쉬 모델링 방법은 점군의 분할을 통해 각 부분의 메쉬 모델을 독립적으로 생성하므로 실내 환경과 같은 넓은 영역의 모델링에 알맞다. 또한, 적응적 샘플링을 통해 3D 데이터가 갖는 깊이 정보의 특징을 보존하면서 메쉬 데이터의 크기를 줄인다. 생성된 가상 환경 모델은 가상/증강현실 응용 어플리케이션 등에 적용이 가능하다.

  • PDF

Extensible Interactions in X3D (X3D 가상 환경에서의 확장 가능한 상호작용)

  • 이동훈;권기준;정순기
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.349-351
    • /
    • 2003
  • X3D는 XML 기반의 VRML(Virtual Reality Modeling Language) 차세대 언어로서 인터넷을 통해 동적이고 상호작용 가능한 실시간 가상 환경을 제공해 준다. 본 논문에서는 X3D기반 가상 환경이 제공하는 상호작용을 변경 또는 확장 가능한 새로운 인터페이스 모델을 제시한다. 본 논문에서 제시하는 모델은 X3D 가상 환경에서 사용자 재정의를 통한 상호작용, 새로운 멀티 모달 인터페이스로의 확장, 그리고 상황 인지 가상환경을 위한 상호작용 모델로서 사용될 수 있다.

  • PDF

3D Reconstruction of a Single Clothing Image and Its Application to Image-based Virtual Try-On (의상 이미지의 3차원 의상 복원 방법과 가상착용 응용)

  • Ahn, Heejune;Minar, Matiur Rahman
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.25 no.5
    • /
    • pp.1-11
    • /
    • 2020
  • Image-based virtual try-on (VTON) is becoming popular for online apparel shopping, mainly because of not requiring 3D information for try-on clothes and target humans. However, existing 2D algorithms, even when utilizing advanced non-rigid deformation algorithms, cannot handle large spatial transformations for complex target human poses. In this study, we propose a 3D clothing reconstruction method using a 3D human body model. The resulting 3D models of try-on clothes can be more easily deformed when applied to rest posed standard human models. Then, the poses and shapes of 3D clothing models can be transferred to the target human models estimated from 2D images. Finally, the deformed clothing models can be rendered and blended with target human representations. Experimental results with the VITON dataset used in the previous works show that the shapes of reconstructed clothing are significantly more natural, compared to the 2D image-based deformation results when human poses and shapes are estimated accurately.

SLM using GIS data formats for 3D virtual model of research (SLM 포맷을 이용한 GIS 데이터의 3D 가상모델에 대한 연구)

  • Han, Jeong-Ah;Seo, Laiwon
    • Journal of Digital Contents Society
    • /
    • v.15 no.1
    • /
    • pp.113-120
    • /
    • 2014
  • In recent years, devices using the smart ponwa IT service is activated, to research how the fusion of two or more devices will be able to be interest in the soybeans. One of them in the mobile sector through the development of network and hardware digital geo-spatial map of the rapid advances being made and the computer, how do you map data to efficiently simulate a 3D environment, providing services through a virtual environment focused on whether be. In this study, augmented reality and GIS (Geographic Information System), SLM (Static LOD Model) that combines augmented reality technology on the basis of the basic concepts and approaches in geographic space and how Augmented Reality Based on this interpretation of the relevant content What to do in the development and utilization has a purpose. In this study, the conventional SLM 3DS model data structure of a data format conversion of the proposed possibilities for analyzing and, SLM model generation and format of the existing three-dimensional visualization tools SLM model format for converting a format to a model function, and visualization features. In addition, 3D virtual model to propose a format for efficiently making.

Design of VR Coordination system using 3D asset data (3D asset data를 사용한 VR Coordination system 설계)

  • Yeo, Chang Hyun;Park, Yong Je;Lee, Jae Won;Choi, Jae Won;Lee, Jeong Ho;Yoon, Seon Jeong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.07a
    • /
    • pp.107-109
    • /
    • 2016
  • 본 연구는 사용자의 신체 맞춤형 3D 가상모델에 VR을 이용한 패션 코디네이션이 가능하도록 설계한 시스템을 제안한다. 특별히 사용자의 신체 각 부위의 정보에 따라 3D모델을 조정할 수 있으며 의상데이터는 3D asset Database에서 최적의 조건으로 선별되어 VR 환경에서 코디네이션이 가능하도록 설계되었다. 따라서 사용자에게 가장 적합한 의상 정보를 현실감 있게 제공하여 만족도를 높일 것으로 기대한다. 본 시스템은 온오프라인에서 모두 활용 가능하며 가상 패션쇼, 가상 디자인, 패션 교육 등에 연계 가능하다.

  • PDF

Standard Model for Live Actor and Entity Representation in Mixed and Augmented Reality (혼합증강현실에서 라이브 행동자와 실체 표현을 위한 표준 모델)

  • Yooa, Kwan-Hee
    • Journal of Broadcast Engineering
    • /
    • v.21 no.2
    • /
    • pp.192-199
    • /
    • 2016
  • Mixed and augmented reality technique deals with mixing content between real world and virtual world containing augmented reality and augmented virtuality excluding of pure real and pure virtual world. In mixed and augmented reality, if a live actor and entity moving in real world can be embedded more naturally in 3D virtual world, various advanced applications such 3D tele-presence, 3D virtual experience education and etc can be serviced. Therefore, in this paper, we propose a standard model which is supporting to embed the live actor and entity into 3D virtual space, and to interact with each other. And also the natural embedding and interaction of live actor and entity can be performed based on the proposed model.

Designing and Implementing 3D Virtual Face Aesthetic Surgery System Based on Korean Standard Facial Data (한국 표준 얼굴 데이터를 적용한 3D 가상 얼굴 성형 제작 시스템 설계 및 구현)

  • Lee, Cheol-Woong;Kim, II-Min;Cho, Sae-Hong
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.5
    • /
    • pp.737-744
    • /
    • 2009
  • This paper is to study and implement 3D Virtual Face Aesthetic Surgery System which provides more satisfaction by comparing the before-and-after plastic face surgery using 3D face model. For this study, we implemented 3D Face Model Generating System which resembles 2D image of the user based on 3D Korean standard face model and user's 2D pictures. The proposed 3D Virtual Face Aesthetic Surgery System in this paper consists of 3D Face Model Generating System, 3D Skin Texture Mapping System, and Detailed Adjustment System for reflecting the detailed description of face. The proposed system provides more satisfaction to the medical uses and stability in the surgery in compare with other existing systems.

  • PDF

Augmented Reality Based Remote 3D Collaborative Design Workspace (증강현실 기반의 원격 3차원 디자인 협업 환경에 관한 연구)

  • SaKong, Kyung;Nam, Tek-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02b
    • /
    • pp.221-226
    • /
    • 2006
  • 원격 3차원 디자인 협업 환경이란 원거리에 있는 디자이너들이 3차원 모델을 함께 동시적으로 다루는 협업 환경으로서, 제품 개발 프로세스의 비용과 시간을 단축하는데 매우 중요한 역할을 한다. 그러나 이에 대한 연구는 아직 미비한 실정이며 기존의 연구들도 2차원 데스크탑 환경에 제한된 문제점이 있다. 따라서 본 연구는 새로운 협업 환경의 제안을 통해 지리적으로 떨어진 디자이너들간의 3D 모델에 관한 원활한 협업을 촉진하는 것을 목표로 한다. 본 연구에서 제안한 증강현실 기반의 원격 3차원 디자인 협업 환경은 3D 모델의 공유를 위한 회전 원반(turntable)과 상대의 위치 및 제스처 정보를 제공하는 가상 그림자(virtual shadows)로 구성된다. 동시적으로 회전하는 회전원반은 물리적인 매개체로서 가상물체와 실제 세계를 자연스럽게 연결하는 동시에 상대의 실재감을 높인다. 가상그림자는 가상물체 주위로 보여지는 사람들의 손과 팔의 움직임을 시각화하여 공유하는 것으로, 상대의 위치뿐 아니라 지시, 제스처 등 행동에 대한 인식이 지속적으로 이루어지게 한다. 프로토타입을 제작하고 사용자 평가 실험을 실시하여 3차원 모델을 검토하는 단계에 그 유용성이 있음을 확인하였다. 데스크탑 환경의 모델링 툴에 익숙한 사용자들은 실제 공간에서 가상물체를 조작할 수 있음에 긍정적인 반응을 보였고 회전원반과 가상그림자의 제공은 태스크 수행의 정확도를 높이며 협업을 촉진하는 결과를 보였다. 본 연구는 환경적 제약으로 원활하게 이루어지지 못했던 3D 모델에 관한 원격 협업에 의사소통의 장을 마련하고 이를 촉진시킨다는 점에서 그 의의가 있다. 본 환경에서 제시한 상대방과 협업대상물에 대한 심리적, 물리적 공유 감을 증대시키는 방법들은 3D 모델에 관한 디자인 협업에서 확장되어 다른 원격 협업을 지원하는 데도 적용될 수 있을 것이다.

  • PDF

Construction of the Facial 3D Textures for Generating Virtual Characters (가상 캐릭터 제작을 위한 얼굴 3D 텍스처의 구성)

  • 최창석;박상운
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2001.06a
    • /
    • pp.197-200
    • /
    • 2001
  • 본 논문에서는 가상 캐릭터 제작을 위해 표정변화가 가능한 얼굴의 3D텍스처를 구성하는 방법을 2가지로 제안한다. 하나는 3D 스캐너에서 입력한 얼굴 3D 텍스처에 얼굴의 3D 표준 모델을 정합하여 표정변화가 가능하게 하는 방법이다. 이 경우는 얼굴의 3D 텍스처와 함께 정확한 3D 형상 모델을 얻을수는 있으나, 스캐닝 비용이 고가이고, 장비의 이동이 불편하다. 또 하나의 방법은 전후좌우 4매의 2D영상을 통합하여 얼굴의 3D 텍스처를 구성하는 방법이다. 이 방법은 4매의 2D 영상에 3D 형상모델을 정합한 후, 4개의 모델의 높이, 넓이, 깊이를 통합하여, 대체적인 3D 형상모델을 얻고, 4매의 영상을 통합하여 개인 얼굴의 3D 텍스처를 얻게 된다. 이 경우는 2D 얼굴영상을 이용하기 때문에 저가로 널리 이용할 수 있는 방법이다.

  • PDF

End-to-End based 3D Model Generation Method using a Single LiDAR (단일 LiDAR를 활용한 End-to-End 기반 3D 모델 생성 방법)

  • Kwak, Jeonghoon;Sung, Yunsick
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.532-533
    • /
    • 2020
  • 원격 및 가상환경에서 사용자의 동작에 따른 3D 모델을 제공하기 위해 light detection and range (LiDAR)로 측정된 3D point cloud로 사용자의 3D 모델이 생성되어 원격 및 가상환경에 사용자의 모습이 제공된다. 하지만 3D 모델을 생성하기 위해서는 사용자의 신체 전부가 측정된 3D point cloud가 필요하다. 사용자의 신체 전체를 측정하기 위해서는 적어도 두 개 이상의 LiDAR가 필요하다. 두 개 이상의 LiDAR을 사용할 경우에는 LiDAR을 사용할 공간과 LiDAR를 구비하기 위한 비용이 발생한다. 단일 LiDAR로 3D 모델을 생성하는 방법이 요구된다. 본 논문에서는 단일 LiDAR에서 측정된 3D point cloud를 이용하여 3D 모델을 생성하는 방법이 제안된다. End-to-End 기반 Convolutional Neural Network (CNN) 모델로 측정된 3D point cloud를 분석하여 사용자의 체형과 자세를 예측하도록 학습한다. 기본자세를 취하는 동안 수집된 3D point cloud로 기본이 되는 사용자의 3D 모델을 생성한다. 학습된 CNN 모델을 통하여 측정된 3D point cloud로 사용자의 자세를 예측하여 기본이 되는 3D 모델을 수정하여 3D 모델을 제공한다.