• 제목/요약/키워드: 3D 가상모델

검색결과 432건 처리시간 0.031초

3D 파노라믹 가상 환경 생성을 위한 투영기반 메쉬 모델 생성 기법 (Projection-based Mesh Generation for 3D Panoramic Virtual Environment Creation)

  • 이원우;우운택
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.493-498
    • /
    • 2006
  • 본 논문에서는 3D 파노라믹 가상 환경 생성을 위한 투영기반 메쉬 모델 생성 기법을 제안한다. 제안된 메쉬 모델 생성 기법은 멀티뷰 카메라를 이용해 다수의 시점에서 얻은 실내 환경의 3D 데이터로부터 메쉬 모델을 생성한다. 먼저 미리 보정된 카메라 파라미터를 이용해 입력된 임의의 3D점 데이터를 여러 개의 하위 점군으로 분할한다. 적응적 샘플링을 통해 각 하위 점군으로부터 중복되는 점 데이터를 없애고 새로운 점군을 생성한다. 각각의 하위 점군을 Delaunay삼각화 방법을 통해 메쉬 모델링하고, 인접한 하위 점군의 메쉬들을 통합하여 하나의 메쉬 모델을 생성한다. 제안된 메쉬 모델링 방법은 점군의 분할을 통해 각 부분의 메쉬 모델을 독립적으로 생성하므로 실내 환경과 같은 넓은 영역의 모델링에 알맞다. 또한, 적응적 샘플링을 통해 3D 데이터가 갖는 깊이 정보의 특징을 보존하면서 메쉬 데이터의 크기를 줄인다. 생성된 가상 환경 모델은 가상/증강현실 응용 어플리케이션 등에 적용이 가능하다.

  • PDF

X3D 가상 환경에서의 확장 가능한 상호작용 (Extensible Interactions in X3D)

  • 이동훈;권기준;정순기
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.349-351
    • /
    • 2003
  • X3D는 XML 기반의 VRML(Virtual Reality Modeling Language) 차세대 언어로서 인터넷을 통해 동적이고 상호작용 가능한 실시간 가상 환경을 제공해 준다. 본 논문에서는 X3D기반 가상 환경이 제공하는 상호작용을 변경 또는 확장 가능한 새로운 인터페이스 모델을 제시한다. 본 논문에서 제시하는 모델은 X3D 가상 환경에서 사용자 재정의를 통한 상호작용, 새로운 멀티 모달 인터페이스로의 확장, 그리고 상황 인지 가상환경을 위한 상호작용 모델로서 사용될 수 있다.

  • PDF

의상 이미지의 3차원 의상 복원 방법과 가상착용 응용 (3D Reconstruction of a Single Clothing Image and Its Application to Image-based Virtual Try-On)

  • 안희준;미나르 마드올 라흐만
    • 한국산업정보학회논문지
    • /
    • 제25권5호
    • /
    • pp.1-11
    • /
    • 2020
  • 가상착용기술은 온라인 의류 쇼핑 활성화를 위해 중요한 기술이다. 최근 이미지 기반 가상착용기술은 의상과 착용 대상 신체의 3차원 정보가 필요하지 않다는 실용성 때문에 큰 관심을 받고 있다. 그러나 기존의 이미지 기반 알고리즘의 2차원 기하변형 방식의 한계로 인하여 대상 인물의 포즈와 의상 이미지의 형태가 큰 차이가 있는 경우 자연스러운 의상변형을 하지 못한다. 본 논문에서는 이러한 문제를 해결하기 위해 3차원 인체 모델을 이용하여 2차원 의상 사진으로 부터 의상의 3차원 모델을 생성하고, 대상 인물의 자세와 체형에 맞게 3차원 변형 후 렌더링하고 대상 인간 이미지와 혼합을 통하여 가상착용 이미지를 생성할 수 있다. 기존 연구에서 사용된 VITON 데이터 세트를 사용한 실험 결과는 3차원 변형이 요구되는 경우에 2차원 이미지 기반 가상착용 결과들에 비교했을 때 자연스러운 결과를 보인다.

SLM 포맷을 이용한 GIS 데이터의 3D 가상모델에 대한 연구 (SLM using GIS data formats for 3D virtual model of research)

  • 한정아;서래원
    • 디지털콘텐츠학회 논문지
    • /
    • 제15권1호
    • /
    • pp.113-120
    • /
    • 2014
  • 최근 들어 스마트폰과 IT기기를 이용한 서비스가 활성화되고, 어떻게 하면 두 가지 이상의 기기를 이용해 융합을 할 수 있을 것인가에 대한 관심이 대두되고 있다. 그중 하나로 모바일 분야에서 네트워크와 하드웨어의 발전을 통해 디지털 지리공간 및 컴퓨터 지도의 급속한 발전이 이뤄지고, 어떻게 하면 효율적으로 지도 데이터를 3D 환경에서 시뮬레이션하고, 가상환경을 통해 서비스를 제공할 것인가에 초점이 맞춰져있다. 본 연구에서는 증강현실과 GIS(Geographic Information System), SLM(Static LOD Model)을 융합한 기술로 증강현실의 기본적 개념과 접근법을 기본으로 지리적인 공간에서 어떻게 증강현실을 재해석하고 이를 기반으로 관련 컨텐츠의 개발과 활용을 어떻게 하는가에 목적을 가지고 있다. 본 연구에서는 기존의 3DS 모델의 데이터 구조를 제안한 SLM 데이터 포맷으로의 전환하기 위한 가능성을 분석하고, SLM 모델 포맷의 생성 및 가시화 도구는 기존 3차원 모델 포맷을 SLM 모델로 포맷을 변환하기 위한 기능 및 가시화 기능을 제공한다. 또한, 3D 가상 모델을 효율적으로 만들기 위한 포맷을 제안한다.

3D asset data를 사용한 VR Coordination system 설계 (Design of VR Coordination system using 3D asset data)

  • 여장현;박용제;이재원;최재원;이정호;윤선정
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제54차 하계학술대회논문집 24권2호
    • /
    • pp.107-109
    • /
    • 2016
  • 본 연구는 사용자의 신체 맞춤형 3D 가상모델에 VR을 이용한 패션 코디네이션이 가능하도록 설계한 시스템을 제안한다. 특별히 사용자의 신체 각 부위의 정보에 따라 3D모델을 조정할 수 있으며 의상데이터는 3D asset Database에서 최적의 조건으로 선별되어 VR 환경에서 코디네이션이 가능하도록 설계되었다. 따라서 사용자에게 가장 적합한 의상 정보를 현실감 있게 제공하여 만족도를 높일 것으로 기대한다. 본 시스템은 온오프라인에서 모두 활용 가능하며 가상 패션쇼, 가상 디자인, 패션 교육 등에 연계 가능하다.

  • PDF

혼합증강현실에서 라이브 행동자와 실체 표현을 위한 표준 모델 (Standard Model for Live Actor and Entity Representation in Mixed and Augmented Reality)

  • 류관희
    • 방송공학회논문지
    • /
    • 제21권2호
    • /
    • pp.192-199
    • /
    • 2016
  • 혼합증강현실 기술은 순수 현실세계와 순수 가상세계를 제외한 증강현실과 증강 가상을 포함하여 현실세계와 가상세계를 혼합하는 내용을 다룬다. 혼합증강현실에서 현실세계에서 움직이는 라이브행동자와 실체(LAE: live actor and entity)가 3D 가상공간과 혼합하여 자연스럽게 표현될 수 있으면, 원격 3D 몰입 회의, 3D 가상 체험 교육 서비스 등이 가능하다. 따라서 본 논문에서는 LAE를 3D 가상공간에 자연스럽게 혼합하고, 서로서로 상호작용할 수 모델을 표준 제안한다. 제안한 모델을 기반으로 LAE의 혼합과 상호작용이 수행될 수 있다.

한국 표준 얼굴 데이터를 적용한 3D 가상 얼굴 성형 제작 시스템 설계 및 구현 (Designing and Implementing 3D Virtual Face Aesthetic Surgery System Based on Korean Standard Facial Data)

  • 이철웅;김일민;조세홍
    • 한국멀티미디어학회논문지
    • /
    • 제12권5호
    • /
    • pp.737-744
    • /
    • 2009
  • 본 논문은 한국 표준 얼굴 데이터를 바탕으로 제작한 3D 얼굴 모델을 활용하여 성형 수술 전후의 모습을 비교하여 성형 수술의 만족도를 높이는 웅용 프로그랭인 3D 가장 얼굴 성형 시스댐에 대한 연구 및 구현이다. 이 연구를 위하여 2D 개인 얼굴 이미지와 3D 한국인 표준 모델을 활용하여, 2D 이미지 상의 사용자의 실제 얼굴과 똑같은 3D 얼굴 모델을 구현한다. 본 연구에서 제안하는 3D 가상 얼굴 성형 시스템은 얼굴 모텔의 기본이 되는 3D 한국인 표준 얼굴 모델에 2D 개인 얼굴 이미지로부터 추출한 개인 특성 정보를 적용함으로서 3D 얼굴 모델링 시스템을 구현하고 3D 얼굴의 사실성올 높이는 텍스처 맴핑 및 구축된 얼굴을 활용하여 성형 수술 후의 얼굴의 변화를 나타내는 3D 얼굴 성형 시스댐 등으로 구성되어 있다. 제안된 3D 가상 얼굴 성형 시스템은 정확한 개인 얼굴 모델링 방법을 제공하고, 성형 전후의 얼굴을 미세하게 조정하는 기능을 부여함으로써 현존하는 유사 시스템에 비교하여 성형 수술의 만족도와 안정성을 높이는 결과를 나타내었다.

  • PDF

증강현실 기반의 원격 3차원 디자인 협업 환경에 관한 연구 (Augmented Reality Based Remote 3D Collaborative Design Workspace)

  • 사공경;남택진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 2부
    • /
    • pp.221-226
    • /
    • 2006
  • 원격 3차원 디자인 협업 환경이란 원거리에 있는 디자이너들이 3차원 모델을 함께 동시적으로 다루는 협업 환경으로서, 제품 개발 프로세스의 비용과 시간을 단축하는데 매우 중요한 역할을 한다. 그러나 이에 대한 연구는 아직 미비한 실정이며 기존의 연구들도 2차원 데스크탑 환경에 제한된 문제점이 있다. 따라서 본 연구는 새로운 협업 환경의 제안을 통해 지리적으로 떨어진 디자이너들간의 3D 모델에 관한 원활한 협업을 촉진하는 것을 목표로 한다. 본 연구에서 제안한 증강현실 기반의 원격 3차원 디자인 협업 환경은 3D 모델의 공유를 위한 회전 원반(turntable)과 상대의 위치 및 제스처 정보를 제공하는 가상 그림자(virtual shadows)로 구성된다. 동시적으로 회전하는 회전원반은 물리적인 매개체로서 가상물체와 실제 세계를 자연스럽게 연결하는 동시에 상대의 실재감을 높인다. 가상그림자는 가상물체 주위로 보여지는 사람들의 손과 팔의 움직임을 시각화하여 공유하는 것으로, 상대의 위치뿐 아니라 지시, 제스처 등 행동에 대한 인식이 지속적으로 이루어지게 한다. 프로토타입을 제작하고 사용자 평가 실험을 실시하여 3차원 모델을 검토하는 단계에 그 유용성이 있음을 확인하였다. 데스크탑 환경의 모델링 툴에 익숙한 사용자들은 실제 공간에서 가상물체를 조작할 수 있음에 긍정적인 반응을 보였고 회전원반과 가상그림자의 제공은 태스크 수행의 정확도를 높이며 협업을 촉진하는 결과를 보였다. 본 연구는 환경적 제약으로 원활하게 이루어지지 못했던 3D 모델에 관한 원격 협업에 의사소통의 장을 마련하고 이를 촉진시킨다는 점에서 그 의의가 있다. 본 환경에서 제시한 상대방과 협업대상물에 대한 심리적, 물리적 공유 감을 증대시키는 방법들은 3D 모델에 관한 디자인 협업에서 확장되어 다른 원격 협업을 지원하는 데도 적용될 수 있을 것이다.

  • PDF

가상 캐릭터 제작을 위한 얼굴 3D 텍스처의 구성 (Construction of the Facial 3D Textures for Generating Virtual Characters)

  • 최창석;박상운
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2001년도 하계 학술대회 논문집(KISPS SUMMER CONFERENCE 2001
    • /
    • pp.197-200
    • /
    • 2001
  • 본 논문에서는 가상 캐릭터 제작을 위해 표정변화가 가능한 얼굴의 3D텍스처를 구성하는 방법을 2가지로 제안한다. 하나는 3D 스캐너에서 입력한 얼굴 3D 텍스처에 얼굴의 3D 표준 모델을 정합하여 표정변화가 가능하게 하는 방법이다. 이 경우는 얼굴의 3D 텍스처와 함께 정확한 3D 형상 모델을 얻을수는 있으나, 스캐닝 비용이 고가이고, 장비의 이동이 불편하다. 또 하나의 방법은 전후좌우 4매의 2D영상을 통합하여 얼굴의 3D 텍스처를 구성하는 방법이다. 이 방법은 4매의 2D 영상에 3D 형상모델을 정합한 후, 4개의 모델의 높이, 넓이, 깊이를 통합하여, 대체적인 3D 형상모델을 얻고, 4매의 영상을 통합하여 개인 얼굴의 3D 텍스처를 얻게 된다. 이 경우는 2D 얼굴영상을 이용하기 때문에 저가로 널리 이용할 수 있는 방법이다.

  • PDF

단일 LiDAR를 활용한 End-to-End 기반 3D 모델 생성 방법 (End-to-End based 3D Model Generation Method using a Single LiDAR)

  • 곽정훈;성연식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.532-533
    • /
    • 2020
  • 원격 및 가상환경에서 사용자의 동작에 따른 3D 모델을 제공하기 위해 light detection and range (LiDAR)로 측정된 3D point cloud로 사용자의 3D 모델이 생성되어 원격 및 가상환경에 사용자의 모습이 제공된다. 하지만 3D 모델을 생성하기 위해서는 사용자의 신체 전부가 측정된 3D point cloud가 필요하다. 사용자의 신체 전체를 측정하기 위해서는 적어도 두 개 이상의 LiDAR가 필요하다. 두 개 이상의 LiDAR을 사용할 경우에는 LiDAR을 사용할 공간과 LiDAR를 구비하기 위한 비용이 발생한다. 단일 LiDAR로 3D 모델을 생성하는 방법이 요구된다. 본 논문에서는 단일 LiDAR에서 측정된 3D point cloud를 이용하여 3D 모델을 생성하는 방법이 제안된다. End-to-End 기반 Convolutional Neural Network (CNN) 모델로 측정된 3D point cloud를 분석하여 사용자의 체형과 자세를 예측하도록 학습한다. 기본자세를 취하는 동안 수집된 3D point cloud로 기본이 되는 사용자의 3D 모델을 생성한다. 학습된 CNN 모델을 통하여 측정된 3D point cloud로 사용자의 자세를 예측하여 기본이 되는 3D 모델을 수정하여 3D 모델을 제공한다.