• 제목/요약/키워드: Texture Mapping

검색결과 207건 처리시간 0.025초

실시간 볼륨 광선 투사법을 위한 자료구조 (A Data Structure for Real-time Volume Ray Casting)

  • 임석현;신병석
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제11권1호
    • /
    • pp.40-49
    • /
    • 2005
  • Several optimization techniques have been proposed for volume ray casting, but these cannot achieve real-time frame rates. In addition, it is difficult to apply them to some applications that require perspective projection. Recently, hardware-based methods using 3D texture mapping are being used for real-time volume rendering. Although rendering speed approaches real time, the larger volumes require more swapping of volume bricks for the limited texture memory. Also, image quality deteriorates compared with that of conventional volume ray casting. In this paper, we propose a data structure for real-time volume ray casting named PERM (Precomputed dEnsity and gRadient Map). The PERM stores interpolated density and gradient vector for quantized cells. Since the information requiring time-consuming computations is stored in the PERM, our method can ensure interactive frame rates on a consumer PC platform. Our method normally produces high-quality images because it is based on conventional volume ray casting.

  • PDF

Development of Mobile 3D Terrain Viewer with Texture Mapping of Satellite Images

  • Kim, Seung-Yub;Lee, Ki-Won
    • 대한원격탐사학회지
    • /
    • 제22권5호
    • /
    • pp.351-356
    • /
    • 2006
  • Based on current practical needs for geo-spatial information on mobile platform, the main theme of this study is a design and implementation of dynamic 3D terrain rendering system using spaceborne imagery, as a kind of texture image for photo-realistic 3D scene generation on mobile environment. Image processing and 3D graphic techniques and algorithms, such as TIN-based vertex generation with regular spacing elevation data for generating 3D terrain surface, image tiling and image-vertex texturing in order to resolve limited resource of mobile devices, were applied and implemented by using graphic pipeline of OpenGL|ES (Embedded System) API. Through this implementation and its tested results with actual data sets of DEM and satellite imagery, we demonstrated the realizable possibility and adaptation of complex typed and large sized 3D geo-spatial information in mobile devices. This prototype system can be used to mobile 3D applications with DEM and satellite imagery in near future.

3차원 GIS 기반 실시간 비디오 시각화 기술 (Realtime Video Visualization based on 3D GIS)

  • 윤창락;김학철;김경옥;황치정
    • 한국공간정보시스템학회 논문지
    • /
    • 제11권1호
    • /
    • pp.63-70
    • /
    • 2009
  • 3차원 지리정보시스템(GIS: Geographical Information System)은 실세계의 다양한 3차원 현상을 처리, 분석, 표현하는 기술을 적용한 지리정보시스템으로써, 지형, 시설물 등을 3차원 지리정보 데이터로 구축하고 가상현실(VR: Virtual Reality) 등의 시각화 기술과 연동하여 도시, 교통, 환경, 재해, 해양 등의 다양한 분야에서 활용할 수 있도록 하는 시스템이다. 본 논문에서는 3차원 지리정보시스템의 실시간 정보 제공을 극대화하기 위한 3차원 지리정보 기반 비디오 시각화 기술 및 이를 위한 3차원 건물정보 데이터 구축 기술을 제안한다. 본 논문에서 제안하는 3차원 지리정보 기반 비디오 시각화 기술은 네트워크 비디오 카메라의 실시간 비디오 스트림을 3차원 지리정보에 투영(Projection)하여 지형, 시설물 등에 텍스처 매핑하는 기술로써 3차원 지리정보에 기반한 실시간 비디오 정보를 제공할 수 있다. 또한, 본 논문에서는 3차원 투영 텍스처 매핑(3D Projective Texture Mapping)을 위해 항공영상과 LiDAR 데이터를 융합하여 반자동으로 수치건물모형(DBM: Digital Building Model)을 추출할 수 있는 기술을 개발하였다. 본 논문에서 제안하는 기술은 기존의 3차원 지리정보시스템이 제공하는 정적인 시각정보를 실시간 비디오 정보로 대체함으로써 위치에 기반한 현재의 시각적 정보를 의사결정에 즉시 반영할 수 있고 더 나아가서는 지리정보 기반 지능형 상황인지 서비스를 제공할 수 있는 기반이 될 수 있다.

  • PDF

2D 가상 착의 시스템의 컬러 영상 분할 및 직물 텍스쳐 매핑 (Color Image Segmentation and Textile Texture Mapping of 2D Virtual Wearing System)

  • 이은환;곽노윤
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권5호
    • /
    • pp.213-222
    • /
    • 2008
  • 본 논문은 2D 가상 착의 시스템의 컬러 영상 분할 및 직물 텍스쳐 매핑에 관한 것이다. 제안된 시스템은 컬러 영상 분할에 의해 2D 의류 모델 영상으로부터 분할된 의류 형상 영역에, 명도 차분 맵에 기반하여 사용자가 선택한 새로운 직물 패턴을 가상적으로 착용시킬 수 있는 것이 특징이다. 제안된 시스템은 모델 의류의 색이나 명도에 상관없이, 선택된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 직물 패턴이나 직물 색을 가상적으로 변경시킬 수 있다. 또한 각기 다른 스타일 혹은 전체적인 차림새를 위한 다양한 직물 패턴 조합을 신속하고 용이하게 시뮬레이션하고 비교 선택할 수 있다. 제안된 시스템은 다양한 디지털 환경에서 실시간 처리가 가능하고 비교적 자연스럽고 사실적인 가상 착의 스타일을 제공할 뿐만 아니라 수작업을 최소한으로 줄인 반자동화 처리가 가능하기 때문에 높은 실용성과 편리한 사용자 인터페이스를 제공할 수 있다. 제안된 시스템에 따르면, 실제 의복을 제작하지 않고도 직물 패턴 디자인이 의복의 외관에 미치는 영향을 시뮬레이션할 수 있으므로 직물 디자이너의 창작활동을 도와줄 수 있고, 또한 구매자의 의사결정을 지원해 B2B 또는 B2C 전자상거래 행위를 촉진할 수 있다.

위성영상을 활용한 실시간 재난정보 처리 기법: 재난 탐지, 매핑, 및 관리 (Early Disaster Damage Assessment using Remotely Sensing Imagery: Damage Detection, Mapping and Estimation)

  • 정명희
    • 전자공학회논문지CI
    • /
    • 제49권2호
    • /
    • pp.90-95
    • /
    • 2012
  • 위성영상은 광범위한 지역에 걸쳐 실시간으로 정확한 지표 상태에 대한 정보를 수집할 수 있어 재난재해관리에도 효율적 수단으로 사용되고 있다. 특히 고해상도 영상은 1m급 이하 지표 물체를 탐지할 수 있어 도심지역 정보 획득에 매우 유용하다. 본 논문에는 재난 발생 시 고해상도 위성영상으로부터 변화탐지 기법을 사용하여 피해를 탐지하고 피해정보를 추출하는 방법론이 제안되었다. 사용된 영상분석기법은 텍스쳐 정보를 이용하여 시간적 변화를 탐지하는 기법으로 특징 추출과 변화탐지 단계로 구성되어있다. 특징 추출 단계에서는 wavelet과 GLCM을 이용하여 텍스쳐가 추출되었고 변화탐지 단계에서는 영역간 텍스쳐의 상관관계를 이용한 분류기법이 사용되었다. 제안된 방법은 고해상도 위성영상을 사용하여 지진피해지역을 탐지하는 예에 적용되어 테스트 되었다.

얼굴영상과 예측한 열 적외선 텍스처의 융합에 의한 얼굴 인식 (Design of an observer-based decentralized fuzzy controller for discrete-time interconnected fuzzy systems)

  • 공성곤
    • 한국지능시스템학회논문지
    • /
    • 제25권5호
    • /
    • pp.437-443
    • /
    • 2015
  • 이 논문에서는 가시광선 얼굴영상과 그로부터 예측한 열 적외선 텍스처의 데이터 융합에 의한 얼굴인식 방법에 관하여 연구하였다. 제안하는 얼굴인식 기법은 가시광선 얼굴영상과 열 적외선 텍스처를 PCA에 의하여 낮은 차원의 특징공간에서 특징벡터로 변환한 다음, 다층 신경회로망을 사용하여 가시광선 영상 특징으로부터 얼굴의 열적외선 특징을 예측하여 열 적외선 텍스처를 생성하였다. 학습과정에서는 주어진 개체로부터 획득한 한 쌍의 가시광선 및 열 적외선 영상에 대해서 PCA를 이용하여 낮은 차원의 특징공간으로 변환한 다음, 가시광선 영상특징으로부터 열 분포 특징으로 매핑시키는 비선형 함수에 해당하는 신경회로망의 내부 파라미터를 결정한다. 학습된 신경회로망은 입력 가시광선 얼굴 특징으로부터 열 에너지 분포 특성의 PCA계수를 예측하고, 이로부터 열 적외선 텍스처를 생성한다. 대표적인 두 가지 얼굴인식 알고리즘 Eigenfaces와 Fisherfaces을 사용하여 NIST/Equinox 데이터베이스에 대하여 얼굴인식에 관한 실험을 수행하였다. 예측한 열 적외선 텍스처와 가시광선 얼굴영상의 데이터 융합결과는 가시광선 얼굴영상만을 사용한 경우에 비해서 얼굴인식의 성능이 개선되었음을 수신자 조작특성 (ROC) 및 첫 번째 매칭성능에 의하여 검증하였다.

텍스쳐 매핑을 이용한 고속 영상 모자익 (High-Speed Image mosaics Using Texture mapping)

  • 최경숙;이칠우
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2001년도 추계학술발표논문집
    • /
    • pp.143-147
    • /
    • 2001
  • 본 논문은 연속된 이미지로부터 고속 영상 모자익을 구성하는 새로운 접근을 기술한다. 제안하는 알고리듬은 전체 영상이 아닌, 종첩영역에서 특징점 및 대응점을 찾아 초기 변한 행렬을 구함으로 좀더 정확한 변환식을 표현하도록 하고 계산량을 감소시킨다. 또한 고속으로 모자익을 수행하도록 하기 위해 OpenGL 기반 텍스쳐 매핑을 이용하였다. 기존의 방법은 모든 영상의 픽셀에 변환식을 곱함으로 인해 많은 계산시간을 초래했다. 본 논문에서 제안하는 방법은 OpenGL 기반 텍스쳐 매핑을 이용해 영상의 각 버텍스에 변환식을 곱함으로서 계산시간을 단축시켰다. 그 결과, PC에서 카메라로부터 영상을 받아들여 고속으로 모자익을 구성할 수 있다.

  • PDF

특징 추출과 변형가능 템플리트를 이용한 동영상에서의 얼굴 트래킹 (Face detection using feature extraction and deformable template in motion images)

  • 위성윤;윤창용;지승환;박민용
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 하계종합학술대회논문집
    • /
    • pp.761-764
    • /
    • 1998
  • 본 논문에서는 CCCD 카메라로부터 획득한 영상시퀀스들에서 인접한 두 영상 사이의 차영상과 얼굴이 가지는 컬러정보를 이용하여 분리한 얼굴 영역에서 양쪽 눈과 입의 위치좌표를 특징점으로 이용하여 입력된 얼굴에 자동정합된 변형가능 템플리트(deformable template)를 가지고 연속된 다음 프레임에서 얼굴 전체를 트래킹하는 알고리듬을 제안한다. 실제 입력영상의 얼굴 영역과 변형 가능 템플리트의 차이를 비교하기 위해 텍스쳐 매핑(Texture mapping)을 도입하여 트래킹의 정확도를 살펴본다.

  • PDF

가상현실에 적용을 위한 모델에 근거한 3차원 얼굴 모델링에 관한 연구 (Study of Model Based 3D Facial Modeling for Virtual Reality)

  • 한희철;권중장
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(3)
    • /
    • pp.193-196
    • /
    • 2000
  • In this paper, we present a model based 3d facial modeling method for virtual reality application using only one front of face photography. We extract facial feature using facial photography and modify mesh of the basic 3D model by the facial feature. After this , We use texture mapping for more similarity. By experiment, we know that the modeling technic is useful method for Movie, Virtual Reality Application, Game , Clothing Industry , 3D Video Conference.

  • PDF

실내환경에서의 2 차원/ 3 차원 Map Modeling 제작기법 (A 2D / 3D Map Modeling of Indoor Environment)

  • 조상우;박진우;권용무;안상철
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.355-361
    • /
    • 2006
  • In large scale environments like airport, museum, large warehouse and department store, autonomous mobile robots will play an important role in security and surveillance tasks. Robotic security guards will give the surveyed information of large scale environments and communicate with human operator with that kind of data such as if there is an object or not and a window is open. Both for visualization of information and as human machine interface for remote control, a 3D model can give much more useful information than the typical 2D maps used in many robotic applications today. It is easier to understandable and makes user feel like being in a location of robot so that user could interact with robot more naturally in a remote circumstance and see structures such as windows and doors that cannot be seen in a 2D model. In this paper we present our simple and easy to use method to obtain a 3D textured model. For expression of reality, we need to integrate the 3D models and real scenes. Most of other cases of 3D modeling method consist of two data acquisition devices. One for getting a 3D model and another for obtaining realistic textures. In this case, the former device would be 2D laser range-finder and the latter device would be common camera. Our algorithm consists of building a measurement-based 2D metric map which is acquired by laser range-finder, texture acquisition/stitching and texture-mapping to corresponding 3D model. The algorithm is implemented with laser sensor for obtaining 2D/3D metric map and two cameras for gathering texture. Our geometric 3D model consists of planes that model the floor and walls. The geometry of the planes is extracted from the 2D metric map data. Textures for the floor and walls are generated from the images captured by two 1394 cameras which have wide Field of View angle. Image stitching and image cutting process is used to generate textured images for corresponding with a 3D model. The algorithm is applied to 2 cases which are corridor and space that has the four wall like room of building. The generated 3D map model of indoor environment is shown with VRML format and can be viewed in a web browser with a VRML plug-in. The proposed algorithm can be applied to 3D model-based remote surveillance system through WWW.

  • PDF