• Title/Summary/Keyword: 3차원 객체선택

Search Result 46, Processing Time 0.031 seconds

ARWand based Interaction Method for In-situ Augmented Reality Authoring in Wearable Computing Environment (웨어러블 증강현실 환경에서 In-situ 증강현실 저작을 위한 ARWand 기반 상호작용 방법)

  • Ha, Tae-Jin;Woo, Woon-Tack
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.433-435
    • /
    • 2012
  • 웨어러블 증강현실 환경은 동적으로 움직이는 HMD와 ARWand로 인한 시스템 오차와 사용자 오차가 발생하기 때문에, 3차원 공간 상에 다양한 위치에 존재하는 3D 객체를 효과적으로 선택하고 6 DOF 조작하는 것이 어렵다. 이러한 문제점을 해결하기 위해서, HMD, ARWand, 3D 객체간의 기하정보를 기반으로 3D 객체의 선택 확률을 모델링하고, 통합적으로 해석하여 최고의 선택 확률을 가지는 3D 객체를 선택할 수 있도록 한다. 그리고 근/원거리에 위치한 3D 객체를 효율적으로 조작하기 위해서 ARWand의 조작-디스플레이 맵핑 방법을 제안한다. 이는 3D 객체의 자연스러운 6 DOF 직접-간접 조작을 가능하게 한다.

Explosion Casting: An Efficient Selection Method for Overlapped Virtual Objects in Immersive Virtual Environments (몰입 가상현실 환경에서 겹쳐진 가상객체들의 효율적인 선택을 위한 펼침 시각화를 통한 객체 선택 방법)

  • Oh, JuYoung;Lee, Jun
    • The Journal of the Korea Contents Association
    • /
    • v.18 no.3
    • /
    • pp.11-18
    • /
    • 2018
  • To interact with a virtual object in immersive virtual environment, the target object should be selected quickly and accurately. Conventional 3D ray casting method using a direction of user's hand or head allows the user to select an object quickly. However, accuracy problem occurs when selecting an object using conventional methods among occlusion of objects. In this paper, we propose a region of interest based selection method that enables to select an object among occlusion of objects using a combination of gaze tracking and hand gesture recognition. When a user looks at a group of occlusion of objects, the proposed method recognizes user's gaze input, and then region of interest is set by gaze input. If the user wants to select an object among them, the user gives an activation hand gesture. Then, the proposed system relocates and visualizes all objects on a virtual active window. The user can select an object by a selecting hand gesture. Our experiment verified that the user can select an object correctly and accurately.

3D symbol mapping for 3D spatial database construction (3차원 공간정보 제작을 위한 3차원 symbol의 자동 mapping에 관한 연구)

  • Park Seung-Yong;Lee Jae-Bin;Yu Ki-Yun;Kim Yong-Il
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2006.05a
    • /
    • pp.63-72
    • /
    • 2006
  • 정보화 시대에 있어 급변하는 기술발전과 함께 인간의 문화적 욕구가 증대됨에 따라 3차원 공간정보에 대한 수요가 증가하고 있다. 하지만 현재 3차원 공간정보를 구축하는 과정은 일반적으로 수작업 또는 반자동에 의해 이루어지고 있다. 이는 데이터의 구축 및 표현에 많은 시간과 비용이 소요된다는 제약을 가지고 있다. 따라서 본 연구에서는 3차원 symbol 라이브러리를 구축하여 분류된 객체에 부합되는 3차원 symbol을 자동으로 선택하며, 선택된 3차원 symbol을 파라메타를 이용하여 자동으로 mapping 하는 과정을 구축하였다. 이를 통해 3차원 공간데이터의 구축 및 표현에 요구되는 시간과 오류를 최소화할 수 있었다. 또한 LiDAR(Light Detection And Range) 데이터의 3차원 정보를 활용하여 symbol의 자동 mapping을 위한 파라메타들을 산출하였고, symbol의 분류를 위한 기본 데이터로 활용하였다. 구축된 알고리즘의 평가를 위하여 실재 데이터의 3차원 공간데이터베이스를 구축하였다. 구축된 데이터에 대해 symbol선택 및 자동 mapping 과정에 대한 오류 검사를 수행하였고, 더불어 구축된 3차원 데이터의 활용 가능성을 평가하였다. 그 결과 본 연구로부터 구축된 알고리즘들은 3차원 공간정보를 표현함에 있어 신속하고 안정적으로 기여할 수 있을 것으로 판단되었다.

  • PDF

Three-Dimensional Active Shape Models for Medical Image Segmentation (의료영상 분할을 위한 3차원 능동 모양 모델)

  • Lim, Seong-Jae;Jeong, Yong-Yeon;Ho, Yo-Sung
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.44 no.5
    • /
    • pp.55-61
    • /
    • 2007
  • In this paper, we propose a three-dimensional(3D) active shape models for medical image segmentation. In order to build a 3D shape model, we need to generate a point distribution model(PDM) and select corresponding landmarks in all the training shapes. The manual determination method, two-dimensional(2D) method, and limited 3D method of landmark correspondences are time-consuming, tedious, and error-prone. In this paper, we generate a 3D statistical shape model using the 3D model generation method of a distance transform and a tetrahedron method for landmarking. After generating the 3D model, we extend the shape model training and gray-level model training of 2D active shape models(ASMs) and we use the integrated modeling process with scale and gray-level models for the appearance profile to represent the local structure. Experimental results are comparable to those of region-based, contour-based methods, and 2D ASMs.

An Object Selection Method through Adaptive Casting in Immersive Virtual Reality (몰입 가상현실 환경에서 적응형 캐스팅을 통한 객체 선택 방법)

  • Lee, JunSong;Lee, Jun
    • The Journal of the Korea Contents Association
    • /
    • v.19 no.9
    • /
    • pp.666-673
    • /
    • 2019
  • In the immersive virtual reality environment, we can select and manipulate various virtual objects. in order to select a virtual object, we generally use Ray-casting method that fires a virtual line in user's view and selects an object when the line and the object match, or Cone-casting method that is widely used to select multiple objects at the same time. However, since the virtual objects used in CAD are composed of small and complex objects in detail, when selecting an object in the user's view by existing methods, there occurs a ambiguity problem that needs additional realignment operation even though an object is selected as a group. in this paper, even if a virtual object is composed of several small virtual objects, it calculates the spatial and logical relationship among objects and expands or shrinks desired objects, so that the user can quickly and accurately select a desired object. in order to evaluate the proposed method, performance comparison were performed using Our and Ray-Casting and Cone-Casting methods. Experimental results show that the proposed method has the fastest speed and the highest accuracy when selecting the desired objects.

implementation of 3D Reconstruction using Multiple Kinect Cameras (다수의 Kinect 카메라를 이용한 3차원 객체 복원 구현)

  • Shin, Dong Won;Ho, Yo Sung
    • Smart Media Journal
    • /
    • v.3 no.4
    • /
    • pp.22-27
    • /
    • 2014
  • Three-dimensional image reconstruction allows us to represent real objects in the virtual space and observe the objects at arbitrary view points. This technique can be used in various application areas such as education, culture, and art. In this paper, we propose an implementation method of the high-quality three-dimensional object using multiple Kinect cameras released from Microsoft. First, We acquire color and depth images from triple Kinect cameras; Kinect cameras are placed in front of the object as a convergence form. Because original depth image includes some areas where have no depth values, we employ joint bilateral filter to refine these areas. In addition to the depth image problem, there is an color mismatch problem in color images of multiview system. In order to solve it, we exploit an color correction method using three-dimensional geometry. Through the experimental results, we found that three-dimensional object which is used the proposed method is more naturally represented than the original three-dimensional object in terms of the color and shape.

Realtime Markerless 3D Object Tracking for Augmented Reality (증강현실을 위한 실시간 마커리스 3차원 객체 추적)

  • Min, Jae-Hong;Islam, Mohammad Khairul;Paul, Anjan Kumar;Baek, Joong-Hwan
    • Journal of Advanced Navigation Technology
    • /
    • v.14 no.2
    • /
    • pp.272-277
    • /
    • 2010
  • AR(Augmented Reality) needs medium between real and virtual, world, and recognition techniques are necessary to track an object continuously. Optical tracking using marker is mainly used, but it takes time and is inconvenient to attach marker onto the target objects. Therefore, many researchers try to develop markerless tracking techniques nowaday. In this paper, we extract features and 3D position from 3D objects and suggest realtime tracking based on these features and positions, which do not use just coplanar features and 2D position. We extract features using SURF, get rotation matrix and translation vector of 3D object using POSIT with these features and track the object in real time. If the extracted features are nor enough and it fail to track the object, then new features are extracted and re-matched to recover the tracking. Also, we get rotation in matrix and translation vector of 3D object using POSIT and track the object in real time.

Boundary Noise Removal in Synthesized Intermediate Viewpoint Images for 3D Video (3차원 비디오의 중간시점 합성영상의 경계 잡음 제거 방법)

  • Lee, Cheon;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2008.11a
    • /
    • pp.109-112
    • /
    • 2008
  • 최근 MPEG(moving picture experts group)에서 표준화를 진행하고 있는 3차원 비디오 시스템은 다시점 영상과 깊이영상을 동시에 이용하여 사용자가 임의의 시점을 선택하거나 스테레오스코픽 장치와 같은 3차원 영상 재생장 치를 동해 3차원 영상을 제공하는 차세대 방송 시스템이다 제한된 시점수를 이용하여 보다 많은 시점의 영상을 제공하려면 중간시점의 영상을 보간하는 장치가 필수적이다. 이 시스템의 입력정보인 깊이값을 이용하면 시점이동을 쉽게 할 수 있는데, 보간한 영상의 화질은 이 깊이값의 정확도에 따라 결정된다. 깊이맵은 대개 컴퓨터 비전을 기반으로 한 스테레오 정합기술을 이용 획득하는데, 객체의 경계와 같은 깊이값 불연속 영역에서 주로 깊이값 오류가 발생하게 된다. 이런 오류는 생성한 중간영상의 배경에 원치 않는 잡음을 발생시킨다. 기존의 방법에서는 측정한 깊이법의 객체 경계와 영상의 객체 경계가 일치한다는 가정으로 중간영상을 합성했다. 그러나 실제로는 깊이값 측정 과정에서 두 가지 경계가 일치하지 않아 전경의 일부분이 배경으로 합성되어 잡음을 발생하는 것이다. 본 논문에서는 깊이맵을 기반으로 중간시점의 영상을 보간할 때 발생하는 경계 잡음을 처리하는 방법을 제안한다. 중간영상을 합성할 때 비폐색 영역을 합성한 후 경계 잡음이 발생할 수 있는 영역을 비폐색 영역을 따라 구별한 다음, 잡음이 없는 참조 영상을 이용함으로써 경계 잡음을 처리할 수 있다. 실험 결과를 통해 배경 잡음이 사라진 자연스러운 합성영상을 생성했다.

  • PDF

Development of Image Manipulation System based on Reconstructed Point-cloud Model (재구성된 포인트 클라우드 모델 기반 이미지 편집 시스템 개발)

  • Yoon, Hyun-Wook;Hong, Kwang-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.05a
    • /
    • pp.465-468
    • /
    • 2018
  • 현재 사용되고 있는 보편적인 이미지 편집 방식은 이미지 내부 일부 영역을 선택 및 추출하는 방식으로 객체를 배경과 분리한다. 객체가 분리되는 과정에서 객체가 있었던 곳에서는 빈 영역이 발생하게 되는데, 이 문제를 해결하기 위해 인접한 영역을 가져와서 채우거나, 딥러닝을 적용하여 유사한 이미지로 채우는 방식이 가장 보편적이다. 그러나 이러한 방식은 배경에서 유실된 부분을 인공적인 방법으로 채우기 때문에 완벽하게 복원하기가 힘들다. 따라서 본 논문에서는 미리 해당 이미지에 대한 3 차원 정보를 가공 및 저장함으로써 편집으로 인해 유실되는 부분을 3 차원 정보로 부터 복구할 수 있는 아이디어를 제안한다.

An Integrated VR Platform for 3D and Image based Models: A Step toward Interactivity with Photo Realism (상호작용 및 사실감을 위한 3D/IBR 기반의 통합 VR환경)

  • Yoon, Jayoung;Kim, Gerard Jounghyun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.6 no.4
    • /
    • pp.1-7
    • /
    • 2000
  • Traditionally, three dimension model s have been used for building virtual worlds, and a data structure called the "scene graph" is often employed to organize these 3D objects in the virtual space. On the other hand, image-based rendering has recently been suggested as a probable alternative VR platform for its photo-realism, however, due to limited interactivity. it has only been used for simple navigation systems. To combine the merits of these two approaches to object/scene representations, this paper proposes for a scene graph structure in which both 3D models and various image-based scenes/objects can be defined. traversed, and rendered together. In fact, as suggested by Shade et al. [1]. these different representations can be used as different LOD's for a given object. For in stance, an object might be rendered using a 3D model at close range, a billboard at an intermediate range. and as part of an environment map at far range. The ultimate objective of this mixed platform is to breath more interactivity into the image based rendered VE's by employing 3D models as well. There are several technical challenges in devising such a platform : designing scene graph nodes for various types of image based techniques, establishing criteria for LOD/representation selection. handling their transition s. implementing appropriate interaction schemes. and correctly rendering the overall scene. Currently, we have extended the scene graph structure of the Sense8's WorldToolKit. to accommodate new node types for environment maps. billboards, moving textures and sprites, "Tour-into-the-Picture" structure, and view interpolated objects. As for choosing the right LOD level, the usual viewing distance and image space criteria are used, however, the switching between the image and 3D model occurs at a distance from the user where the user starts to perceive the object's internal depth. Also. during interaction, regardless of the viewing distance. a 3D representation would be used, if it exists. Finally. we carried out experiments to verify the theoretical derivation of the switching rule and obtained positive results.

  • PDF