• 제목/요약/키워드: Virtual Camera

검색결과 477건 처리시간 0.025초

최대-최소맵 기반 등위면 광선투사법을 이용한 대화식 가상 관절경 (Interactive Virtual Anthroscopy Using Isosurface Raycasting Based on Min-Max Map)

  • 임석현;신병석
    • 대한의용생체공학회:의공학회지
    • /
    • 제25권2호
    • /
    • pp.103-109
    • /
    • 2004
  • 가상 관절경은 무릎, 어깨 둥 관절에 대한 단층촬영 영상으로부터 관절 내부의 해부학적 구조를 3차원으로 재구성함으로써 광학 관절경을 모사 하는 기법이다. 이 논문에서는 볼륨 렌더링 기법의 일종인 등위면 광선투사법을 이용하여 3차원 영상을 신속하게 생성하는 가상 관절경 기법을 제안한다 여기서 제안하는 등위면 광선투사법은 최대-최소맵을 이용하여 전처리 과정 없이도 실시간에 가까운 속도로 고화질의 영상을 얻을 수 있다. 또한 물리 기반 카메라 제어 모델을 이용함으로써 사용자가 복잡한 해부구조를 가진 관절강 내부에서 가상 카메라를 자유롭게 이동시킬 수 있다. 이러한 고속 렌더링 방법과 현실감 있는 카메라 제어기법을 이용하여 대화식 가상 관절경을 개발하였다.

가상환경에서 수직 운동에 대한 데이터 기반 카메라 조작 (Data-driven camera manipulation about vertical locomotion in a virtual environment)

  • 서승원;노성래;이로운;박승준;강형엽
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권3호
    • /
    • pp.13-21
    • /
    • 2022
  • 본 논문에서는 수직이동이 필요한 가상환경을 사용자가 이동할 때, 어떻게 카메라를 조작하는 것이 멀미를 최소화하면서도 몰입감을 극대화할 수 있는지를 조사하는 것이 목표이다. 일반적으로 사용자는 평평한 공간에서 가상현실을 이용하므로, 사용자의 실제 이동과 가상에서의 이동이 달라져 감각 충돌이 일어나게 되고, 이는 가상현실 멀미를 유발할 가능성을 가진다. 그러므로 3가지의 유력한 카메라 조작기법을 제안하고, 이들을 구현한 후, 사용자 실험을 통해 가장 적절한 모델이 어떤 것인지를 제안하고자 한다.

CGH를 위한 가상시점 깊이영상 합성 시스템 (Virtual View-point Depth Image Synthesis System for CGH)

  • 김택범;고민수;유지상
    • 한국정보통신학회논문지
    • /
    • 제16권7호
    • /
    • pp.1477-1486
    • /
    • 2012
  • 본 논문에서는 가상시점 깊이영상 생성 기법을 이용한 다양한 시점의 CGH(computer generated hologram) 생성 시스템을 제안한다. 제안한 시스템에서는 먼저 TOF(time of flight) 깊이 카메라를 이용하여 신뢰도 높은 기준시점 깊이영상을 획득하고 카메라 보정 과정을 통해 기준시점 카메라들의 카메라 파라미터를 추출한다. 가상시점 카메라의 위치가 정의되면 기준시점 카메라와의 거리와 위치를 고려하여 최적의 기준시점 카메라들을 선택한다. 가상시점 카메라와 가장 가까운 기준시점 카메라를 주 기준시점으로 결정하고 가상시점 깊이영상을 생성한다. 주 기준시점 카메라와 위치가 반대인 기준시점 카메라를 보조 기준시점으로 선택하여 가상시점 깊이영상을 생성한다. 주 기준시점을 통해 생성된 가상시점 깊이영상에 나타나는 가려짐 영역을 보조 기준시점으로 생성된 가상시점 깊이영상으로부터 찾아 보상한다. 보상이 되지 않고 남은 홀영역은 주변값 중 가장 작은 값으로 채워 최종 가상시점 깊이영상을 생성한다. 최종 가상시점 깊이 영상을 이용하여 CGH를 생성한다. 실험을 통해 기존의 기법보다 제안하는 가상시점 깊이영상 합성 시스템의 성능이 우수함을 확인하였다.

가상 평면 기법을 이용한 3차원 기하 정보 획득 알고리즘 (The 3D Geometric Information Acquisition Algorithm using Virtual Plane Method)

  • 박상범;이찬호;오종규;이상훈;한영준;한헌수
    • 제어로봇시스템학회논문지
    • /
    • 제15권11호
    • /
    • pp.1080-1087
    • /
    • 2009
  • This paper presents an algorithm to acquire 3D geometric information using a virtual plane method. The method to measure 3D information on the plane is easy, because it's not concerning value on the z-axis. A plane can be made by arbitrary three points in the 3D space, so the algorithm is able to make a number of virtual planes from feature points on the target object. In this case, these geometric relations between the origin of each virtual plane and the origin of the target object coordinates should be expressed as known homogeneous matrices. To include this idea, the algorithm could induce simple matrix formula which is only concerning unknown geometric relation between the origin of target object and the origin of camera coordinates. Therefore, it's more fast and simple than other methods. For achieving the proposed method, a regular pin-hole camera model and a perspective projection matrix which is defined by a geometric relation between each coordinate system is used. In the final part of this paper, we demonstrate the techniques for a variety of applications, including measurements in industrial parts and known patches images.

차량시뮬레이터 및 아이카메라를 이용한 도로안전성 평가기법 개발 (Development of Road Safety Estimation Method using Driving Simulator and Eye Camera)

  • 도철웅;김원근
    • 한국도로학회논문집
    • /
    • 제7권4호
    • /
    • pp.185-202
    • /
    • 2005
  • 본 연구에서는 현장 실험 조성의 제약을 극복하기 위해 3차원 가상현실(virtual reality)로 설계중인 도로를 모델링한 후, 피실험자가 Eye camera가 장착된 차량 시뮬레이터 (driving simulator)에 탑승하고 주행하면서 운전자가 행하는 선형변화에 대한 동적 반응 및 운전자의 시각행태에 대한 데이터를 획득하였다 본 실험에 적용된 차량시뮬레이터의 그래픽 모듈은 동역학 해석 모듈에 의해 얻어진 데이터를 기초로 하여 운동재현기와 가상환경의 일치감들 최대로 함으로써 피실험자로 하여금 차량시뮬레이터의 비현실성 및 부작용을 최소화하도록 하였다. 또한, Eye camera는 기존의 여타 장비와는 달리 운전자가 헬멧이나 렌즈 등 어떠한 부착장치도 착용하지 않고 실험할 수 있는 FaceLAB을 사용함으로써 운전자의 자연스러운 시각행태를 아무런 데이터 손실없이 획득하였다. 본 연구에서는 조사된 데이터를 바탕으로 도로 안전성을 평가하기 위해 차량 시뮬레이터, Eye camera방법을 통해 설계시 도로 기하구조 변화에 따라 운전자가 느끼는 안전성의 변화를 파악함으로써 도로 기하구조 조건과 안전성의 상관성을 명확하게 규명하고 이를 통해 운전자가 도로 주행시 편안하고 쾌적한 주행을 보장받을 수 있는 도로를 설계 단계에서부터 평가할 수 있는 방법을 제시하려고 한다.

  • PDF

A Study on Implementation of Motion Graphics Virtual Camera with AR Core

  • Jung, Jin-Bum;Lee, Jae-Soo;Lee, Seung-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권8호
    • /
    • pp.85-90
    • /
    • 2022
  • 본 연구는 실제 카메라의 움직임과 동일한 가상 카메라의 움직임을 구현하기 위해 전통적인 모션그래픽 제작 방법이 가지고 있는 소요시간과 비용에 대한 단점을 줄이기 위해 AR Core 기반의 모바일 디바이스 실시간 트래킹 데이터를 이용하여 모션그래픽 가상카메라를 생성하는 방법을 제안했다. 제안하는 방법은 촬영 이후 저장된 비디오 파일에서의 트래킹 작업을 간소화하고, 촬영 단계에서 트래킹 성공 유무를 판단하기 위해 AR Core 기반 모바일 디바이스에서 촬영과 동시에 진행하는 방법이다. 실험결과 전통적인 방법과 비교하였을 때 모션그래픽 결과 이미지의 차이는 없었으나 300프레임(frame) 영상 기준 6분 10초의 시간이 소모된 반면에 제안한 방법은 이 단계를 생략할 수 있어 매우 높은 시간적 효율성을 갖는다. 현재 가상 증강 현실을 이용한 영상제작에 대한 관심과 다양한 연구가 진행되고 있는 시점에서 본 연구는 가상 카메라 생성과 매치 무빙 등에서 활용될 있을 것이다.

Automatic Camera Control Based Avatar Behavior in Virtual Environment

  • Jung, Moon-Ryul
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 Proceedings of International Workshop on Advanced Image Technology
    • /
    • pp.55-62
    • /
    • 1998
  • This paper presents a method of controlling camera to present virtual space to participating users meaningfully. The users interact with each other by means of dialogue and behavior. Users behave through their avatars. So our problem comes down to controlling the camera to capture the avatars effectively depending on how they interact with each other. The problem is solved by specifying camera control rules based on cinematography developed by film producers. A formal language is designed to encode cinematography rules for virtual environments where people can participate in the story and can influence its flow. The rule has been used in a 3D chatting system we have developed.

  • PDF

유클리드 카메라 보정을 하지 않는 비디오 기반 증강현실 (Video-Based Augmented Reality without Euclidean Camera Calibration)

  • 서용덕
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제9권3호
    • /
    • pp.15-21
    • /
    • 2003
  • An algorithm is developed for augmenting a real video with virtual graphics objects without computing Euclidean information. Real motion of the camera is obtained in affine space by a direct linear method using image matches. Then, virtual camera is provided by determining the locations of four basis points in two input images as initialization process. The four pairs of 2D location and its 3D affine coordinates provide Euclidean orthographic projection camera through the whole video sequence. Our method has the capability of generating views of objects shaded by virtual light sources, because we can make use of all the functions of the graphics library written on the basis of Euclidean geometry. Our novel formulation and experimental results with real video sequences are presented.

  • PDF

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.